UNIVERSIDADE DO VALE DO RIO DOS SINOS – UNISINOS
UNIDADE ACADÊMICA DE EDUCAÇÃO CONTINUADA
CURSO DE ESPECIALIZAÇÃO EM ADMINISTRAÇÃO DA TECNOLOGIA
DA INFORMAÇÃO
FABIANO JOSÉ ROSSETTO
COMPLEXIDADE DA GESTÃO DE TI EM EMPRESAS GLOBAIS E
OPORTUNIDADES DA COMPUTAÇÃO NA NUVEM
PORTO ALEGRE
2010
2
FABIANO JOSÉ ROSSETTO
COMPLEXIDADE DE GESTÃO TI EM EMPRESAS GLOBAIS E
OPORTUNIDADES DA COMPUTAÇÃO NA NUVEM
Trabalho
de
conclusão
de
curso
de
especialização apresentado como requisito
parcial para a obtenção do titulo de especialista
em Tecnologia da Informação, pelo curso de
Especialização
em
Administração
da
Tecnologia da Informação da Universidade do
Vale do Rio dos Sinos
Orientador: Prof. Dr. Cláudio Reis Gonçalo
PORTO ALEGRE
2010
3
Dedico este trabalho ao meu filho Arthur e
em especial a Fabíola, minha esposa, pela
compreensão nos momentos mais difíceis.
4
AGRADECIMENTOS
Agradeço a todos os professores do MBA de Administração de Tecnologia da
Informação da Unisinos, que de alguma forma contribuíram para o meu aprendizado.
Ao professor Fabio Junges, pelo incentivo, ajuda e atenção dispensada durante todo o
desenvolvimento deste trabalho, nos momentos mais difíceis e complicados tinha sempre uma
bela saída e norteava uma luz no fim do túnel.
A toda minha família pelos momentos de felicidade que eles me proporcionam,
sempre me apoiando apesar de toda dificuldade sem minha presença nos finais de semana.
Agradeço aos meus amigos Ederson Camargo, Edmilson Rodrigues, Gabriel Hoff,
João Camargo, Rafael Ries e Vantuir Swarowsky pela amizade e companheirismo e por todos
os trabalhos que em sala ou fora dela que sempre estiveram juntos durante estes quase dois
anos de MBA.
Por último, mas não menos importante gostaria de agradecer aos colegas da Souza
Cruz que apoiaram a idéia e colaboraram com sugestões e dicas para a evolução do trabalho.
5
RESUMO
Este trabalho pretende apresentar como a complexidade de gestão de TI vem
aumentando nos últimos anos e as metodologias e ferramentas que são usadas para controlar o
ambiente, além de apresentar o conceito da computação em nuvem, uma tendência que pode
ajudar as empresas a otimizar recursos e melhorar o gerenciamento dos ativos de TI. Através
de entrevistas com os principais executivos de algumas empresas é possível perceber como a
computação em nuvem é vista e quais os principais empecilhos para adoção deste novo
modelo. Como resultado desta avaliação é apresentado uma proposta de implementação na
empresa Souza Cruz como forma de esclarecer o potencial deste novo modelo.
Palavras-Chave: Computação em Nuvem, Gestão da complexidade, Tecnologia da
informação.
6
ABSTRACT
This study analyzes how much the complexity of IT management has been increasing
in recent years and the methodologies and tools that are used to control the environment, and
introduce the concept of cloud computing, a trend that can help companies optimize resources
and improve management of IT assets. Through interviews with chief executives of some
companies you can understand how cloud computing is seen and what are the main obstacles
to the adoption of this new model. As a result of this evaluation is presented a proposal to
Souza Cruz Company in order to clarify the potential of this new model.
Key words: Cloud Computing, Complexity Management, Information Technology
7
LISTA DE FIGURAS
FIGURA 1: RELAÇÃO ENTRE COMPUTAÇÃO UBÍQUA, PERVASIVA E MÓVEL ..............................................................19
FIGURA 2: PERSPECTIVA DE EVOLUÇÃO DE COMPUTAÇÃO UBÍQUA ............................................................................23
FIGURA 3: MODELO COBIT ..........................................................................................................................................25
FIGURA 4: ESTRUTURA DO CICLO DE VIDA DO SERVIÇO (ITIL V3)..............................................................................27
FIGURA 5: NÍVEL DE MATURIDADE CMMI...................................................................................................................29
FIGURA 6: CICLO DE VIDA DE UM PROJETO ...................................................................................................................31
FIGURA 7: MATURIDADE DOS TIPOS DE COMPUTAÇÃO EM NUVEM, 2009 ...................................................................42
FIGURA 8: MATRIZ DE BENEFÍCIOS X TEMPO DE IMPLANTAÇÃO ..................................................................................44
Excluído: 43
8
LISTA DE TABELAS
TABELA 1: TIPOS DE EMPRESAS MULTINACIONAIS E PADRÃO DE CONFIGURAÇÃO DE SISTEMA ................................16
TABELA 2: COMPARAÇÃO ENTRE OS TIPOS DE COMPUTAÇÃO .....................................................................................20
TABELA 3: FASES DO CICLO DE VIDA DE UMA NOVA TECNOLOGIA..............................................................................41
TABELA 4: DELIMITAÇÃO DE ENTREVISTAS .................................................................................................................50
TABELA 5: ASSUNTO X RAZÃO ......................................................................................................................................51
9
LISTA DE SIGLAS
AME: Região da África e Oriente Médio
API: Application Programming Interface
ASPAC: Região da Europa e Ásia Pacífico
BAT: British American Tobbaco
CCTA: Central Computer and Telecommunications Agency
CEO: Chief Executive Officer
CIO: Chief Information Officer
CMM: Capability Maturity Model
COBIT: Control Objectives for Information and related Technology
COSO: Committee of Sponsoring Organizations of the Treadway Commission
CRM: Customer relationship management
EAI: Enterprise Application Integration
ERP: Enterprise Resource Planning
GSD: Global Service Delivery
IaaS: Infrastructure as a Service
IEC: International Electrotechnical Commission
ISO: International Organization for Standardization
ITIL: Information Technology Infrastructure Library
KPA: Key Process Areas
LACAR: Região da América Latina e Caribe
PaaS: Platform as a Service
PDA: Personal Digital Assistants - Assistente Digital Pessoal
PDCA: Plan-Do-Check-Act
PMBOK: Guide to the Project Management Body of Knowledge
PMI: Project Management Institute
RH: Recursos Humanos
SaaS: Software as a Service
SAS: Statement on Auditing Standards
SEI: Software Engineering Institute
TCO: Total Cost Ownership
TI: Tecnologia da Informação
UC: Ubiquitous Computing - Computação Ubíqua
10
SUMÁRIO
1.
INTRODUÇÃO .................................................................................................................................................12
1.1
DEFINIÇÃO DO PROBLEMA.................................................................................................................13
1.2
QUESTÃO DE ESTUDO ..........................................................................................................................13
1.3
OBJETIVOS...............................................................................................................................................13
1.4.1 Objetivo Geral............................................................................................................................................13
1.4.2 Objetivos Específicos ................................................................................................................................13
2.
1.4
DELIMITAÇÃO DO ESTUDO.................................................................................................................14
1.5
JUSTIFICATIVA .......................................................................................................................................14
COMPLEXIDADE DE GESTÃO DE TI NO AMBIENTE GLOBAL ....................................................15
2.1
MODELOS PARA GESTÃO DOS ATIVOS E PROCESSOS DE TI ......................................................24
2.1.1 COBIT ........................................................................................................................................................25
2.1.2 ITIL .............................................................................................................................................................26
2.1.3 CMM...........................................................................................................................................................28
2.1.4 PMI .............................................................................................................................................................30
2.2
EVOLUÇÃO DA TI ...................................................................................................................................32
2.3
COMPUTAÇÃO EM NUVEM..................................................................................................................33
2.3.1 Modelos de aplicação de computação na nuvem .....................................................................................34
2.3.2 Tipos de computação em nuvem...............................................................................................................36
2.3.3 Vantagens x Desvantagens da computação em nuvem ...........................................................................36
2.3.4 Segurança na nuvem ..................................................................................................................................38
2.3.5 Maturidade da computação em nuvem.....................................................................................................41
2.3.6 Matriz de adoção da tecnologia ................................................................................................................43
3.
METODOLOGIA .............................................................................................................................................48
3.1
ESTUDO DE CASO TEÓRICO ...............................................................................................................48
3.1.1 Questionário ...............................................................................................................................................49
4.
3.2
COLETA DE DADOS ...............................................................................................................................50
3.3
TABULAÇÃO E APRESENTAÇÃO DE RESULTADOS ........................................................................51
3.4
CONCLUSÃO DA ANÁLISE DE RESULTADOS...................................................................................51
Excluído: 53
ESTUDO DE CASO APLICADO ..................................................................................................................52
4.1
A EMPRESA SOUZA CRUZ.....................................................................................................................52
4.2
GROUP SERVICE DELIVERY (GSD) ....................................................................................................53
Excluído: 53
Excluído: 54
11
4.2.1 Objetivos do GSD ......................................................................................................................................53
Excluído: 54
Excluído: 55
4.3
ANÁLISE DO CASO .................................................................................................................................54
4.3.1 Análise das entrevistas...............................................................................................................................55
Excluído: 56
4.3.2 Aderência ao ambiente computacional da Souza Cruz ...........................................................................59
Excluído: 60
4.3.3 Próximos Passos.........................................................................................................................................60
Excluído: 61
Excluído: 63
5.
CONCLUSÃO....................................................................................................................................................62
Excluído: 65
REFERÊNCIA BIBLIOGRAFICA .........................................................................................................................64
12
1. INTRODUÇÃO
A necessidade de aperfeiçoar recursos e aumentar o raio de atuação para compartilhar
custos são os principais motivos para as organizações consolidarem serviços de Tecnologia da
Informação (TI) em escala global, neste cenário promissor a visão financeira acaba
penalizando quem faz a operação destes serviços. O chamado “follow the sun”, acaba
gerando sérios problemas para quem necessita comandar uma área de TI em uma empresa de
atuação global.
O aumento da complexidade de gestão de TI é um problema para qualquer executivo
visto que não está próximo do fim, pelo contrário, novas tecnologias, novas plataformas,
maior velocidade de transformação, ampla distribuição em rede, e outras tendências
tecnológicas tendem a transformar a gestão de TI em uma complexa área de atuação. A
evolução dos dispositivos móvel, robótica e a ploriferação da internet fazem com que as
informações atravessem o mundo em questões de segundos e gerenciar estes avanços é o
desafio de qualquer gestor de TI.
Apesar de existirem várias metodologias e ferramentas para apoiar o gerenciamento e
controle dos ativos, estas ferramentas só auxiliam, nenhuma possui uma fórmula mágica que
resolva os problemas. Isso porque as ferramentas focam em alguns pilares, entre eles
processos, pessoas, métricas entre outros. Já a tecnologia permeia estes pilares e evolui muito
mais rápido que as próprias metodologias e principalmente ferramentas, isso não quer dizer
que as metodologias não funcionam, pelo contrário, se não fossem elas hoje estaríamos
vivendo em um ambiente caótico. Porém existe espaço para novos conceitos e novas formas
para melhorar a gestão de TI.
A computação em nuvem é uma tendência tecnológica que vem ganhando espaço no
mercado, com uma filosofia de entregar mais por menos, utilizando de forma mais produtiva
os ativos e entregando exatamente o que foi comprado, não há ociosidade e com isso é
possível compartilhar tais custos com outros clientes.
O trabalho apresentará o detalhamento de como é o gerenciamento atual e sua
estrutura para suportar as necessidades de negócio, assim como um aprofundamento teórico
sobre computação em nuvem, mostrando vantagens e desvantagens da nova tecnologia
considerando segurança da informação.
Através de uma pesquisa com alguns executivos é possível perceber o direcionamento
que as empresas estão adotando para tentar mitigar o problema de gestão de TI, também é
13
possível perceber através da entrevista a perspectiva deles em relação à computação em
nuvem.
1.1
DEFINIÇÃO DO PROBLEMA
Devido a constantes mudanças e novas necessidades de negócio toda organização
precisa ter uma área de TI flexível para as mudanças. Para poder agregar valor ao negócio às
áreas de TI buscam fornecer as mais variadas soluções e em diferentes ambientes geográficos.
Estas variáveis acabam tornando o ambiente de TI mais complexo e de difícil gerenciamento
principalmente quando estamos falando em organizações globais na qual além das
necessidades cotidianas ainda existem diferenças culturais e leis específicas em cada ponto
geográfico.
Neste cenário é que se pretende estudar o modelo de computação em nuvem como
alternativa de redução da complexidade de gestão em TI, por meio de uma análise qualitativa
a partir da percepção de executivos de TI de organizações globais.
1.2
QUESTÃO DE ESTUDO
Como a computação em nuvem pode se tornar uma alternativa à complexidade de
gestão de TI em empresas globais?
1.3
OBJETIVOS
1.4.1 Objetivo Geral
Identificar de que forma a computação em nuvem pode se posicionar como alternativa
para a redução da complexidade da gestão de TI em empresas globais.
1.4.2 Objetivos Específicos
Como objetivos secundários, podem ser citados:

Identificar tendências de mercado em relação a computação em nuvem;

Identificar benefícios na utilização deste modelo;

Analisar o aspecto da segurança no contexto da computação em nuvem;
14
1.4
DELIMITAÇÃO DO ESTUDO
A computação é uma área ampla e qualquer estudo necessita esclarecer as limitações
que o trabalho abrange. Para facilitar o entendimento do que se propõe o trabalho é necessário
determinar o que será visto no estudo.
A pesquisa pretende avaliar o modelo de computação em nuvem e o impacto que este
modelo pode causar na complexidade de gestão de TI em empresas globais. Há, no entanto,
uma série de outros elementos presentes no contexto da gestão de TI em empresas globais,
que não serão analisados nesta pesquisa.
Ainda é proposta deste trabalho olhar a questão da computação em nuvem para
entender se este novo modelo pode ajudar a reduzir a complexidade de gestão. Por outro lado
existem vários outros modelos que podem favorecer a redução da complexidade, que também
não serão explorados nesta pesquisa.
1.5
JUSTIFICATIVA
A gestão de TI é uma área de oportunidade de aprendizado muito importante para
qualquer pessoa do ramo, o divisor de águas entre um bom gestor e um figurante está
justamente no conhecimento e capacidade de agir.
Diante disso é interesse do pesquisador compreender as variáveis de uma boa gestão
principalmente em empresas globais, de forma a viabilizar uma contribuição prática efetiva à
gestão de TI da empresa da qual o pesquisador faz parte.
Outro fator de motivação para o estudo é o pouco conteúdo existente referente à
computação em nuvem, desta forma é de interesse do pesquisador contribuir de alguma forma
para a empresa na qual trabalha, assim como com a comunidade acadêmica.
Por último, mas não menos importante se sabe que existe um grande potencial na
própria Souza Cruz pela utilização da Computação em Nuvem como forma de reduzir a
complexidade de gestão e principalmente a redução de custos dos ativos de TI.
15
2. COMPLEXIDADE DE GESTÃO DE TI NO AMBIENTE GLOBAL
Nos dias atuais, a realidade do mercado e, conseqüentemente, das empresas, são
fortemente influenciadas pela evolução tecnológica, e pelo modelo econômico praticado em
nível global. A alta competitividade tem desafiado as empresas a dar respostas rápidas às
mudanças no ambiente externo. Para ser ágil nestas respostas é necessário um alto índice de
processamento de informações estratégicas permitindo as empresas serem flexíveis para
sobreviver globalmente (SIQUEIRA, 2005).
Segundo Porter (1990), ser o melhor não é mais suficiente, porque todos estão
empenhados em ser o melhor, portanto para uma empresa manter-se no mercado é necessário
criar valor para seus clientes, é se diferenciar dos concorrentes produzindo algo valoroso para
os compradores. Existem três tipos de estratégia para agregar valor aos compradores, que são:
liderança no custo total, diferenciação e enfoque. Na busca de um posicionamento estratégico
algumas empresas acabam adquirindo outras para acelerar o processo. Nestas aquisições ou
fusões a Tecnologia da informação tem um papel fundamental e muitas vezes são diretamente
responsáveis para o sucesso ou fracasso da estratégia da empresa.
As operações de fusão e aquisição precisam levar em conta diversos aspectos
relacionados ao aumento na complexidade da gestão de TI, isso porque em um processo como
este existem muitas variáveis que devem ser tratadas, tais como:

Plataforma de desenvolvimento;

Infraestrutura;

Telecomunicações;

Padronização dos processos;

Fluxo de informação;

Integração de aplicações;
De acordo com Laudon e Laudon (1996), as empresas desenvolvem sistemas de
informação internacionais respondendo à desafios e pressões do ambiente empresarial. O nãoalinhamento entre a TI e a estratégia global de negócios pode prejudicar severamente os
esforços de uma empresa em sua busca de uma efetiva presença global.
Não se pode esquecer que algumas estratégias globais de negócio são particularmente
dependentes de informações precisas e atualizadas a respeito das operações em outros países.
As empresas devem desenvolver estratégias claras para enfrentar esses desafios e os sistemas
de informação internacionais precisam estar em consonância com essas estratégias. Os
16
desafios enfrentados pelas empresas para a implementação de sistemas transnacionais são
divididos pelos autores em duas categorias: desafios devidos a fatores culturais
(desenvolvimento de uma “cultura global”, evolução local das telecomunicações e redes de
transporte, estabilidade política) e desafios devidos a fatores de negócios em escala global
(desenvolvimento de mercados, produção distribuída, obtenção de economias de escala).
Os autores ressaltam que cada indústria é afetada por esses fatores de maneira
diferente. Os autores relacionam, ainda 4, possibilidades para a gestão de TI em empresas
globalizadas, distinguindo 4 diferentes tipos de configuração de sistemas de informações:
centralizados, duplicados, descentralizados e coordenados. Os sistemas centralizados são
desenvolvidos e operados de maneira centralizada, possivelmente em um único local. Os
sistemas duplicados são desenvolvidos de maneira centralizada, mas são distribuídos às
subsidiárias para que sejam operados localmente. Os sistemas descentralizados são
desenvolvidos e operados localmente por equipes de TI independentes (aparentemente este é
o tipo de gestão de TI mais comum nas empresas internacionais). Finalmente, os sistemas
coordenados são aqueles em que tanto o desenvolvimento quanto a operação são executado de
forma integrada e coordenado através de todas as subsidiárias. Esse último tipo de sistema
usualmente pressupõe uma grande infraestrutura de telecomunicações e um grande esforço de
desenvolvimento de aplicativos e de gerenciamento partilhado que ultrapasse todas as
barreiras culturais. A configuração de sistemas dominante varia conforme o tipo de empresa
global e apresenta tendência à mudança. Na tabela 1 é retratado este comportamento
observado pelos autores, ficando claro o padrão atualmente observado e o padrão emergente
de desenvolvimento e gestão de sistemas.
Tabela 1: Tipos de empresas multinacionais e padrão de configuração de sistema
CENTRALIZADO
EXPORTADORA
DUPLICADO
Dominante
TRANSNACIONAIS
COORDENADO
Emergente
MULTINACIONAIS
FRANQUEADORAS
DESCENTRALIZADO
Dominante
Dominante
Emergente
Emergente
Dominante
Fonte: Laudon e Laudon (1996)
Entre as dificuldades, decorrentes da utilização de sistemas descentralizados, estão as
restrições das legislações trabalhistas locais, as diferenças nos fusos-horários, as diferenças de
qualidade e confiabilidade no fornecimento de energia elétrica local e problemas diversos, tais
17
como roubo e sabotagem. Nesse caso, também é fundamental a decisão se o sistema será
único, duplicado nos diversos países, ou se serão permitidas manutenções locais. Essa última
opção pode conduzir a grandes diferenças ao longo do tempo para o que deveria ser um único
sistema. Sem uma forte supervisão central na manutenção dos sistemas, a tendência é que eles
evoluam para uma série de diferentes sistemas locais, não interessando quão similares sejam
os negócios.
A telecomunicação foi destacada por Ives e Jarvenpaa (1991) como o aspecto mais
importante relacionado com a plataforma de TI em sistemas globais. A esse aspecto estão
associadas questões de custo e qualidade, tais como capacidade de transmissão,
disponibilidade e confiabilidade das linhas de comunicação. Também são importantes os
aspectos relativos às diferentes plataformas de software e hardware envolvidos em função da
disponibilidade e do suporte oferecido por fornecedores nos diversos países onde a
organização opera sistemas de informações. A disponibilidade das plataformas pode estar
associada com: diferentes regulamentações na importação de equipamentos e software, altas
taxas de importação, ausência de distribuidores autorizados e longos prazos de entrega.
Mesmo que todos os recursos necessários estejam disponíveis nos países desejados, ainda
assim podem existir diferenças entre os equipamentos e programas locais e da matriz, por
força de adaptações realizadas pelos fornecedores.
A padronização dos dados e informações é o principal problema que afeta o aspecto
compartilhamento. É comum usuário de aplicações globais utilizarem bancos de dados
centralizados ou, se este não for o caso, terem que consolidar dados dos diferentes países.
Normalmente, isto exige que os dados envolvidos estejam bem definidos e padronizados, o
que é percebido como impondo significativas barreiras para o compartilhamento internacional
de dados. Entre os problemas relacionados com a padronização dos dados estão as
dificuldades de linguagem, pois podem existir diferentes significados para a mesma frase ou
palavra, diferenças em padrões e procedimentos nacionais, exigências legais, entre outras. O
uso de códigos (de produtos, matérias-primas ou peças) diferentes em cada um dos países
pode também representar dificuldades para a padronização, assim como diferenças entre
moedas e medidas utilizadas.
Deve-se observar que a necessidade de padronização dos dados pode enfrentar
resistências por parte dos usuários locais, e que para enfrentar essa resistência é necessário
encontrar um elemento na organização (pessoa ou departamento) que assuma a
responsabilidade de liderar o processo de padronização e mudança. É importante garantir o
envolvimento dos usuários e equipes de TI das subsidiárias no desenvolvimento destes
18
padrões. Outra questão é a necessidade de se contrapor a padronização com a necessidade de
flexibilidade local, dependendo das necessidades e características do negócio, empresa,
mercado e país. Em síntese deve-se buscar a padronização dos dados e processos comuns e o
projeto de uma arquitetura de dados globais construídas em torno dos objetivos de negócio da
organização.
Stephens (1999) cita as seguintes dificuldades com a criação de sistemas de
informação globais: diferenças de língua, legislação relativa à troca internacional de dados e
informações, legislação local e problemas específicos de recursos humanos locais. Laudon e
Laudon (1996) afirmam que diferenças políticas e culturais afetam profundamente os
procedimentos operacionais padronizados das empresas. Entre os motivos apresentados estão
às diferentes práticas contábeis, as diferentes leis que regem o trânsito de informações,
políticas de privacidade, horário comercial, termos utilizados nos negócios e mesmo aspectos
culturais extremamente específicos como, por exemplo, o fato de no Japão o uso do fax
prevalecer sobre o e-mail. Os aspectos culturais e legais também se refletem nas práticas
contábeis, por exemplo, na Alemanha os lucros relativos a um determinado investimento só
são contabilizados quando os projetos estão terminados e pagos, enquanto que na Inglaterra
esses lucros começam a ser contabilizados no momento em que há uma razoável certeza de
que o projeto dará certo. Até razões intrínsecas de procedimentos podem intervir, por
exemplo, os sistemas contábeis das empresas anglo-saxônicas são focados em mostrar a
velocidade com que os lucros da empresa estão crescendo, enquanto que no restante da
Europa o foco dos sistemas contábeis é mostrar a adequação da empresa às regras e leis,
diminuindo a possibilidade de ser legalmente penalizada.
Outra questão que aumenta a complexidade na gestão de TI são as tecnologias de
computação móvel que encontram atualmente em franca evolução e parecem destinadas a
transformar-se no novo paradigma dominante da computação. A utilização destes dispositivos
móveis criou um novo conceito, caracterizado pelo uso de dispositivos de comunicação sem
fio de forma transparente e com alto grau de mobilidade que é conhecida também como
computação pervasiva.
De acordo com Araújo (2007), adaptado de Lyytinen & Yoo (2002), computação
móvel baseia-se no aumento da nossa capacidade de mover fisicamente serviços
computacionais conosco, ou seja, o computador torna-se um dispositivo sempre presente que
expande a capacidade de um usuário utilizar os serviços que um computador oferece,
independentemente de sua localização. Combinada com a capacidade de acesso, a
19
computação móvel tem transformado a computação numa atividade que pode ser carregada
para qualquer lugar.
O conceito de computação pervasiva implica que o computador está embarcado1 no
ambiente de forma invisível para o usuário. Nesta concepção, o computador tem a capacidade
de obter informação do ambiente no qual ele está embarcado e utilizá-la para dinamicamente
construir modelos computacionais, ou seja, controlar, configurar e ajustar a aplicação para
melhor atender as necessidades do dispositivo ou usuário. O ambiente também pode e deve
ser capaz de detectar outros dispositivos que venham a fazer parte dele. Desta interação surge
a capacidade de computadores agirem de forma “inteligente” no ambiente no qual nos
movemos, um ambiente povoado por sensores e serviços computacionais (LYYTINEN &
YOO 2002).
A computação ubíqua beneficia-se dos avanços da computação móvel e da
computação pervasiva. A computação ubíqua surge então da necessidade de se integrar
mobilidade com a funcionalidade da computação pervasiva, ou seja, qualquer dispositivo
computacional, enquanto em movimento conosco, pode construir, dinamicamente, modelos
computacionais dos ambientes nos quais nos movemos e configurar seus serviços dependendo
da necessidade.
Figura 1: Relação entre Computação Ubíqua, Pervasiva e Móvel
Fonte: ARAÚJO (2007)
Esta trilha, que sai do atributo mobilidade, cruza o terreno pervasivo e chega à
ubiqüidade, pode ser encarada como realidade em construção, uma vez que já existem
pesquisas e produtos que provam sua viabilidade num futuro muito próximo. Vide, por
exemplo, as pesquisas para o desenvolvimento de dispositivos e segurança em redes sem fio
1
Um sistema embarcado é um sistema microprocessado no qual o computador é completamente encapsulado ou
dedicado ao dispositivo ou sistema que ele controla. Diferente de computadores de propósito geral, como o
computador pessoal, um sistema embarcado realiza um conjunto de tarefas pré-definidas, geralmente com
requisitos específicos. Já que o sistema é dedicado a tarefas específicas, através de engenharia pode-se otimizar o
projeto reduzindo tamanho, recursos computacionais e custo do produto. Definição da Wikipedia, disponível em:
<http://pt.wikipedia.org/wiki/Sistema_embarcado>. Acesso em 09 de junho de 2010.
20
(wireless), compressão e armazenamento de dados e datacenter, largura de banda,
miniaturização e ampliação do tamanho de telas, durabilidade de baterias e adaptação de
conteúdos para variados dispositivos, entre outros.
São estudos que convergem para a computação ubíqua e por extensão, a ubiqüidade da
comunicação. No mercado de consumo também já encontramos evidências de computação
ubíqua em roteadores que disponibilizam acesso sem fio à internet dentro de nossas casas; nos
eletrodomésticos, residências e edifícios chamados “inteligentes”; nos sistemas de
monitoramento e segurança; nos dispositivos de controle de temperatura, iluminação,
umidade etc.
Na tabela 2 pode-se visualizar, de forma clara, a computação ubíqua como uma síntese
da mobilidade com alto grau de embarque de hardwares e de programas, que praticamente se
fundem em plataformas técnicas de dispositivos portáteis. Ou seja, um dispositivo de controle
dedicado ao ambiente para o qual foi projetado e com possibilidades múltiplas de conexão e
comunicação.
Tabela 2: Comparação entre os tipos de computação
Mobilidade
Grau de Embarcamento
Computação
Pervasiva
BAIXA
ALTO
ALTA
Computação
Ubíqua
ALTA
BAIXO
ALTO
Computação Móvel
Fonte: LYYTINEN e YOO (2002)
Os horizontes propostos pela computação ubíqua, que além de conectar dispositivos,
conectam pessoas e grupos por elas formados facilitam e ampliam os processos de
comunicação, de aquisição, de conhecimento, de entretenimento e lazer. Percebe-se aqui, a
idéia de que a computação ubíqua permitirá que haja comunicação ubíqua.
A “Vida digital” preconizada por Negroponte (1995) nunca esteve tão próxima. Neste
início de século XXI ocorre uma transformação tecnológica silenciosa que muda
gradativamente a vida cotidiana. São poucas pessoas que possuem a percepção da ubiqüidade
que as redes computacionais introduzem nas relações individuais e coletivas, de comunicação,
educação, trabalho, entretenimento etc. A tecnologia torna-se capaz de simular mundos e
existências virtuais paralelas em um lugar intangível. Os sistemas informáticos pervasivos
envolvem sorrateiramente todo o ambiente humano com suas teias binárias invisíveis e
poderosas.
21
Já Greenfield (2006), diz que outra grande variável complexa que está cada vez mais
tomando forma é a computação ubíqua que tem como objetivo tornar a interação pessoamáquina invisível, ou seja, integrar a informática com as ações e comportamentos naturais das
pessoas. Não invisível como se não pudesse ver, mas, sim de uma forma que as pessoas nem
percebam que estão dando comandos a um computador, mas como se tivessem conversando
com alguém. Além disso, os computadores teriam sistemas inteligentes que estariam
conectados ou procurando conexão o tempo todo, dessa forma tornando-se onipresente.
Ainda Greenfield (2006), diz que o primeiro passo para conseguir chegar a essa
interação mais fácil ou invisível, é a utilização de interfaces naturais, a forma mais primitiva
que temos de interagir com algum ser humano, que é a utilização da fala, gestos, presença no
ambiente ou até mesmo a movimentação dos olhos, deixando dessa forma o teclado e mouse
sem nenhuma utilização. O segundo passo seria a geração de uma computação sensível a
contexto, essa tecnologia torna possível que os dispositivos possam capturar o contexto
automaticamente. O contexto nesse caso é a presença de uma pessoa ao espaço ou qualquer
tipo de movimento corporal, movimentação dos braços, dedos, cabeça, olhos e até
movimentos faciais.
Esta tecnologia ainda não está no viés das corporações, mas em pouco tempo a
tecnologia da informação terá que prover soluções utilizando estes modelos e estes deverão
aumentar exponencialmente a complexidade de gestão destes itens de configuração.
A computação ubíqua tem por objetivo tornar o uso do computador mais agradável
fazendo que muitos computadores estejam disponíveis em todo ambiente físico, mas de forma
invisível para o usuário (SOUSA, 2004).
A UC (Computação Ubíqua) não é realidade virtual, não é um assistente digital
pessoal, não é uma computação pessoal ou íntima com agentes fazendo suas ofertas. A
computação ubíqua prevê um mundo com vários tipos de dispositivos conectados entre si,
com redes sem fio em todo lugar e com um custo bem baixo. Ao contrário do PDA, a
computação ubíqua afirma que o usuário não precisa carregar muitas coisas consigo, uma vez
que a informação pode ser acessada em qualquer lugar, e a qualquer momento.
Ainda Sousa (2004) diz que: Pervasive Computing, Computação Pervasiva ou
Computação Ubíqua é o termo utilizado para referenciar a integração da computação móvel e
onipresente com o espaço físico. É um tipo de computação distribuída realizada por
dispositivos de computação que atuam de forma discreta nos ambientes onde estão
implantados.
22
Já Weiser (1996) diz que: A essência da visão é a criação de ambientes impregnados
com dispositivos de computação e comunicação, interagindo diretamente com o homem.
Esses ambientes de computação são espaços físicos quaisquer (salas de aula, escritórios,
edifícios, etc) e os dispositivos eletro-eletrônicos podem ser sensores, computadores e outros,
capazes de realizar alguma computação útil aos freqüentadores do ambiente. Os dispositivos
devem estar altamente adaptados ao cotidiano dos indivíduos (pessoas, animais e/ou outros
seres vivos) e em harmonia com outros objetos presentes.
Tais ambientes são comumente nomeados de “Espaços Ativos” ou “Super Spaces”.
Segundo Weiser (1996), uma das principais características desses ambientes é que a interação
entre os usuários e os dispositivos ocorre de forma tranqüila (Calm Technology). Os usuários
não precisam se lembrar ou até mesmo saber que estão interagindo com máquinas. Apenas
usufruir dos benefícios da computação que ocorre naturalmente. É o que freqüentemente
chamamos de computação invisível.
Ainda segundo Weiser (1996), a computação ubíqua seria o inverso da realidade
virtual. Enquanto na computação ubíqua tentamos adaptar dispositivos eletrônicos à vida das
pessoas, na realidade virtual criamos uma vida fictícia onde as pessoas são inseridas, achando
que estão vivendo durante o tempo em que a computação ocorre.
Para Greenfield (2006), outra característica importante da computação ubíqua, que
inclusive explica seu nome, é a onipresença. Os dispositivos computacionais podem e devem
estar presentes a qualquer hora e em qualquer lugar. A onipresença e a adaptação dos
dispositivos à vida das pessoas que nos traz um vislumbre de um eventual futuro. Tal futuro
traria uma grande ajuda com relação ao atual problema de “sobrecarga de informação”, ao
invés das pessoas se preocuparem em lembrar as várias coisas de que necessitam, as coisas é
que lembrariam as pessoas do que e quando teriam que ser executadas. Em outras palavras,
uma pessoa poderia ser lembrada de que, já é hora para uma troca de óleo do seu carro, ou de
que está faltando café no armário da cozinha. Ou mais além, deixar que a própria cozinha
fizesse as compras dos itens necessários através de um simples envio de pedido a um
supermercado.
Sousa (2004) ainda diz que, a computação ubíqua é considerada por muitos a terceira
onda da computação, cujo ponto de cruzamento com a computação pessoal deverá ocorrer
entre 2006-2020. A era da computação Ubíqua terá vários computadores compartilhados por
todas as pessoas. Alguns desses computadores serão centenas daqueles que as pessoas podem
acessar durante alguns minutos de consulta na Internet. Outros estarão implantados em
paredes, cadeiras, roupas, carros, em tudo. A “UC” é fundamentalmente caracterizada pela
23
conexão das coisas existentes no mundo através da computação. Entre essas coisas estão
incluídas várias escalas, até microscópicas.
A figura 02 ilustra a cronologia das três abordagens da computação (mainframe,
pessoal e ubíqua):
Figura 2: Perspectiva de evolução de computação Ubíqua
1950
1970
Mainframe
1990
PCs
2010
2020
Ubiquitous
Fonte: Greenfield (2006)
Estes e outros fatores tornam a gestão da TI em ambientes globais muito mais
complexas e rodeada de desafios, pois necessitam garantir que as informações estejam
disponíveis para as pessoas certas no momento correto e onde as pessoas estiverem. A
diferença entre TI local e TI global é que as pessoas necessitam de informações a cada
segundo, pois estão geograficamente separadas, e quanto mais informações possuem mais
informações necessitam. Ninguém disse que gerenciar os sistemas corporativos de TI é uma
tarefa fácil. No entanto, com base nos últimos dez anos, quando muitas tecnologias surgiram,
seria razoável afirmar que a gestão tecnológica das empresas tenderia a tornar-se menos árdua
e complexa. Atualmente o mercado de tecnologia contabiliza milhares de lançamentos
durante a década que passou, a verdade aparece: o gerenciamento dos ambientes de TI está
infinitamente mais complicado do que há alguns anos, quando os CIOs estavam preocupados
com o bug do milênio.
Segundo Cio (2009), os resultados de uma pesquisa realizada com 353 decisores de TI
pela Technology Services Industry Association, entidade norte-americana que reúne os
fornecedores de serviços, confirma essa perspectiva.
24
Dois terços dos profissionais ouvidos para o estudo afirmam que, na medida em que o
ambiente corporativo de TI está mais complexo do que há cinco anos, é mais difícil
implementar projetos de software de forma ágil e eficiente. Eles atribuem esse cenário à
proliferação de tecnologias no mercado e à criação de dinâmicas burocráticas de aprovação de
projetos nas empresas. Cerca de 53% dos participantes também assumiram que menos da
metade dos usuários que deveria acessar o software consegue fazer isso de forma adequada.
Isso faz com que as empresas não consigam atingir todos os benefícios como redução de
custos, aumento de receita, diferenciação competitiva, entre outros, que são os principais
motivos pelos quais os investimentos em software acontecem. Quase 60% dos compradores
de software que responderam à pesquisa disseram que o CEO ainda responsabiliza o
departamento de tecnologia por toda falha relacionada aos sistemas ou dados corporativos.
Isso porque a maioria das companhias quer poder contar com um fluxo de dados sempre
disponíveis e ágeis sem investir o necessário. Gerenciar informações é uma tarefa
extremamente complexa e que implica no investimento em software.
A seguir é possível perceber que a TI procura organizar-se para prover ferramentas e
modelos de gestão para minimizar os impactos que a complexidade vem trazendo para a área.
2.1
MODELOS PARA GESTÃO DOS ATIVOS E PROCESSOS DE
TI
A complexidade das tecnologias da informação é diretamente proporcional à
complexidade das organizações de TI. Atualmente, administrar uma organização de TI exige
a adoção de vários padrões, tais como: COBIT, ITIL, CMM, PMI, etc. Isto confunde alguns
gestores entre as atividades meio e fim da organização. É obvio que TI está para atender aos
requisitos de negócios das empresas, porém uma gestão pouco eficaz de seus recursos pode
compromete toda a empresa. É praticamente impossível um CIO (Chief Information Officer)
estar envolvido em cada etapa dos projetos e processos de TI, porém é essencial que tenha
pleno domínio da organização. Para simplificar a gestão de TI os CIOs devem focar em
quadro dimensões: Pessoas, Projetos, Processos e Métricas (FAGUNDES, 2009).
Ainda Fagundes (2009), as tecnologias da informação se sofisticam para atender
requisitos de integração de dados e processos e para garantir maior disponibilidade dos
sistemas. As transações em tempo real entre fornecedores e clientes trazem uma nova
realidade para as empresas. O uso da Internet como ferramenta de integração trouxe grandes
vantagens para as empresas, porém o fator segurança ameaça a integridade das informações.
25
A redução dos custos de comunicação com o uso da Internet é compensada com os pesados
investimentos com ferramentas de segurança. Para que uma organização de TI consiga
desenvolver e operar as novas tecnologias é necessário um batalhão de especialistas, um
contínuo aperfeiçoamento da equipe e um controle absoluto dos processos e do orçamento.
Uma gestão competente é importante para garantir que os investimentos atinjam o retorno do
investimento prometido, a confiabilidade e disponibilidade das informações.
Para administrar essa complexidade multidisciplinar foram criados vários padrões de
gestão de TI, desenvolvidos por organizações internacionais que fomentam a governança de
TI. A partir do modelo de governança corporativa – COSO (Committee of Sponsoring
Organizations of the Treadway Commission) – desenvolveu-se um conjunto de padrões que
ajudam as organizações de TI a desenhar modelos de gestão. Os principais modelos de gestão
adotados por TI são: CobiT, ITIL, CMM e o PMI para controle de projetos.
2.1.1 COBIT
De acordo com Isaca (2009), o CobiT (Control Objectives for Information and related
Technology) inclui recursos tais como um sumário executivo, um framework, controle de
objetivos, mapas de auditoria, um conjunto de ferramentas de implementação e um guia com
técnicas de gerenciamento. As práticas de gestão do CobiT são recomendadas pelos peritos
em gestão de TI que ajudam a otimizar os investimentos de TI e fornecem métricas para
avaliação dos resultados. O CobiT independe das plataformas de TI adotadas nas empresas.
Figura 3: Modelo COBIT
Fonte: www.isaca.org
26
Strategic Alignment (Alinhamento Estratégico): Possui foco em ligar o plano de TI ao
negócio, definindo, mapeando e validando o valor agregado que o alinhamento de TI possui
com as operações da empresa.

Fornece orientação clara para garantir investimentos que suportam o negócio;

Aborda o ciclo de vida completo dos investimentos de TI;
Value Delivery (Entregar Valor): Busca direcionar a entrega de valor a cada ciclo,
garantindo os benefícios que foram prometidos contra a estratégia, concentrando e otimizando
custos e provendo valor intrínseco de TI.
Resource Management (Gerenciamento de Recursos): Busca aperfeiçoar o investimento e
o gerenciamento adequado dos recursos críticos de TI, que são: Pessoas, processos,
aplicações, infraestrutura e informação e questões fundamentais relacionadas conhecimento.
Risk Management (Gerenciamento de Riscos): Busca deixar transparente aos altos
executivos da empresa os riscos significativos e a incorporação das responsabilidades da
gestão destes riscos na organização.
Performance Measurement (Medição de desempenho): Busca monitorar a implementação
da estratégia, conclusão de projetos, uso de recurso, desempenho de processos e serviços
utlizando de ferramentas que traduzam a estratégia em ações para atingir metas e que estas
metas sejam mensuráveis além da contabilidade convencional.
2.1.2 ITIL
O ITIL (Information Technology Infrastructure Library) é um dos modelos de gestão
para serviços de TI mais adotados pelas organizações. O ITIL é um modelo não-proprietário e
público que define as melhores práticas para o gerenciamento dos serviços de TI. Cada
módulo de gestão do ITIL define uma biblioteca de práticas para melhorar a eficiência de TI,
reduzindo os riscos e aumentando a qualidade dos serviços e o gerenciamento de sua
infraestrutura. O ITIL foi desenvolvido pela agência central de computação e
telecomunicações do Reino Unido (CCTA) a partir do início dos anos 80.
27
Figura 4: Estrutura do ciclo de vida do serviço (ITIL v3).
Fonte: ITIL V3 Structure http://www.itil-officialsite.com/home/home.asp
Service Strategy (Estratégia do serviço): Fornece orientações sobre como projetar,
desenvolver e implementar a gestão de serviços, não apenas como uma capacidade
organizacional, mas também como um ativo estratégico. São fornecidas orientações sobre os
princípios subjacentes à prática de gestão de serviços que são úteis para os serviços de
políticas de gestão, orientações e processos através do Serviço de Ciclo de Vida. Os tópicos
abordados na Estratégia de Serviço incluem o desenvolvimento de mercados, interno e
externo, os ativos, serviço de catálogo e implementação da estratégia através do ciclo de vida
do serviço, gestão Financeira, a carteira de serviços gestão, desenvolvimento organizacional, e
riscos estratégicos são, entre outros tópicos principais.
Service Design (Desenho do Serviço): Fornece orientação para a concepção e
desenvolvimento dos serviços e processos. Abrange os princípios de design e
métodos para converter objetivos estratégicos em portfólios de serviços e de serviço
ativos. O âmbito do serviço Design não se limita a novos serviços, ele inclui
mudanças
e
melhorias
necessárias
para
aumentar
ou
manter
o
valor
aos
clientes ao longo do ciclo de vida do serviço, a continuidade dos serviços, a realização
dos níveis de serviço e atendimento às normas e regulamentos.
28
Service Transition (Transição dos serviços): Fornece orientações para o desenvolvimento e
melhoria das capacidades para a transição dos novos serviços e colocados em operações. Esta
publicação oferece orientação sobre como os requisitos de estratégia de serviço codificado
anteriormente são efetivamente realizados na operação, controlando os riscos de fracasso e
ruptura. Fornece orientações sobre como gerenciar a complexidade relacionada à
alterações nos serviços e processos de gerenciamento de serviços, evitando indesejáveis
conseqüências, permitindo a inovação. São fornecidas orientações sobre a transferência de
o controle de serviços entre clientes e prestadores de serviços.
Service Operations (Operação do Serviço): Incorpora práticas na gestão de operações de
serviços. Inclui orientações sobre a realização eficiente e eficaz na entrega e suporte de modo
a assegurar o valor para o cliente e o provedor. Os objetivos estratégicos são, em última
análise realizada através da operação, portanto, tornando-se uma capacidade crítica. São
fornecidas orientações sobre as formas de manter estabilidade, permitindo mudanças no
design, escala, escopo e níveis de serviço. É fornecido aos gestores conhecimentos que
possibilite tomar decisões em áreas como a gestão da disponibilidade, controlando a demanda,
otimizando a utilização da capacidade, e problemas de correções. São fornecidas orientações
sobre apoio às operações através de novos modelos e arquiteturas, tais como serviços
compartilhados, utility computing, serviços web e comércio móvel.
Continual Service Improvement (Melhoria continua): Fornece orientação na criação e
manutenção de valor para clientes através de uma melhor concepção, introdução e operação
dos serviços. Combina princípios, práticas e métodos de gestão da qualidade, mudanças e
melhoria da capacidade. Um circuito fechado sistema de feedback, com base no Plan-DoCheck-Act (PDCA) modelo especificado no ISO / IEC 20000, está estabelecido e é capaz de
receber contribuições para a mudança de qualquer perspectiva de planejamento.
2.1.3 CMM
O CMM for software (Capability Maturity Model for software) é um processo
desenvolvido pela SEI (Software Engineering Institute) para ajudar as organizações de
software a melhorar seus processos de desenvolvimento. O processo é dividido em cinco
níveis seqüenciais bem definidos: Inicial, Repetível, Definido, Gerenciável e Otimizado.
Esses cinco níveis provêm uma escala crescente para mensurar a maturidade das organizações
29
de software. Esses níveis ajudam as organizações a definir prioridades nos esforços de
melhoria dos processos.
Figura 5: Nível de maturidade CMMI
Fonte: Site Oficial CMMI http://www.sei.cmu.edu/cmmi/
Nível 1 - Inicial: É o nível de maturidade CMMI mais baixo. Em geral, as organizações desse
nível têm processos imprevisíveis que são pobremente controlados e reativos. Nesse nível de
maturidade os processos são normalmente “ad hoc” e caóticos. A organização geralmente não
fornece um ambiente estável. Neste nível não há KPA's.
Nível 2 – Gerenciado: No nível de maturidade 2 os projetos da organização têm a garantia de
que os requisitos são gerenciados, planejados, executados, medidos e controlados. Quando
essas práticas são adequadas, os projetos são executados e controlados de acordo com o
planejado. O foco, neste nível, é o gerenciamento básico de projetos e tem os seguintes
KPA's: gerenciamento de requisitos; planejamento do projeto; controle e monitoração do
projeto; gerenciamento de suprimentos; avaliação e análise; garantia da qualidade do
processo; configuração do gerenciamento.
Nível 3 – Definido: Neste nível, todos os objetivos específicos e genéricos atribuídos para os
níveis de maturidade 2 e 3 foram alcançados, os processos são melhor caracterizados e
entendidos e são descritos em padrões, procedimentos, ferramentas e métodos. O foco neste
nível é a padronização do processo, tendo como KPA's: requisitos de desenvolvimento;
30
soluções técnicas; integração de produtos; verificação; validação; foco no processo
organizacional;
definição
do
processo
organizacional;
treinamento
organizacional;
gerenciamento de projeto integrado; gerenciamento de riscos; integração da equipe de
trabalho; gerenciamento integrado de suprimentos; análise de decisões; ambiente
organizacional para integração.
Nível 4 - Quantitativamente Gerenciado: Neste nível, os objetivos específicos atribuídos
para os níveis de maturidade 2, 3 e 4 e os objetivos genéricos atribuídos para os níveis de
maturidade 2 e 3 foram alcançados, os processos são medidos e controlados. O foco neste
nível é o gerenciamento quantitativo e possui as seguintes KPA's: desempenho organizacional
do processo; gerenciamento quantitativo de projetos.
Nível 5 – Otimizado: No nível de maturidade 5, o mais alto nível de maturidade CMMI, uma
organização atingiu todos os objetivos específicos atribuídos para os níveis de maturidade 2,
3, 4 e 5, e os objetivos genéricos atribuídos para os níveis de maturidade 2 e 3. Os processos
são continuamente aperfeiçoados, baseadas em um entendimento quantitativo em que a
variação de um processo existe devido às interações, normais e presumidas, entre os
componentes desse processo. Esse nível de maturidade tem como objetivo a melhoria
contínua do processo. As KPA's desse nível são: inovação organizacional e análise de causas
e resoluções.
2.1.4 PMI
O PMI (Project Management Institute) é a uma organização sem fins lucrativos de
profissionais da área de gerenciamento de projetos. O PMI visa promover e ampliar o
conhecimento existente sobre gerenciamento de projetos assim como melhorar o desempenho
dos profissionais e organizações da área. As definições e processos do PMI estão publicados
no PMBOK (Guide to the Project Management Body of Knowledge). Esse manual define e
descrevem as habilidades, as ferramentas e as técnicas para o gerenciamento de um projeto. O
gerenciamento de projetos compreende cinco processos – Início, Planejamento, Execução,
Controle e Conclusão, bem com nove áreas de conhecimento: Integração, escopo, tempo,
custo, qualidade, recursos humanos, comunicação, análise de risco e aquisição.
31
Figura 6: Ciclo de vida de um projeto
Fonte: Site Oficial PMI http://www.pmi.org
Iniciação: é a etapa onde tomamos conhecimento do projeto a ser feito, é o momento da
confecção do briefing ou da leitura à equipe, é nesta hora onde surgem diversas dúvidas do
projeto. Em geral é uma etapa que deve ser desenvolvida em uma reunião de brainstorm.
Planejamento: Neste passo o projeto é detalhado, se aplicarmos o principio de Pareto, é onde
investimos 80% do nosso tempo. É o momento em que detalhamos as atividades,
pesquisamos, determinamos prazos, alocamos recursos e custos. O resultado do planejamento
é uma lista de tarefas e/ou um gráfico de Gantt.
Execução: é o objetivo do projeto, podemos considerar que é a “hora da verdade”, o gestor
técnico quem faz a gestão neste momento, é hora de colocar o projeto em prática.
Controle: é onde o gestor do projeto faz o controle da execução, registrando tempo e recursos
e gerenciando as possíveis mudanças.
Conclusão: é o momento onde todas as tarefas (escopo) definidas foram concluídas, é a hora
em que o projeto termina.
Esses padrões devem ser adotados pelas organizações de TI em maior ou menor
escala, dependendo da complexidade do negócio. Quanto mais complexo o negócio mais
formal devem ser a implementação dos processos e seu controle. Se analisarmos as técnicas e
as práticas recomendadas por esses padrões, chegaremos a conclusões que são óbvias para
uma boa gestão de TI, entretanto se as ignorarmos colocaremos em risco a empresa.
Apesar destes modelos já existirem, serem consagrados e com larga utilização, a
evolução e o surgimento de novos modelos é uma constante. Um dos novos modelos que vem
aparecendo no mercado e que tem a intenção de colaborar com a diminuição da complexidade
de gestão de TI é a chamada Cloud Computing ou a Computação em Nuvem. Este modelo
será explorado a seguir:
32
2.2
EVOLUÇÃO DA TI
Para a era dos computadores, os últimos vinte anos foram revolucionários. Saímos de
grandiosos computadores mainframes para micro aparelhos e estes novos equipamentos com
um poder de processamento muito maior.
Para Rodriguez e Ferrante (2000), toda revolução tem seu preço e após a introdução
dos mainframes (processamento centralizado) nas corporações identificou-se que manter toda
uma estrutura para processar algumas informações não era tão simples, tanto que especialistas
em processamento de dados eram tratados como cientistas. Este processamento possuía um
preço altíssimo e insustentável.
Esta época passou após a adesão da microinformática liderada pela IBM e Microsoft,
as empresas espalharam o processamento afim disseminar o processamento (processamento
pelas pontas). Este novo método reduziu significativamente os custos de informática, por
outro lado gerou uma complexidade para controlar estas ilhas de processamento que por sua
vez também se tornou insustentável.
No início deste novo século, com a evolução e disseminação da plataforma web,
retornou-se mais uma vez a centralizar o processamento. Desta vez com o hardware tendo
uma evolução maior que do próprio software, tornou-se atrativo ter os ambientes
centralizados, facilitando a gestão dos ativos de informática e ainda com custos de operações
baixos. Mas a necessidade das empresas foi alem desta capacidade e a introdução de ERP’s,
CRM’s, ISO’s e damais siglas necessárias para uma companhia se manter no mercado foi
necessário criar os grandiosos datacenter centralizando toda a informação. Esta nova
necessidade das empresas tornou novamente a área de Tecnologia da Informação em um
ambiente complexo e com altíssimos custos (RODRIGUEZ e FERRANTE 2000).
Estamos vivenciando uma nova revolução, porém agora baseada em conhecimento. As
empresas estão mais modulares e flexíveis buscando enfatizar a busca pela especialização e
conseqüentemente pela terceirização a fim de focar apenas no seu “core”, utilizando parceiros
e provedores para operação de atividades que não são seu fim (TAURION, 2009).
Ainda segundo Taurion (2009), a revolução não é apenas do conhecimento, para a área
de tecnologia da informação é também uma mudança radical na forma de prover serviço.
Atualmente existem muitas máquinas dedicadas a atividades de suporte da própria
infraestrutura, como servidores de correio eletrônico, servidores de impressão, servidores de
rede, e assim por diante. De maneira geral para manter uma aplicação rodando o parque
computacional instalado é muito maior que a necessidade do momento, ou seja, de maneira
33
geral é utilizado de 5% a 10% em média e em períodos de picos entre 30% e 40% da
capacidade. Para adequar a área de informática das empresas a nova revolução é necessário
reinventar o modelo de serviços prestados e é ai que surge a Computação em Nuvem.
2.3
COMPUTAÇÃO EM NUVEM
De acordo com Barros (2009), o conceito é a computação feita em servidores numa
nuvem que conta com enormes recursos de processamento e grande capacidade de
armazenamento de dados. Em tese, esta nuvem elimina a dependência de um hardware
específico para cada aplicação, ou grupo de aplicações, permitindo que recursos de
computação sejam provisionados de acordo com as necessidades do usuário, que passa a
utilizar TI como utility, pagando por processamento.
Para Nist (2010), a definição de computação em nuvem é um modelo que permite
convenientemente acesso através da rede a um conjunto compartilhado de recursos de
computação configurável (por exemplo, redes, servidores, armazenamento, aplicações) que
podem ser rapidamente provisionados e ajustados com o mínimo de esforço de gestão ou a
interação de um prestador de serviços, ou seja, pode-se comparar a computação em nuvem
como sendo um utilitário como a energia elétrica, gás, água que ao final de um período feito o
pagamento apenas do que foi consumido.
Para Taurion (2009), computação em nuvem é uma maneira bastante eficiente de
maximizar e flexibilizar os recursos computacionais. Além disso, uma nuvem computacional
é um ambiente redundante e resiliente por natureza. Resiliente pode ser definido como
capacidade de um sistema de informação continuar a funcionar corretamente, apesar do mau
funcionamento de um ou mais dos seus componentes.
Ainda para Taurion (2009), o conceito de computação em nuvem é apenas um passo
evolutivo na eterna busca pelo compartilhamento e conseqüentemente maior aproveitamento
dos recursos computacionais. É uma excelente alternativa para se criar um datacenter virtual
usando milhares de servidores, internos ou externos a organização e interligados pela internet
e redes de banda larga, a um custo de propriedade bem menor, principalmente por causa da
capacidade ociosa já adquirida. Resumindo computação em nuvem deve transformar os
investimentos em capital para investimentos operacionais.
Para facilitar o entendimento deste novo conceito temos que entender os tipos e
modelos existentes de computação em nuvem.
34
2.3.1 Modelos de aplicação de computação na nuvem
De acordo com Infoworld (2010), atualmente a Cloud Computing é dividida em onze
modelos de negócio na nuvem, alguns destes modelos mais desenvolvidos que outros, mas
todos serão ou poderão ser um modelo de negócio nos próximos anos. Entre todos os modelos
podemos citar:
I. Armazenamento como serviço: Como o nome indica, é a capacidade de utilizar o
storage que existe fisicamente em um site remoto, mas é, logicamente, um recurso de
local para qualquer aplicativo que requer armazenamento. É o componente mais
primitivo da computação em nuvem, explorado pela maioria dos outros;
II. Banco de dados como serviço: Capacidade de utilizar os serviços de um banco de
dados hospedado remotamente, compartilhando-o com outros usuários. Funcionaria
logicamente como se o banco de dados fosse local. Diversos fornecedores oferecem
diferentes modelos, mas a força está em explorar a tecnologia de banco de dados que
normalmente custaria milhares de dólares em hardware e licenças de software;
III. Informação como serviço: Capacidade de consumir qualquer tipo de informação,
hospedada remotamente, por meio de uma interface bem definida, como uma API;
IV. Processo como serviço: Recurso remoto que pode reunir muitos outros tais como
serviços e dados, sejam eles hospedados no mesmo recurso de cloud computing ou
remotamente, para criar processos de negócio. É possível pensar em um processo de
negócio como um meta-aplicativo que abrange sistemas, explorando serviços e
informações essenciais que são combinados em seqüência para formar processos. Em
geral, eles são mais fáceis de mudar do que os aplicativos, proporcionando agilidade a
quem utiliza estes mecanismos de processos fornecidos sob demanda;
V. Aplicativo como serviço (software como serviço): Qualquer aplicativo oferecido
sobre a plataforma web para um usuário final, geralmente explorando o aplicativo pelo
browser. Embora muita gente associe aplicativo como serviço a aplicativos
corporativos, tais como o Salesforce SFA, os aplicativos de automação de escritório,
na realidade, também são aplicativos como serviço, entre eles o Google Docs, Gmail e
Google Calendar;
VI. Plataforma como serviço: Plataforma completa, incluindo desenvolvimento de
aplicativos, de interfaces e de banco de dados, armazenamento, teste e assim por
diante, disponíveis para assinantes em uma plataforma hospedada remotamente. Com
base no tradicional modelo de tempo compartilhado, os modernos fornecedores de
35
plataforma como serviço oferecem a capacidade de criar aplicativos corporativos para
uso local ou sob demanda, de graça ou por um pequeno custo de assinatura;
VII. Integração como serviço: Capacidade de fornecer uma pilha de integração completa
a partir da nuvem, incluindo interfaceamento com aplicativos, mediação semântica,
controle de fluxos, design de integração e assim por diante. Em essência, a integração
como serviço abrange a maioria dos recursos e das funções encontradas na tecnologia
convencional de EAI (enterprise application integration), mas fornecidos como um
serviço;
VIII. Segurança como serviço: Capacidade de fornecer serviços de segurança essenciais
remotamente via internet. A maior parte dos serviços de segurança disponíveis é
rudimentar, porém alguns mais sofisticados, tais como gerenciamento de identidade,
começam a serem oferecidos;
IX. Gestão / governança como serviço: Qualquer serviço sob demanda que permita
gerenciar um ou mais serviços de computação em nuvem, como gerenciamento de
tempo de atividade, topologia, utilização de recursos e virtualização. Também
começam a surgir sistemas de governança, como capacidade de aplicar políticas
definidas para dados e serviços;
X. Teste como serviço: Capacidade de testar sistemas locais ou fornecidos em nuvem
empregando software e serviços de teste hospedados remotamente. É importante
observar que, embora um serviço de nuvem exija teste em si mesmo, os sistemas de
teste como serviço podem verificar outros aplicativos em nuvem, websites e sistemas
empresariais internos, e não requerem espaço para hardware ou software na
corporação;
XI. Infraestrutura como serviço: Trata-se de datacenter como serviço ou a capacidade
de acessar recursos de computação remotamente. Em essência, você aluga um servidor
físico, que pode usar como lhe convier. Para fins práticos, ele é o seu datacenter ou,
pelo menos, parte de um datacenter. A diferença desta abordagem em relação à
computação em nuvem principal é que, em vez de usar uma interface e um serviço
mensurado, você tem acesso à máquina inteira e ao software que está nesta máquina. É
menos "empacotada" e mais do tipo hospedagem;
36
2.3.2 Tipos de computação em nuvem
Segundo Isaca (2009), existem quatro tipos que podem ser implementados de
computação em nuvem, sendo eles:
i.
Nuvem Privada: trata-se de uma infraestrutura e serviço dedicados. Este tipo de
computação em nuvem é o que atualmente possui o menor risco em relação a
segurança, porém não é possível prover a escalabilidade e agilidade comparada a uma
nuvem publica.
ii.
Nuvem Comunitária: trata-se de uma infraestrutura compartilhada com um grupo de
organizações específicas que tem missão comum ou interesse mutuo. Estas podem ter
a administração do ambiente interno ou terceirizado assim como a infraestrutura. É
muito similar a nuvem privada, porém as informações ficam na comunidade criada.
iii.
Nuvem Pública: trata-se de uma infraestrutura pública. Neste ambiente é a que possui
maior beneficio e também o tipo com maior risco de segurança, pois a organização
não sabe onde suas informações estão guardadas.
iv.
Nuvem Híbrida: trata-se de uma infraestrutura que é composta por mais de um tipo
de nuvem descrita acima. Possui o risco de fundir diferentes tipos de nuvem, por outro
lado facilita a área de segurança para gerir melhor a confidencialidade das
informações.
2.3.3 Vantagens x Desvantagens da computação em nuvem
A maior vantagem da computação em nuvem é a possibilidade de utilizar softwares
sem que o mesmo esteja instalado em seu computador pessoal. Mas podemos citar algumas
outras vantagens (ISACA 2009):

Flexibilidade: Na maioria das vezes o usuário não precisa se preocupar com o
sistema operacional e hardware que está usando em seu computador pessoal,
podendo acessar seus dados na "nuvem computacional" independente disso;

Facilidade: O trabalho corporativo e o compartilhamento de arquivos se tornam
mais fáceis, uma vez que todas as informações se encontram no mesmo lugar, ou
seja, na "nuvem computacional";

Controle: O usuário tem um melhor controle de gastos ao usar aplicativos, pois a
maioria dos sistemas de computação em nuvem fornece aplicações gratuitamente,
e quando necessário o usuário paga somente pelo tempo de utilização dos recursos,
37
não necessitando pagar por licenças de instalação de software, como acontece hoje
em dia;

Redução de custo: É possível obter escalabilidade de recursos sem sérios
compromissos financeiros, ou seja, investimento em compra e manutenção de
infraestrutura;

Imediatismo: Muitos pioneiros na computação em nuvem citam a capacidade de
fornecimento do serviço para utilização em um curto espaço de tempo.

Disponibilidade: Muitos provedores possuem redundância e infraestrutura em
larga escala, além de acesso de alta velocidade, evitando falhas e indisponibilidade
do serviço contratado;

Escalabilidade: Capacidade irrestrita, ou seja, possibilidade de fornecer serviços
com maior flexibilidade e escalabilidade de acordo com as necessidades das
organizações;

Eficiência: Permite as organizações crescer sem se preocupar com picos de
utilização, isso pode ser mais relevante que os benefícios financeiros do serviço
em nuvem;

Resiliência: Soluções para garantia de serviço mesmo nos piores cenários são
oferecidas pelos provedores de serviços;
Para a maior parte do que existe atualmente em relação à computação em nuvem é
dedicada a pessoas físicas não existem muitas desvantagens, porém quando este mesmo
conceito é aplicado a corporações, podemos destacar:

Não existe legislação que garanta a segurança dos dados das empresas;

Pelo próprio conceito não é possível garantir que as informações das empresas
estejam fisicamente em apenas um ou dois datacenter; desta forma pode-se
destacar que em alguns países o próprio governo impõe que em caso de auditoria
as informações contidas no território são de posse do governo.

A empresa não tem como interferir na governança dos provedores de computação
em nuvem;

No Brasil em especial a infraestrutura de telecomunicações não gera confiança da
maioria dos CIOs.
38
Mesmo assim comparando as vantagens e desvantagens da computação em nuvem, é
possível considerar que há muito espaço para utilizar alguns modelos de computação em
nuvem sem correr riscos para as organizações.
2.3.4 Segurança na nuvem
Segundo Computerworld (2010), Existe uma grande falta de consenso entre mais de
2.100 lideres de TI e administradores de segurança de 27 países que a migração para
a virtualização e a computação em nuvem está tornando a segurança de redes mais fácil ou
mais difícil.
O relatório “2010 State of Enterprise Security Survey” indica que apenas um terço das
pessoas ouvidas acreditam que virtualização e computação em nuvem dificultam a segurança,
enquanto um terço deles afirmam que tudo fica “mais ou menos” igual, e o restante considera
mais fácil.
Para explicar as diferenças conceituais sobre o impacto da segurança é avaliando a
forma que os entrevistados respondem as questões. De acordo com o relatório se os
entrevistados respondem as questões olhando pela ótica da segurança, então a tendência é de
preocupação, mas se os entrevistados estão voltados a operações de TI então a tendência das
respostas é de progresso e melhoras no setor. Já as respostas que não possuem um
posicionamento são geralmente originadas daqueles que têm responsabilidades com gastos.
Em resumo se as coisas estão evoluindo é porque está tudo bem.
A pesquisa mostrou que os gastos com segurança corporativa devem chegar a 600 mil
dólares em 2010, um aumento de 11% em relação a 2009, com um crescimento de 11%
antecipado para 2011. Mas, apesar do crescimento, os entrevistados, que variam de setores
bancários, saúde, telecomunicações, entre outros, mencionaram dificuldades em encontrar ou
manter funcionários de segurança.
Em média, as organizações têm 120 funcionários para o setor de TI. Já as grandes
empresas, com 5.000 ou mais empregados, têm uma média de 232 funcionários. Mas,
segundo os entrevistados, na maior parte do tempo esse número foi insuficiente: 51%
afirmaram enfrentar um “grande” problema para encontrar profissionais qualificados.
A dificuldade para encontrar o conhecimento correto foi um condutor em todas as
formas de terceirização, incluindo o uso de alguns serviços de administração de segurança,
que cerca de metade das organizações adotaram. Mas apenas metade delas ficou
verdadeiramente “satisfeita” com os acordos de terceirização.
39
Além disso, 40% dos entrevistados disseram que suas organizações estavam usando
aplicações na nuvem de alguma forma – ainda assim, 40% afirmaram que seria difícil
prevenir ou reagir à perda de dados sob a estratégia de computação em nuvem da companhia.
Já 38% disseram que o risco seria maior, caso a empresa tivesse uma estratégia de migrar os
serviços para a nuvem, enquanto o restante se dividiu igualmente entre riscos menores ou
mesma quantidade.
Já Gartner (2009), estima que em 2012 cerca de 80% das empresas globais irão
empregar 40% do orçamento de TI em tecnologias que hoje ainda não utilizam. Quanto a
segurança Gartner (2009) demonstra que o problema de segurança não tem nada haver com a
tecnologia.
“Aliada às novas tecnologias, a segurança é um problema da área de gestão e não da de tecnologia. O
nível que se exige de segurança está relacionado ao investimento realizado”, destacou o executivo. “Já
pagamos o mico de camuflar investimentos de segurança no orçamento de TI, senão não conseguimos
aprovação do gestor”.
Ainda de acordo com Gartner (2009), podem ser elencadas 10 tecnologias
transformadoras dos projetos de TI para os próximos anos: computação em nuvem, análise
avançada, computação cliente, TI verde empresarial, evolução do CPD, computação social,
monitoração de atividades para efeitos de segurança, memória flash, virtualização de alta
disponibilidade e aplicações de mobilidade.
De acordo com Korzeniowsky-A (2009), existe um consenso geral de que padrões são
necessários para a computação em nuvem – este consenso seria, na verdade, o fato de que oito
diferentes grupos se dispuseram a preencher as lacunas. Como sugerem os grupos envolvidos,
os trabalhos acabaram de começar, incluindo os padrões relacionados à segurança. Um dos
desafios é que as empresas não têm um histórico com o serviço de computação em nuvem
para padrões firmes ou trabalham com apenas criar um ou dois fornecedores de nuvem,
tornando difícil generalizar a partir dessa experiência.
Os grupos (Jericho Forum e Cloud Security Alliance) estão levando os padrões de
desenvolvimento para um grande número de áreas, incluindo auditoria, aplicativos,
criptografia, governança, segurança de rede, gerenciamento de risco, armazenamento e
virtualização.
Ainda Korzeniowsky-A (2009) cita 14 áreas que precisam de padrões. São eles:

Segurança de aplicativo;

Continuidade de negócio e recuperação de desastre;
40

Compliance e auditoria;

Gerenciamento de operações de datacenter;

E-Discovery;

Gerenciamento de chave e criptografia;

Governança e gerenciamento de risco corporativo;

Gerenciamento de identidade e de acesso;

Resposta à acidente, notificação e retificação;

Gerenciamento de ciclo de vida de informação;

Segurança física;

Portabilidade e Interoperabilidade;

Armazenamento;

Virtualização.
Para Korzeniowski-B (2009), um dos maiores riscos da computação em nuvem é o
desconhecido, já que muitos dos fornecedores são empresas relativamente novas ou oferecem
serviços em nuvem há pouco tempo. O foco destes fornecedores está, primeiramente em
fornecer serviços como backup de dados ou entrega de aplicativo para RH, a segurança é,
geralmente, o último componente adicionado à uma nova tecnologia, e no caso de
computação em nuvem não foi exceção
As empresas devem garantir que o provedor potencial de serviço de computação nas
nuvens ofereça, no mínimo, a segurança padrão que eles usam em seus próprios sistemas:
detecção de intrusos e software de prevenção, firewall, forte autenticação de usuário e
monitoramento de conteúdo.
Pela perspectiva da segurança, as empresas precisam imaginar suas redes se
estendendo para além do ambiente físico até o datacenter do fornecedor. Conforme as
empresas unem mais serviços de nuvem, o desafio se multiplica. Uma complicação parecida
vem do fato de que os serviços de nuvem foram criados em vácuos, com cada fornecedor
garantindo sua conexão, mas não as outras.
Enquanto as questões de segurança estão no topo das listas de preocupações, também é
um forte ponto nas vendas do serviço de computação em nuvem, especialmente para pequenas
e médias empresas que não têm como pagar profissionais de TI especializado em segurança
da informação.
41
O pensamento é que já que os fornecedores de nuvem estão no negócio de TI, eles
podem dedicar muito mais recursos à segurança. Eles devem ser capazes de monitorar
mudanças na segurança e fazer essas mudanças funcionarem com mais eficiência do que
muitas empresas. Segundo Gartner (2009), outro lado desse argumento é que quanto mais
dados vão para as nuvens, e quanto mais valioso é o dado, mais atraente eles se tornam como
um alvo de ataque. É por isso que as empresas, assim que tiverem resolvido os problemas
envolvendo segurança de rede ao transferir dados para os servidores em nuvem, precisam
experimentar as operações no datacenter do fornecedor. O SAS-70, um conjunto de processos
e controles de segurança de continuidade de negócio do American Institute of Certified Public
Accountants, está, rapidamente, se tornando o mais próximo a um padrão entre as operações
de computação em nuvem.
2.3.5 Maturidade da computação em nuvem
De acordo com Gartner (2009), a maturidade da computação em nuvem está ainda na
fase inicial, pois é o mais recente conceito em TI. No entanto, é simplista olhar apenas de
cima. Como o movimento passa pela fase de aprovação, não haverá mal-entendidos,
superestimativas e subestimativas de usuários com dúvidas ou mesmo desiludidos. Olhando
para os muitos temas mais a fundo, todos fazem parte do fenômeno da nuvem. Isto segue o
padrão observado com outras marcas da mesma forma ampla como Internet e Web do.
A tabela 03 explica as fases do ciclo de vida da tecnologia, está tabela é útil para
correlacionar o momento em que se encontra a tecnologia e a fase em que a organização
pretende investir.
Tabela 3: Fases do ciclo de vida de uma nova tecnologia
Fase
Definição
Inicial
A descoberta, a demonstração pública, o lançamento de um
produto ou evento que gera impressões significativas e de
interesse da industria.
Inchar / Escalada
Durante esta fase é comum encontrar um entusiasmos excessivo e
projeções irrealistas. Existe uma enxurrada de divulgações de
sucesso de alguns casos de sucesso. Nestes casos as tecnologias
não são colocadas a prova e não apresentam as falhas existentes.
Muita publicação em revistas e exposições;
42
Vale da Desilusão
A tecnologia não faz jus as suas expectativas, infladas no período
anterior, torna-se rapidamente fora de moda. No geral o interesse
diminui com exceção de alguns casos preventivos.
Inclinação a Iluminação
Fase esta que é focada em conduzir trabalho sólido por uma gama
cada vez mais diversificada de organizações que buscam uma
verdadeira compreensão da Tecnologia e sua aplicabilidade,
riscos e benefícios.
Produtividade
Os benefícios reais da tecnologia são demonstrados e aceitos.
Ferramentas e metodologias são bem mais estáveis e um número
muito maior de empresas se sentem confortáveis em investir
considerando um risco já conhecido e mitigado.
Estabilização
Tempo necessário para a tecnologia não ser mais um diferencial e
sim uma necessidade.
Fonte: Gartner (2009)
Após entendermos os ciclos de adoção de tecnologia, abaixo é possível observar todos
os temas relacionados à computação em nuvem e o grau de maturidade de cada um.
Figura 7: Maturidade dos tipos de computação em nuvem, 2009
Fonte: Gartner (2009)
43
Segundo a explicação do Gartner (2009), este ciclo para computação em nuvem,
identifica aspectos principalmente na fase de campanha publicitária, quais as aplicações ou
tecnologias estão se aproximando significativa adoção e quais estão razoavelmente maduras.
A Figura 7 mostra que há um número esmagador de tecnologias que são pré-pico, que não é
surpreendente, porque muitas tecnologias são novas. Embora o termo cloud computing é
relativamente novo, incorpora derivações das idéias que já estão em uso há algum tempo.
Hospedagem, software um serviço (SaaS) e virtualização são bem estabelecidas e sendo usado
de muitas maneiras. A prevalência do poder de computação de baixo custo, a largura de banda
de baixo custo, e as empresas que desenvolveram extensas capacidades na gestão de grandes
centros de dados são relativamente novos e necessários para a nuvem crescer. Novos
conceitos, tais como a nuvem privada, elasticidade, cloudbursting e plataforma de como
serviço (PaaS) são idéias e inovações de modelos de nuvem que podem ser usadas.
Enquanto a consciência da computação em nuvem continua a aumentar, assim como a
subseqüente confusão e uma compreensão progressiva da inevitabilidade de muitos dos
conceitos. É importante ir além da nuvem principal e aproveitar e aproveitar as vantagens que
existem. Como sempre, uma vez que o alvoroço passar, o verdadeiro valor vai chegar.
2.3.6 Matriz de adoção da tecnologia
Este capítulo pretende apresentar uma relação de benefício e tempo de adoção de cada
uma das tecnologias / modelos apresentados no capitulo anterior. Gartner (2009), apresenta na
figura 8 o impacto positivo e o tempo para a tecnologia se tornar adequada.
44
Figura 8: Matriz de benefícios x tempo de implantação
Fonte: Gartner(2009)
Dentre todas as tecnologias mapeadas por Gartner (2009), o estudo irá focar em alguns
tópicos relativos ao escopo do trabalho para avaliar como poderão contribuir para melhorar a
gestão de TI nas corporações globais, que são elas:
Hybrid Cloud Computing: Num futuro próximo, praticamente todas as empresas que
utilizarem a computação em nuvem continuarão de alguma forma com sistemas internos de
TI. No entanto, a computação em nuvem híbrida não se refere à utilização de sistemas
internos e externos baseados em nuvem e desconectado ou conectado.
Nuvem híbrida refere-se à combinação de serviços públicos externos de computação em
nuvem e recursos internos de forma coordenada para montar uma solução particular. Esta
combinação implica significativamente na integração ou na coordenação correta dos
ambientes interno e externo considerando, camadas de processos e segurança.
A computação híbrida pode surgir de várias formas. Estas abordagens podem ser utilizadas
individuais ou uma combinação de formas. Abaixo alguns exemplos do que poderão surgir:
Combinação de segurança e gestão: Segurança
ou processos de gestão são
ferramentas aplicadas para a criação e funcionamento dos sistemas internos ou externos.
45
Cloudbursting: Dinamicamente estender uma aplicação ou uma parte dela a partir de uma
plataforma de nuvem privada interna para um serviço de nuvem pública externa baseada na
necessidade de recursos adicionais.
Composição de serviços na nuvem: Criação de uma solução onde uma parte funciona em
sistemas internos e outra parte roda em sistemas externos, porém existe a troca de dados e
coordenação do processo entre os ambientes. Um exemplo são os Marshups que são soluções
integradas onde os serviços públicos baseados em nuvem são combinados com aplicações
internas e os componentes compostos de programação.
Execução dinâmica na nuvem: A forma mais ambiciosa de computação em nuvem híbrida,
pois combinam segurança e gestão conjuntas, cloudbursting e composição de serviços na
nuvem. Neste modelo, uma solução é definida como uma série de serviços que podem ser
executados no todo ou em parte em uma plataforma de nuvem privada interna ou externa, e a
execução real (interna e externa) é dinamicamente determinada com base na evolução de
algumas variáveis, por exemplo: técnica, desempenho, custos, condições financeiras etc.
Considerar que a computação em nuvem híbrida conduz para um caminho de modelo de
computação em nuvem unificado no qual existe uma única nuvem e que é composto de várias
plataformas na qual pode ser utilizada quando necessário com base em mudanças de negócios.
Esta abordagem é ideal para oferecer o melhor modelo econômico e máxima agilidade. Ele
também define novas formas para as empresas trabalhar com os fornecedores, parceiro (B2B)
e clientes (B2C), uma vez que estes ambientes também se movem em direção a um modelo
híbrido. Entretanto, as organizações menos ambiciosas poderão adotar abordagens menores
que ainda permitem otimização de custos, opções flexíveis de implantação do aplicativo e
uma utilização coordenada dos recursos internos e externos.
Public Cloud Computing: De acordo com a própria definição de Gartner (2009),
computação em nuvem pública essencialmente é a capacidade de ser escalável e elástico
como um serviço a clientes externos usando tecnologias de Internet. Portanto, computação em
nuvem pública é o uso de tecnologias de computação para apoiar os clientes que são externos
à organização do provedor. É através do consumo de serviços compartilhados que os tipos de
economias de escala e da partilha de recursos serão gerados para reduzir custos e aumentar as
opções disponíveis para os consumidores. Para ser considerado um serviço de computação em
nuvem pública é necessário que o serviço tenha preocupações com segurança, gerenciamento
de dados, controle e garantia de desempenho adequado para apoiar as necessidades das
empresas. As organizações querem o valor entregue através dos serviços, mas também a
46
querem garantir que o conceito está pronto para a prestação de serviços que uma organização
pode necessitar ao longo do tempo.
De acordo com o Ciclo de vida da tecnologia a Computação em nuvem publica esta na fase de
desilusão, fazendo com que as empresas despertem para o conceito, eles começam a
experimentar antes de investir. Além disso, os fornecedores estão investindo na
publicidade e na sua capacidade de prestação de serviços apresentando para as organizações
as expectativas de reduzir custos. Os clientes devem ainda ser cautelosos sobre as
reivindicações da maioria dos prestadores de serviços, porque os modelos ainda não estão
aprovados para uso empresarial.
IT Infrastructure Utility: é uma arquitetura de infraestrutura de TI compartilhada fornecida
através de serviços on-demand. O preço é baseado na utilização e comprovação de serviços,
em curso reduções na base fixa (ou mensalidades) e os custos unitários. A IU é aberta,
flexível, predefinidas e padronizada, bem como virtualizada, altamente automatizada, segura e
confiável. Em resumo, para uma organização é um aluguel de datacenter, que é pago
conforme a utilização. As contribuições que estas soluções estão trazendo aos clientes com
relação à capacidade e flexibilidade é o principal fator de aceleração e solidificação desta
tendência no mercado.
Software como serviço (SaaS): é um software que é adquirido, entregue e gerenciado
remotamente por um ou mais fornecedores. Para estar apto a este conceito o fornecedor não
pode solicitar que as organizações instalem o software localmente usando suas infraestruturas.
Se este requisito acontecer o aplicativo não é SaaS.
A infraestrutura de TI e operações de apoio a estas aplicações devem ser terceirizadas
no fornecedor ou distribuídas a outro fornecedor. O provedor oferece um aplicativo com base
em um único conjunto de códigos comuns e dados, que são consumidos em um modelo de
um-para-muitos por todos os clientes contratados em qualquer momento. Os clientes podem
ser capazes de estender o modelo de dados usando ferramentas de configuração fornecidas
pelo provedor, mas sem alterar o código-fonte. Esta abordagem está em contraste com o
modelo tradicional de hospedagem de aplicação, no qual o provedor suporta múltiplos
códigos de aplicação e múltiplas versões das aplicações.
SaaS é comprado em uma base de pagamento por uso ou como uma assinatura baseada
em métricas de utilização. A aquisição é baseada em uma assinatura (por exemplo, uma taxa
por usuário, por mês) ou de uso base (por exemplo, alocar um certo número de operações
realizadas durante um determinado período de tempo). A aquisição de licença permanente não
é considerado SaaS.
47
Empresas com requisitos complexos não devem imaginar que será significativamente
menor o custo total de propriedade ou que reduzirá a complexidade ao mudar para SaaS. Já as
empresas com pouco orçamento ou querem para obter algo simples implantado rapidamente
devem considerar o SaaS. Mesmo se um ou mais dos três elementos envolvidos na análise não
forem cumpridas, uma solução SaaS ainda pode ser o melhor para uma organização, como
acontece com qualquer produto, entretanto, a empresa deve avaliar a capacidade funcional da
oferta para satisfazer as necessidades específicas.
48
3. METODOLOGIA
A investigação científica depende de um “conjunto de procedimentos intelectuais e
técnicos” (GIL, 2002) para que seus objetivos sejam atingidos: os métodos científicos.
Método científico é o conjunto de processos ou operações mentais que se devem empregar na
investigação. A linha de raciocínio adotada no processo de pesquisa que melhor se enquadra
para este trabalho é método do estudo de caso.
3.1
ESTUDO DE CASO TEÓRICO
O pesquisador ao utilizar o estudo de caso, deve entender que se trata de uma pesquisa
empírica abrangente, com procedimentos preestabelecidos, que investiga um ou múltiplos
fenômenos contemporâneos no contexto da vida real, especialmente quando os limites entre
os fenômenos e seu contexto não estão claramente definidos.
Uma característica importante é a ênfase em compreender o que está acontecendo a
partir da perspectiva do participante ou dos participantes do estudo. Esse tipo de pesquisa é
preferível quando questões do tipo “como” ou “por que” são apresentadas e quando não se
podem manipular comportamentos relevantes. Assim, é útil quando o pesquisador, por razões
práticas ou éticas, não pode realizar estudos experimentais.
Um projeto de pesquisa que envolva o Método do Estudo de Caso se dá em três fases
distintas: 1) escolha do referencial teórico sobre o qual se pretende trabalhar; a seleção dos
casos e o desenvolvimento de um protocolo para a coleta de dados; 2) condução do estudo de
caso, com a coleta e análise de dados, culminando com o relatório do caso; 3) análise dos
dados obtidos à luz da teoria selecionada, interpretando os resultados da pesquisa. O protocolo
configura-se como o grande componente de confiabilidade ao estudo de caso.
Yin (2005) apresenta três situações nas quais o estudo de caso é indicado. A primeira é
quando o caso em estudo é crítico para se testar uma hipótese ou teoria explicitada. A segunda
situação para se optar por um estudo de caso é o fato dele ser extremo ou único. A terceira
situação se dá quando o caso é revelador, que ocorre quando o pesquisador tem acesso a um
evento ou fenômeno até então inacessível à pesquisa científica.
49
3.1.1 Questionário
É uma série ordenada de perguntas que devem ser respondidas por escrito pelo
informante. O questionário deve ser objetivo, limitado em extensão e estar acompanhado de
instruções. As instruções devem esclarecer o propósito de sua aplicação, ressaltar a
importância da colaboração do informante e facilitar o preenchimento.
As perguntas do questionário podem ser:

Abertas: “Qual é a sua opinião?”;

Fechadas: duas escolhas: sim ou não;

De múltiplas escolhas: fechadas com uma série de respostas possíveis;
Young e Lundberg (apud Pessoa, 1998) fizeram uma série de recomendações úteis à
construção de um questionário. Entre elas destacam-se:

O questionário deverá ser construído em blocos temáticos obedecendo a uma
ordem lógica na elaboração das perguntas;

A redação das perguntas deverá ser feita em linguagem compreensível ao
informante. A linguagem deverá ser acessível ao entendimento da média da
população estudada;

A formulação das perguntas deverá evitar a possibilidade de interpretação dúbia,
sugerir ou induzir a resposta;

Cada pergunta deverá focar apenas uma questão para ser analisada pelo
informante;

O questionário deverá conter apenas as perguntas relacionadas aos objetivos da
pesquisa. Devem ser evitadas perguntas que, de antemão, já se sabe que não serão
respondidas com honestidade.
Para este trabalho em específico na qual o tema é um assunto técnico, é necessário
preparar um modelo na qual é possível agregar opiniões diferentes de um público restrito. Isto
porque para obter informações relevantes e enriquecer o assunto discutido será necessário
entrevistar pessoas que tenham uma formação na área de administração, gestão, ou mesmo de
informática, pois o assunto tratado não poderá ser discutido com pessoas, mesmo que
graduadas, mas não saibam o que significa o termo computação em nuvem.
50
O método utilizado para a coleta de dados neste trabalho foi um questionário aberto,
em forma de entrevista.
3.2
COLETA DE DADOS
É a pesquisa de campo propriamente dita. Neste trabalho a coleta de dados trata um
baixo número de pesquisados, ou seja, não deve passar de cinco ou seis pessoas. Para ter
relevância, estas pessoas que serão entrevistadas deverão ter algum grau de influência e
decisão nas empresas nas quais fazem parte, pois será necessário entender nestas empresas
qual o direcionamento nos próximos anos a respeito do assunto da entrevista.
Pretende-se envolver neste trabalho pessoas com os seguintes cargos:
Tabela 4: Delimitação de entrevistas
Empresa
Cargo
Grau de decisão
Grau de influência
Empresa A
Gerente de serviços
Médio
Médio
GSD
Gerente de datacenter
Alto
Alto
Souza Cruz
Gerente de Serviços
Médio
Alto
Souza Cruz
CIO
Alto
Alto
Empresa B
Gerente de Serviços
Médio
Médio
...
...
...
...
Fonte: Criado pelo Autor
O nome de algumas empresas foram alterados por solicitação das próprias empresas,
cumprindo regras internas ou mesmo para evitar a divulgação de estratégias ou
direcionamentos relacionados as tendências de mercado.
A entrevista foi estruturada e composta de perguntas objetivas conduzidas através de
uma conversa informal na qual a cada pergunta permite o entrevistado expor suas idéias e
opiniões. Em nenhum momento foi solicitado ou informado sobre tendências ou influência de
algum componente que possa comprometer a resposta. O questionário teve dez questões
abertas que serviram como guia durante a conversa. Entre as questões abertas haviam
assuntos tais como: Conceitos de computação em nuvem, segurança na computação em
nuvem, visões de aplicações que possam estar na nuvem e tempo para consolidação destas
aplicações, assim como vantagens e desvantagens possam existir.
As informações foram coletadas através de gravador ou mesmo manuscrito,
transcrevendo o que cada entrevistado informou.
51
3.3
TABULAÇÃO E APRESENTAÇÃO DE RESULTADOS
Para a tabulação e apresentação dos resultados foi necessário lançar mão de recursos
manuais ou computacionais para organizar os dados obtidos na pesquisa de campo. É natural
escolher os recursos computacionais para dar suporte à elaboração de índices e cálculos
estatísticos, tabelas, quadros e gráficos, porém para este trabalho não foi necessário gerar
indicadores, pois a tabulação dos dados se deu transcrevendo as entrevistas presenciais com
os principais gestores de TI (vide tabela 4 no item 3.2). Após transcrever as respostas dos
entrevistados na integra foi feito a identificação dos principais resultados.
A análise foi elaborada através da análise de conteúdo, ou seja, analisar todas as
respostas e confrontando padrões (concordâncias e discordâncias) de cada entrevistado e
comparação entre os entrevistados. A partir destes padrões ou mesmo posições de mercado
exibir os posicionamentos para poder tirar as conclusões do trabalho.
A tabela 5 apresenta um resumo de como foram estruturados o questionário aplicado
no estudo de caso, com a respectiva justificativa da escolha do assunto abordado em cada
questão.
Tabela 5: Assunto x razão
Assuntos
Complexidade de gestão
Razão
Identificar o grau de complexidade de gestão existente
na organização na qual faz parte o entrevistado
Identifica como a organização aplica metodologias e
Gestão de TI
ferramentas de gestão de TI na organização
Identificar como a organização trabalha os assuntos
Segurança
referentes a Segurança da informação
Identificar o que a organização conhece de computação
Computação em nuvem
em nuvem e qual a relevância deste assunto na
corporação
Fonte: Adaptado pelo Autor
3.4
CONCLUSÃO DA ANÁLISE DE RESULTADOS
Nesta etapa é necessário sintetizar os resultados obtidos com a pesquisa. Deverá
explicitar se os objetivos foram atingidos, se a(s) hipótese(s) ou os pressupostos foram
confirmados ou rejeitados. E, principalmente, deverá ressaltar a contribuição da sua pesquisa
para o meio acadêmico ou para o desenvolvimento da ciência e da tecnologia.
52
4. ESTUDO DE CASO APLICADO
O estudo de caso foi aplicado na empresa Souza Cruz que possui uma área de
Tecnologia de Informação com autonomia para buscar avanços tecnológicos e decidir sobre
aplicar tendências no ambiente corporativo.
4.1
A EMPRESA SOUZA CRUZ
A Souza Cruz é líder absoluta no mercado nacional de cigarros, a Souza Cruz é
subsidiária da British American Tobacco, o mais internacional dos grupos de tabaco, com
marcas comercializadas em 180 países.
Fundada pelo imigrante português Albino Souza Cruz, em abril de 1903, no Rio de
Janeiro, a Souza Cruz atua em todo o ciclo do produto, desde a produção e o processamento
de fumo, até a fabricação e a distribuição de cigarros.
A Souza Cruz é líder do mercado nacional. A empresa possui seis das dez marcas mais
vendidas no Brasil, produzindo cerca de 80 bilhões de cigarros por ano. A participação da
Souza Cruz é de 62% do mercado total brasileiro.
Atuando em todo o ciclo do produto, desde a produção e processamento de fumo até a
fabricação e distribuição de cigarros, a Souza Cruz atende diretamente a mais de 250 mil
varejos em todo o país, além de chegar a quase cinco mil municípios.
Na produção de fumo, são cerca de 40 mil produtores integrados, que recebem
assistência técnica da companhia. Além do processamento de fumo para a fabricação própria
de cigarros, destinada ao mercado nacional, o sistema de produção integrada da Souza Cruz
produz mais de 120 mil toneladas de fumo para exportação, atendendo a mais de 50 países
nos cinco continentes.
Mais do que milhares de empregos, a Souza Cruz gera riqueza. A Souza Cruz é um
dos maiores grupos empresariais brasileiros, uma companhia aberta cotada na Bolsa de
Valores de São Paulo (Bovespa) e que integra o grupo British American Tobacco - presente
em 180 países. A Souza Cruz posiciona-se entre os 10 maiores contribuintes de tributos no
Brasil e leva renda para 80% das cidades brasileiras (são R$ 6,3 bilhões em impostos pagos
por ano – números de 2009 –, proporcionando benefícios sociais). E quase 10% do resultado
bruto da Souza Cruz são investidos em atividades inovadoras e importantes para o
desenvolvimento do país (SOUZA CRUZ A, 2010).
A Souza Cruz possui quatro princípios básicos que devem ser seguidos por seus
colaboradores (SOUZA CRUZ A, 20100):
53
 Diversidade: A Souza Cruz defende que o ambiente de trabalho esteja aberto às
diferentes ideias, culturas, formas de pensar e pontos de vista. A diversidade é um
elemento que fortalece a Empresa.
 Mente Aberta: A Souza Cruz deseja e estimula o envolvimento e a contribuição
de todos, para que sejam bons ouvintes, sempre abertos a novas ideias e a
diferentes pontos de vista.
 Espírito Empreendedor: A Souza Cruz busca fazer as coisas acontecerem, por
meio da mobilização e contribuição de todas as pessoas.
 Liberdade com Responsabilidade: A Souza Cruz acredita que todas as pessoas
têm liberdade para tomar decisões, dentro de seus níveis de competência, para
conduzir a Organização em direção a seus objetivos.
O departamento de Tecnologia da informação da Souza Cruz é conhecido como GSD
e atua na consolidação e padronização de serviços de TI para o usuário final.
4.2
GROUP SERVICE DELIVERY (GSD)
O Group Service Delivery (GSD) é uma área global de tecnologia da informação da
British American Tobacco. Organizado em três zonas diferentes, trabalha constantemente
buscando oferecer serviços irresistíveis, com qualidade e redução de custos para todos os
mercados que formam as regiões da América Latina e Caribe (LACAR), África e Oriente
Médio (AME), Europa e Ásia Pacífico (ASPAC).
Constituído em 1996, o GSD está comprometido em gerenciar os serviços de
insourced e outsourced, apoiando 32.000 clientes em mais de 130 países. Possui mais de 500
colaboradores, em 18 escritórios. No entanto, a maior concentração está na Malásia, sua maior
base operacional.
O GSD LACAR está instalado, desde outubro de 2005, no Brasil, na unidade de
Cachoeirinha cerca de 28 Km de Porto Alegre. A área possui grupos de atuação que lideram
frentes de serviços em toda a América Latina e Caribe. Esses grupos são responsáveis por
monitorar o desempenho dos principais sistemas corporativos da Organização (SOUZA
CRUZ B, 2010).
4.2.1 Objetivos do GSD

Oferecer soluções de qualidade com redução de custos;
54

Agregar valor ao negócio;

Entregar serviços alinhados aos objetivos de produtividade e qualidade da British
American Tobacco;

Resolver problemas escalados;

Melhorar relacionamento com stakeholders;

Aperfeiçoar a segurança e reduzir os incidentes;

Alavancar parceiros comerciais no intuito de obter redução de custo, oferecendo aos
usuários soluções de qualidade;
4.3
ANÁLISE DO CASO
O GSD tem um papel fundamental na Souza Cruz, pois ele prove todos os serviços de
TI que a empresa necessita. Atualmente, todos os serviços são prestados internamente, ou
seja, infraestrutura e sistemas são todos ativos da Souza Cruz. Apesar do modelo atual já estar
consolidado e otimizado, sempre existem formas de melhorar e agregar valor ao serviço
prestado.
No ano de 2009, uma das maneiras encontradas para otimizar os serviços foi a
consolidação de fornecedores de suporte a aplicações. Este trabalho foi realizado para
melhorar a gestão de serviços de suporte, otimizar e padronizar todos os suporte de sistemas
legados que existem na Souza Cruz. Estas e outras iniciativas foram implementadas para
melhorar os serviços de gestão de TI, mas ainda existem muitas oportunidades. Atualmente
dentro do datacenter do GSD existem várias aplicações de vários níveis e criticidades
diferentes que aumentam a complexidade do ambiente, estas aplicações são divididas pela
área de TI da Souza Cruz da seguinte maneira:
Ambiente Crítico: Neste ambiente encontram-se aplicações corporativas utilizadas
nas áreas de geração de valor para a organização, tais como: Aplicações da área de Vendas,
aplicações da área de Fabricação, Aplicações da área de produção de sementes, etc...
Ambiente não Crítico: Neste ambiente encontram-se aplicações corporativas
utilizadas nas áreas de suporte as áreas produtivas, tais como: Aplicações Jurídicas,
Aplicações da própria área de TI, aplicações de assuntos corporativos, aplicações
administrativas.
Ambiente de Escritório: Neste ambiente encontram-se aplicações de uso comum em
todas as estações de trabalho, tais como: Aplicações de E-mail, Aplicações de edição de texto,
aplicações de planilhas de cálculos, ferramentas de comunicação interna.
55
Ambientes de Homologação: Neste ambiente encontram-se todas as aplicações
criticas, não criticas e de escritório, porém este ambiente possui todas as aplicações com
informações desatualizadas para testes e validação de novas versões de sistemas ou correções
de problemas encontrados no ambiente produtivo.
Ambiente de Desenvolvimento: Neste ambiente encontram-se todas as aplicações
criticas, não criticas e de escritório, porém neste ambiente possui adicionalmente ferramentas
de desenvolvimento para criar novas versões de sistema ou corrigir versões com problemas.
Esta classificação existe para determinar prioridades e urgência na solução e resolução
de incidentes e problemas, mas esta classificação apenas ajuda a tomada de decisão mas não
elimina o trabalho e a manutenção de todos os ambientes.
O GSD possui iniciativas para otimizar a utilização das metodologia e ferramentas de
gestão de TI para apoiar a gestão destes ativos, porém este assunto não será tratado neste
trabalho.
Para buscar novas oportunidades como alternativas para reduzir a complexidade de
gestão dos ativos de TI das organizações foi realizada uma entrevista qualitativa com
representantes de algumas empresas com representatividade global.
4.3.1 Análise das entrevistas
De acordo com o gerente de serviços do GSD para a Souza Cruz, o principal desafio
de TI é agregar valor para o negócio, para agregar valor TI necessita buscar alternativas que
aumentem a lucratividade da empresa. Pode-se conseguir aumentar a lucratividade
diminuindo custos ou aumentando as vendas. Em ambos os casos a área de TI pode contribuir
fazendo o mesmo trabalho com menos dinheiro ou fazendo algo novo aumente a arrecadação
da companhia. Já para o CIO da Souza Cruz o principal desafio é conseguir consolidar os
serviços em plataformas globais buscando ganho em escala, este fator trará valor agregado e
aumenta a qualidade dos serviços prestados, principalmente pela maior padronização das
informações.
“será possível, após a consolidação e padronização das
aplicações globais, comparar mesmos indicadores, entre
várias empresas do mesmo grupo”. (Juliano)
Este direcionamento vai de encontro com a definição de Laudon e Laudon (1996) que
informava que as principais barreiras de TI seriam os vários sistemas descentralizados com
diferentes tipos e fontes de informação, relatado no capítulo 2 deste trabalho.
56
No planejamento estratégico da empresa B, também estão como prioritários os
projetos que visam consolidar todos os serviços globalmente para atingir níveis de entrega de
serviço com escala global.
Para o gerente de serviços da empresa A, o principal desafio é conseguir oferecer
soluções que tragam benefícios para os clientes e parceiros, estas soluções buscam englobar o
serviço end-to-end, ou seja, o cliente deve envolver-se o mínimo possível para isso à empresa
A busca desenvolver-se em várias áreas de atuação de TI, adquirindo empresas ou mesmo
especializando-se em nichos de mercado para atender melhor as necessidades do mercado.
A estratégia da Souza Cruz, de acordo com o CIO é levar os serviços em mercados
especializados e que possuam mão de obra acessível. Atualmente o principal problema são
barreiras trabalhistas que influenciam nas decisões de manter um serviço ou substituí-lo de
localidade.
A Souza Cruz passou também a priorizar os investimentos com benefícios globais e
não mais apenas locais, ou a solução pode ser aplicada globalmente ou o investimento perde
prioridade. No passado os investimentos sempre foram tratados localmente.
“Ainda temos uma cultura de olhar localmente, mas o tempo
nos mostrou que localmente traz um beneficio local maior,
porém no global mesmo que o beneficio seja menor, a escala é
muito maior”. (Alan)
Foi praticamente unânime que a que a mobilidade e a computação pervasiva trazem e
trarão novas visões de negócio para as empresas, podendo trazer ganhos e benefícios que hoje
não temos como mensurar, desde informações de clientes, costumes, horários, necessidades, e
até mesmo o que não é bom para os clientes. Tudo isso será possível coletar e fazer uso para
gerar novos negócios. Por outro lado o gerente de serviços da empresa A diz que todas as
áreas de TI terão que estar preparadas para suportar estes novos modelos de negócio, pois
nada adianta ter todas as informações e não fazer uso das informações, ou fazer o uso
incorreto das informações. Estas novas linhas de negócio é o que Negroponte (1995) chama
de “Vida Digital” que já vem ocorrendo desde o início do século XXI e que poucos
conseguem perceber.
Para o CIO da Souza Cruz, apesar de concordar que a computação móvel trará novos
horizontes, ainda acha cedo para migrar ou estudar novos conceitos, por considerar que a
cultura da empresa ser mais conservadora e pelo momento que estão passando (consolidar
serviços) não é hora para se aventurar em novas tendências e ser pioneiros em computação
móvel.
57
O Gerente do datacenter do GSD diz que atualmente já é complicado lidar com o que a
Souza Cruz possui de computação móvel.
“atualmente já é difícil garantir que alguns funcionários da
Souza Cruz tenham acesso remoto, e que este acesso seja
rápido e que sempre esteja disponível”.(Vlad)
Para gerenciar estes acessos remotos segundo o gerente de datacenter do GSD existe
uma grande infraestrutura e recursos para suportar o ambiente. Por outro lado o mesmo
reconhece que a plataforma móvel permite a Souza Cruz vender e entregar cigarros a mais de
240 mil pontos de venda.
As ferramentas de gestão apóiam os principais processos de TI em grandes empresas,
assim é na Souza Cruz, GSD e como também foi relatado na empresa A e empresa B. Porém
apesar de empresas utilizarem metodologias diferentes ou mesmo ferramentas diferentes,
todas fazem adaptações para a sua realidade. Isso significa que as metodologias apóiam sim a
melhorar e reduzir a complexidade de gestão, mas apenas a metodologia ou as ferramentas
implementadas de acordo com a teoria pura não agregam valor a TI. Todos os processos e
todas as metodologias deixam nas entrelinhas a necessidade de customizar alguns processos
para não perder eficiência e adequar os controles a realidade de cada organização, se estes
processos não forem bem definidos e seguidos de nada adianta ter as tecnologias.
Assim como apresentado no capítulo 2.1 deste trabalho, atualmente as principais
metodologias utilizadas são COBIT, ITIL e PMP, mas os entrevistados foram categóricos e
informam que apesar de seguirem as metodologias, os principais processos de TI de cada
organização são adaptados para a realidade da empresa e são reescritos internamente como
devem funcionar. Para validar estes processos são realizadas auditorias internas e externas
para garantir a seriedade dos processos.
Para o CIO da Souza Cruz a questão de segurança na corporação é tratada com
seriedade, mas é claro que a segurança é implementada de acordo com o risco que a empresa
possui.
“não somos uma instituição financeira que cuidamos do
dinheiro dos outros e por isso existem alguns riscos que para
nós não são relevantes e para um banco é sinônimo de
falência”. (Juliano)
Por exemplo, informações de clientes, vendas e pontos de varejo possuem cuidados
adicionais que informações de volume de produção. A empresa possui regras claras e políticas
de segurança que são divulgadas e acordadas com todos os funcionários e prestadores de
serviço. Para o gerente do datacenter do GSD o assunto segurança é bem estressante pois
58
além de seguir a rigor todas as políticas e melhores praticas precisam passar por auditorias
anualmente. Alem disso a Souza Cruz possui todas as informações guardadas em banco de
dados e servidores de arquivos com políticas de backup testes freqüentes.
Nem sempre este cenário foi assim, no passado o próprio sistema ERP da empresa
ficava hospedado fora do Brasil em um fornecedor na Alemanha, ou seja, de acordo com o
custo x benefício é que as peças de TI são movimentadas declara o CIO da Souza Cruz.
Como a empresa B está sujeita a auditorias, pois segue a lei Sarbanes-Oxley, e possui
em sua política de segurança a norma ISO17799 em todas as camadas de aplicações e
processos de TI o assunto segurança é levado a sério. Dificilmente alguma informação sai da
empresa mesmo que por um pendrive.
A computação em nuvem uma alternativa para a redução da complexidade de gestão
dos ativos de TI ainda é considerada embrionária dentro da Souza Cruz. Para o CIO da Souza
Cruz computação em nuvem ainda é um assunto desconhecido, entende que é extremamente
relevante, mas reconhece que, alem da empresa Salesforce.com, ainda não percebe cases de
sucesso em ambientes corporativos consolidados. Já para o gerente de serviços da empresa A,
acredita que este será o futuro, a própria empresa já possui um departamento somente para
preparar e disponibilizar infraestrutura para isso. Ainda não existem aplicações desenvolvidas
para ser oferecida como serviço, mas a empresa já procura parceiros para disponibilizar os
serviços por completo em um curto espaço de tempo.
O Gerente de Serviços do GSD entende que este é uma excelente oportunidade para
demonstrar como TI pode agregar valor ao negócio preparando um projeto e migrando as
aplicações não críticas para a nuvem.
“acredito que colocar algumas aplicações não criticas para rodar
na nuvem traria um excelente case para a empresa e seria possível
avaliar os conceitos de escalabilidade e flexibilidade sem precisar
investir em hardware”. (Alan)
Como um piloto o gerente de serviços do GSD sugere que sejam os ambientes de
homologação ou desenvolvimento no qual só é necessário ter processamento em uma parte do
ano, quando existem projetos sendo implementados e em períodos de homologação, na outra
parte do tempo o poder de processamento tende a zero, ou seja, o custo pode ser alocado para
os próprios projetos que estão em andamento, sem custo para o dia-a-dia da operação.
Esta visão também é compartilhada pela Isaca (2009), que apresenta dentre as
principais vantagens de serviços espalhados pela nuvem o custo apenas pelo consumo.
59
Porém nem tudo é maravilha, o gerente do datacenter do GSD acredita que na fase
atual não existe nenhum fornecedor com estrutura e com controles suficientes para entregar
um serviço flexível e escalável, principalmente com faturamento flexível.
“sendo os preços fixos, já é difícil terem os valores cobrados
corretamente no final de cada mês, imaginem estes sendo variáveis
em dias ou horas de consumo. Mais difícil ainda será medir este
consumo. Ainda existe muito para evoluir”(Vlad).
Ainda foi possível perceber durante as conversas que ainda existem muitos pontos de
falhas que não tem nada haver com o conceito de computação em nuvem. O principal
problema citado pelos entrevistados foi à estrutura brasileira de telecomunicações. Para a
empresa A e para o gerente do datacenter esta parte da infraestrutura necessita evoluir muito
para conseguir prover serviços confiáveis a um custo adequado para que as empresas
consigam migrar os serviços para a nuvem.
O CIO da Souza Cruz acredita que os sistemas legados deverão migrar para a nuvem
em um prazo de no máximo cinco anos, ou ser reescritos em plataformas fora da empresa, a
visão de futuro é de que o GSD tenha foco apenas nos serviços globais da BAT e não em
sistemas locais legados. Estes sistemas deverão ser tratados com menor foco e sempre com
intenção de migrar para plataformas globais.
4.3.2 Aderência ao ambiente computacional da Souza Cruz
De acordo com as informações retiradas da pesquisa qualitativa apresentada no
capitulo anterior é possível avaliar cenários que proporcionem maior aderência do ambiente
computacional da Souza Cruz ao modelo de computação em nuvem.
Para delimitar o trabalho foram escolhidos os ambientes de aplicações não críticas,
ambiente de homologação e ambiente de desenvolvimento como referência no estudo de caso.
Existem oportunidades de estudo no ambiente crítico e de escritório que poderão ser visitados
em trabalhos futuros.
Atualmente, todos os ambientes são gerenciados internamente, este gerenciamento
implica em: atualizações de sistema operacional, aplicação de paths de segurança ou
correções, gerenciamento de usuários, gestão de ciclo de vida do hardware, ciclo de vida dos
softwares entre outros. Além de ter uma alta complexidade para gerir o ambiente, os valores
gastos em todos estes processos acabam aumentando consideravelmente o TCO (Total Cost
Ownership) das aplicações.
60
De acordo com os depoimentos da gerencia da Souza Cruz e do GSD entende-se que é
possível migrar os serviços de homologação e de desenvolvimento para a nuvem a fim de
otimizar os custos e o gerenciamento destes ambientes. Alem destes dois ambientes a
proposta também e levar as aplicações não críticas para a nuvem e direcionar os esforços e
foco nas aplicações que realmente tragam benefício para a organização. Portanto aplicar o
conceito de computação em nuvem nos ambientes e aplicações que não tenham uma
relevância na entrega do produto final aos consumidores
Para esta primeira fase deverá ser migrado os ambientes da forma como estão para
minimizar impactos otimizar aplicações e manter os ambientes da mesma forma. Por isso a
análise financeira somente poderá ser aplicada na parte de infraestrutura, ou seja, os
servidores propriamente ditos. Mesmo assim podemos considerar que estaríamos eliminando
da Souza Cruz um parque de aproximadamente 20 servidores, ou seja, seriam 20
equipamentos a menos nos próximos investimentos de renovação do parque. Dentre os
servidores podemos separá-los em:

14 servidores plataforma Intel;

6 servidores plataforma Risc;
Com a conseqüente implementação desta primeira fase, a segunda fase, poderia ser
migrar os serviços de aplicações não critica. Nesta fase teríamos um parque de
aproximadamente mais 10 servidores, sendo eles:

8 servidores plataforma Intel;

2 servidores plataforma Risc;
Um caso ainda a ser aprofundado e merecedor de outro estudo, mas existe a
possibilidade de levar para a nuvem toda a infraestrutura usada para contingenciar às
aplicações (críticas e não Críticas). Neste caso seria possível desativar um datacenter inteiro,
atualmente hospedado internamente na Souza Cruz e reduzir consideravelmente a gestão de
ativos de TI.
4.3.3 Próximos Passos
Este trabalho não possui o escopo de implementar nenhuma das oportunidades de
redução de complexidade avaliadas nas fases anteriores. Mas para um melhor entendimento e
conclusão da aplicação do estudo de caso é importante mapear os passos futuros para
continuação e direcionamento do trabalho após a conclusão do trabalho.
Para tal evidenciamos os principais passos para garantir a viabilidade de
implementação do novo modelo de computação em nuvem, sendo eles:
61
 Avaliar a infraestrutura de comunicação: Para este tópico seria importante
inclusive um trabalho detalhado que contribua não apenas com a situação atual,
mas também com a evolução e direcionamento da parte de comunicações no país.
Este estudo deve levar em consideração a localização geográfica da Souza Cruz;
 Análise financeira do projeto: Para este item é necessário ter algum fornecedor
que possa nortear os custos de hospedagem e gerenciamento a fim de permitir a
execução de uma análise de viabilidade econômica para o projeto;
 Implementação de um plano piloto: Levar para a nuvem apenas uma única
aplicação, com o objetivo de validar o plano de fallback em caso de falha ou
rompimento de contrato com o fornecedor da nuvem;
62
5. CONCLUSÃO
A computação de forma geral é uma evolução constante e diariamente surgem novas
siglas e novos métodos para apoiar ou aprimorar processos tanto de negócios como da própria
vida pessoal. Esta evolução ainda desenfreada e sem perspectiva de reduzir a velocidade tem
seu preço, como visto neste trabalho a complexidade para gerir ambientes computacionais
principalmente em empresas globais crescem exponencialmente. A gestão vem a cada ano
aderindo a novas metodologias e ferramentas para controlar ambientes de missão crítica e
muitas vezes o coração das empresas.
Neste contexto é possível perceber que as metodologias ajudam os gestores de TI a
manter o ambiente controlável, mas também é possível perceber que apenas utilizar
ferramentas de gestão, não resolvem os problemas. E necessário nestes casos, configurar e
adequar as ferramentas para cada caso.
A computação em nuvem por sua vez traz uma nova perspectiva para os gestores de
TI, pois surgem como um novo modelo a ser utilizado como alternativa para reduzir a
complexidade de TI. Outro grande beneficio que vários autores defendem e parece estar
consolidado neste novo conceito é na área financeira, uma vez que este modelo permite
associar o custo de acordo com sua utilização. É possível ainda perceber que a computação
em nuvem pode ser utilizada em áreas onde existem demandas sazonais e que precisam de
rapidamente de elasticidade e flexibilidade, tanto na parte de Custos quanto na parte de
garantias de disponibilidade.
Por outro lado às corporações ainda analisam a computação em nuvem como uma
incógnita, pois ainda consideram a mesma muito precoce para aderir e investir tempo e
dinheiro neste novo segmento. Este sentimento foi possível perceber através das entrevistas
que foram aplicadas em algumas empresas de atuação global. Os gestores na sua maioria
aguardam casos concretos no mercado para migrarem serviços para a nuvem. Apesar de que
todos concordem que o modelo é promissor ainda precisam colocar na balança prós e contras,
principalmente porque o modelo depende muito de infraestrutura de telecomunicações e
adequação dos fornecedores para terem um portfólio de serviços adequado as organizações.
Para a empresa Souza Cruz é possível perceber que existem oportunidades para
evoluir com o assunto e baseado neste trabalho propor uma análise de custo beneficio para
levar alguns ambientes para a nuvem. Este piloto poderá servir como benchmark para toda a
BAT e em um futuro próximo utilizar esta inovação dentro da Souza Cruz para reduzir a
63
complexidade de gestão destes ativos e permitir focar no que realmente agrega valor ao
negócio.
Por último é importante frisar que apesar desta tendência estar ainda em fase inicial de
deenvolvimento, este modelo pretende mudar a forma de utilizar tecnologia da informação,
tanto nas empresas quanto nas residências. O amadurecimento da computação em nuvem trará
uma nova forma de se comercializar TI, passando atualmente de hardware e software para
uma abstração que todos apenas utilizarão e o pagamento será feito no final do mês de acordo
com a sua utilização, muito próximo do que hoje temos com energia elétrica ou mesmo uma
conta de telefone.
64
REFERÊNCIA BIBLIOGRAFICA
ARAÚJO, Regina Borges de. Computação Ubíqua: Princípios, Tecnologias e Desafios.
Departamento de Computação – Universidade Federal de S. Carlos (UFSCar). Disponível em:
http://www.comp.ufscar.br/~rafagpf/TOPICOS_4/apostila.rtf.
BARROS, Fabio. Cloud computing: fornecedores criam modelos próprios. Local: Internet;
Publicação: Jan/2009. Disponível em:
http://computerworld.uol.com.br/negocios/2009/01/12/cloud-computing-fornecedores-criammodelos-proprios; Acesso em: Jul/2010.
CIO, EUA. Estudo mostra que gestão de TI esta mais complexa hoje do que a dez anos.
Local: Internet; Publicação: Dez/2009. Disponível em: http://cio.uol.com.br/gestao. Acesso
em: Mai/2010.
COMPUTERWORLD. Como profissionais de segurança vêem Cloud Computing. Local:
Internet. Publicação: Fev/2010. Disponível em:
http://www.modulo.com.br/comunidade/noticias/1237-como-profissionais-de-segurancaveem-cloud-e-virtualizacao. Acesso em: Jun/2010.
GIL, Antônio C. Como elaborar projetos de pesquisa. São Paulo: Atlas, 2002.
GREENFIELD, Adam. Everyware. The dawning age of ubiquitous computing. Berkeley CA:
2006.
INFOWORLD, EUA. Cloud computing: onze categorias de Cloud Computing. Local:
Internet; Publicação: Mar/2010. Disponível em:
http://computerworld.uol.com.br/tecnologia/2010/03/03/11-categorias-de-cloud-computing;
Acesso em: Mai/2010.
ISACA, Cloud Computing: Business Benefits with Security, Governance and Assurance
Perspectives. Local: Internet Publicação: Jul/2009. Diponível em: http://www.isaca.org.
Acesso em: Mar/2010.
65
IVES, B. e JARVENPAA, S. L.. Applications of global information technology: Key issues
for management. MIS Quarterly, 1991, pp. 33-49.
KORZENIOWSKY-A, Paul. Segurança na nuvem: Padrões estão sendo trabalhados Local:
Internet. Publicação: Nov/2009; Diponível em:
http://www.itweb.com.br/noticias/index.asp?cod=62825. Acesso em: Mai/2010;
KORZENIOWSKY-B, Paul. Segurança na nuvem: Empresas devem garantir que o
provedor ofereça, no mínimo, a segurança padrão que eles usam em seus próprios sistemas.
Local: Internet. Publicação: Nov/2009. Diponsível em:
http://www.itweb.com.br/noticias/index.asp?cod=62822. Acesso em: Mai/2010.
LAUDON, K. C. e LAUDON, J. P. (1996). Management information systems: organization
and technology (4ª ed.). Prentice Hall, 1996.
NEGROPONTE, Nicholas. A vida digital. São Paulo: Companhia da Letras, 1995.
NIST, National Institute of Standard and Tecnology. Cloud Computing: Benefits and
Risks of Moving Federal IT into the Cloud. Local: Internet. Publicação: Jul/2009.
Disponível em: http://www.nist.gov Acesso em: Jul/ 2010.
PESSOA, Walter. A coleta de dados na pesquisa empírica. Local: Internet. Publicação:
Jul/1998. Disponível em: http://www.cgnet.com.br/~walter/artigo.html. Acesso em:
Nov/2009.
PORTER, Michael. A Vantagem Competitiva das Nações. Rio de Janeiro: CAMPUS, 1990.
RODRIGUEZ, Martius Vicente; FERRANTE, Augustin Juan. Tecnologia de informação e
Gestão Empresarial. Rio de Janeiro. E-Papers, 2000.
SIQUEIRA, Marcelo Costa. Gestão Estratégica da Informação. Como transformar o
conteúdo informacional em conhecimento valioso. Rio de Janeiro: Brasport, 2005.
Formatado: Português
(Brasil)
66
SOUSA, Fernando Alberto de. Frameworks e Middleware para Computação Ubíqua.
Local: Internet. Publicação em: Nov/2004. Disponível em:
http://grenoble.ime.usp.br/movel/frameworkubiqua.doc. Acesso em 10/05/2010.
SOUZA CRUZ A. Site Institucional. http://www.souzacruz.com.br. Acesso jul/2010.
SOUZA CRUZ B, Intranet. Global Service Delivery. Acesso Jul/2010.
STEPHENS, David. O. The globalization of information technology in multinational
corporations. Information Management Journal. Local: Internet. Publicação: Jul/1999.
Disponível em: http://www.accessmylibrary.com/article-1G1-59488503/globalizationinformation-technology-multinational.html. Acessso em: Jun/2010.
TAURION, Cezar. Computação em Nuvem. Transformando o mundo da Tecnologia da
Informação. Rio de Janeiro: Brasport, 2009.
WEISER, Mark. The coming age of Calm Technology. Local: Internet. Publicação: 1996
Disponível em: http://www.ubiq.com/hypertext/weiser/acmfuture2endnote.htm. Acesso em:
30/05/2010.
YIN, R. K. Planejamento e Métodos. Porto Alegre: Bookman, 2005.
Download

pdf - Unisinos