Área Temática
Inovação Internacional
# ID 1629
INOVAÇÃO NA PESQUISA BIOMÉDICA COM CLOUD
COMPUTING
Adani Cusin Sacilotti
Fatec Jundiaí
José Roberto Madureira Junior
Pontifícia Universidade Católica de São Paulo (PUC-SP)
Reginaldo Sacilotti
FATEC Jundiaí
Área 3 - Inovação Internacional
INOVAÇÃO NA PESQUISA BIOMÉDICA COM CLOUD
COMPUTING
RESUMO
Este artigo trata da utilização de Cloud Computing, demonstrando sua disseminação
impulsionada pela tendência de mercado, bem como pelo avanço tecnológico, que possibilita
e garante a solidez dos serviços oferecidos, trazendo grandes benefícios aos seus usuários.
Adotou-se um estudo de caso real, mostrando a utilização de serviços do modelo. São
destacadas também importantes empresas e seus respectivos serviços oferecidos, que são
relevantes em função de sua história e solidez no mercado, possibilitando ao usuário uma
análise prévia para a aquisição do serviço ideal ao seu ramo de atividade. Com o
conhecimento transmitido ao longo deste trabalho é possível ingressar no contexto Cloud
Computing tendo a certeza de que todos os pontos sejam satisfatórios na escolha do serviço
ideal para o negócio. Por fim, buscou-se oferecer uma visão geral dos serviços de Cloud
Computing, que são utilizados e, ajudam os usuários a vencer desafios em diferentes áreas.
Palavras-Chave:Cloud Computing. Saúde. Agilidade. Inovação.
1 INTRODUÇÃO
O modelo tradicional de Tecnologia da Informação (TI), com recursos físicos
planejados para atender picos de processamento, demanda altos investimentos em recursos,
muitas vezes igualando-se em custos, serviços para sistemas de alta e sistemas de baixa
prioridade. “O atual modelo computacional também não responde de forma adequada à
volatilidade do ambiente econômico, com suas constantes variações de crescimento e queda
de atividades” (TAURION, 2013a).
Os computadores, osdata centers e as licenças de software continuam tendo os mesmo
custos em períodos de queda econômica quando temos baixa utilização das tecnologias,
fazendo com que os usuários tenham seus investimentos posicionados acima ou abaixo do
necessário se compararmos à média dos vários períodos do ano, causando, em ambos os
casos, prejuízo para os usuários que acabam não tendo os recursos de TI adequados para
atender suas demandas ou gastando mais do que deveriam (TAURION, 2013a).
Por muitos anos foi negada a possibilidade de crescer rapidamente aos empreendedores
em função dos altos custos de TI. Expandir as operações para novos mercados ou ampliar a
capacidade de atendimento, por exemplo, eram grandes passos e os empreendedores tinham
que arcar com elevados investimentos em infraestrutura de TI, conexão e servidores, inibindo
o crescimento e surgimento de várias empresas criativas (INFO, 2013).
Ao longo da história, várias tentativas foram feitas para eliminar a dependência do
usuário com hardwares de computador, como exemplo a computação como utilitário
imaginada na década 60, os computadores da rede na década de 90 e os sistemas de redes
comerciais de anos mais recentes(ZISSIS; LEKKAS, 2012).
Cloud Computing 1 emergiu recentemente como um modelo de entrega e de acesso a
dados no qual os recursos virtualizados e dinamicamente escalados são entregues como um
serviço através da internet. Esse modelo abre novas oportunidades e introduz um modelo de
pagamento dos recursos utilizados conforme o uso, eliminando os pesados investimentos
iniciais (GOELEVEN et al., 2011).
Recentemente, Cloud Computing proporcionou uma mudança no paradigma da
computação e negócios, com potencial de impulsionar a evolução de aplicações e serviços na
internet, no qual os requisitos e complexidade de TI,em relação ao cliente, são reduzidos
(ZHANG; CHENG; BOUTABA, 2010).
Esse novo paradigma tem mudado radicalmente a paisagem de TI, alterando a forma de
operar, gerenciar, executar, implantar, desenvolver e especificar. Grandes mudanças na
indústria são motivadas por novas plataformas de computação, como ocorreu na mudança do
Personal Computer(PC) para o modelo cliente-servidor e mais tarde para internet e agora para
Cloud Computing como novo hardware (BATISTA et al., 2011; KNORR, 2013).
Cloud Computing trouxe grande impacto na indústria, por exemplo, fornecendo suporte
para as startups 2 e incentivando a inovação, que ganharam a possibilidade de implantar um
grande número de máquinas, pagando por elas apenas a quantidade e o tempo em que são
necessárias. Elas podem iniciar suas operações de forma mais rápida e barata que antes,
escalando a infraestrutura de TI para baixo e para cima livremente e por uma fração do custo
em relação aos modelos anteriores, o que permitiu o surgimento de muitas dessas empresas,
como a Chaordic, Dropbox, Foursquare, Peixe Urbano, Netflix e Pinterest, todas startups que
já nasceram suportadas por serviços de Cloud Computing(BLAIR et al., 2011; PAPO, 2013).
Arede social Pinterest 3destaca-se pela sua inviabilidade no modelo tradicional de
servidores físicos. Ele passou de 20 terabytes de dados armazenados para 350 em apenas sete
meses, sendo absolutamente inviável fazer essa expansão utilizando-se o modelo tradicional
de TI, no qual seria necessária a aquisição de servidores físicos. Além disso, sua infraestrutura
de Cloud Computing era mantida por um único funcionário quando atingiu a marca de 17
milhões de visitantes no mês (TAURION, 2013b).
Igualmente, o modelo Cloud Computing tem aberto grandes possibilidades para
investidores ampliarem suas experiências e atingirem a escalabilidade que for necessária para
o desenvolvimento de sua pesquisa. Os benefícios de Cloud Computing têm sido notados por
agências do governo e grandes corporações que têm estabelecido estratégias para sua
utilização. Como exemplo temos a Nasdaq, Samsung, Nasa, Sega, Shell, Unilever, The New
York Times, Sul América Seguros, Grupo Pão de Açúcar e Gol Linhas Aéreas que estão
utilizando o modelo para otimizar seus negócios (BLAIR et al., 2011; PAPO, 2013).
Uma razão para o sucesso de Cloud Computing é o fato da diminuição dos riscos e
aumento da agilidade no desenvolvimento de novos projetos, além da diminuição dos custos
totais de propriedade com infraestrutura de TI, mudando assim o cenário onde a maior parte
das organizações possuem 80% do seu investimento em sustentação dos seus ambientes de TI
ao invés de investirem em inovações (GARTNER, 2011; PAPO, 2013).
Cada vez mais, Cloud Computing tem sido alternativa presente por conta da
possibilidade de redução e maior controle sobre os custos operacionais, alta escalabilidade,
1
Cloud Computing, em português, Computação em Nuvem, também muito conhecido como
simplesmente Cloud, Nuvem, em português.
2
Uma instituição humana formada com o objetivo de buscar um modelo de negócios escalável
e repetível em extremas condições de incerteza.
3
Rede social que permite que seus usuários interajam visualmente criando e compartilhando
fotos ou vídeos por temas de interesse.
baixo investimento inicial, eliminação da necessidade de manutenção de infraestrutura física e
redução de investimentos em hardware de data centers, podendo as empresas concentrarem os
investimentos no desenvolvimento de software, o que gera valor agregado para as áreas de
negócios (BATISTA et al., 2011; TAURION, 2013c).
Além disso, a velocidade das mudanças no ambiente de negócio tem levantado
questionamentos quanto ao tempo de reação do modelo atual de TI. Com a velocidade de
entrega sendo ponto de grande importância, o modelo Cloud Computing tende a acelerar,
abrindo a possibilidade de se alocar recursos em minutos ao invés de semanas (TAURION,
2013c).
Pretende-se neste artigo demonstrar como se dá a utilização de serviços de Cloud Computing
e quais benefícios e desafios que, na sua utilização, ajudam os usuários a resolver seus
problemas, através de uma análise dos aspectos sociais e econômicos através de um estudo de
casos,onde detalhes desenvolvidos pormenorizadamente, baseado no levantamento
bibliográfico existente.
2 CLOUD COMPUTING
A Cloud Computing trouxe recentemente o modelo de serviços entregue nos moldes da
energia elétrica para o ambiente de TI, que é uma evolução dos serviços e produtos de
tecnologia da informação sob demanda, também chamada de Utility Computing(SOUSA;
MOREIRA; MACHADO, 2009).
Nesteartigo, adotamos a definição fornecida pelo National Institute of Standards and
Technology (NIST) que define Cloud Computing como:
Um modelo para permitir conveniente acesso à rede sob demanda e a um conjunto
compartilhado de recursos de computação configurável (por exemplo, redes,
servidores, armazenamento, aplicativos e serviços) que podem ser rapidamente
fornecidos e liberados com mínimo esforço de gestão ou interação do fornecedor de
serviços (NIST, 2011, tradução nossa) 4.
O modelo de Cloud Computing possui cinco características essenciais, são elas (BAUN et al.,
2011; NIST, 2011): (I) Self-service sob demanda: os recursos computacionais podem ser
adquiridos pelo usuário unilateralmente conforme a sua necessidade sem qualquer interação
humana; (II)Amplo acesso à rede: recursos computacionais são disponibilizados na rede em
tempo real e acessados por meio de mecanismos padronizados que possibilitam a utilização
por meio de plataformas thin ou thin client (por exemplo, celulares, tablets, laptops e
desktops); (III) Pool de recursos: os recursos computacionais do fornecedor são agrupados de
forma a atender múltiplos usuários (modelo multi-tenant), com diferentes recursos físicos e
virtuais, dinamicamente distribuídos de acordo com a demanda de cada usuário; (IV)
Elasticidade rápida: os recursos computacionais são provisionados de forma rápida e elástica,
em certos casos automaticamente, para atender a necessidade do usuário dando a impressão
de serem ilimitados;e (V)Serviços mensuráveis: para garantir a transparência tanto para o
fornecedor como para o usuário, a utilização dos recursos deve ser monitorada, controlada e
reportada de forma quantitativa e qualitativa.
Os tipos de oferta de Cloud Computing são os mais diversos, e podem ser divididos em duas
vertentes: grau de compartilhamento e modelo de entrega. Este modelo ocorre em quatro
graus de compartilhamento diferentes, são eles (TAURION, 2009; NIST, 2011; REESE,
4
“A model for enabling convenient, on-demand network access to a shared pool of
configurable computing resources (e.g., networks, servers, storage, applications, and
services) that can be rapidly provisioned and released with minimal management effort or
service provider interaction”. (NIST, 2011).
2009): (I)Públicos são centros de dados virtualizados fora do firewall da empresa.
Geralmente, um provedor de serviços disponibiliza recursos para empresas sob demanda,
através da internet; (II) Privados são centros de dados virtualizados dentro do firewall da
empresa. Pode também ser um espaço privado dedicado a uma determinada empresa dentro
de um centro provedor de Cloud Computing de dados; (III) Comunitários ocorrem quando
diversas organizações compartilham os recursos de uma mesma infraestrutura de Cloud
Computing; (IV) Híbridos combinam aspectos de ambos os públicos e privados.
Quanto a modelos de entregas, que também podem ser vistos como camadas, podemos dividir
os serviços de Cloud Computing em (BAUN et al., 2011; ELSENPETER; VELTE; VELTE,
2010; NIST, 2011): (I) Software as a Service (SaaS), que é o modelo de implantação de
software em que uma aplicação é licenciada para ser usada como serviço que será provido
para clientes sob demanda através da internet. Exemplos: Google Docs, Salesforce CRM e
WebEx; (II) Platform as a Service (PaaS), que é o modelo que fornece uma plataforma para o
desenvolvimento, suporte e entrega de aplicações e serviços disponíveis através da internet.
Exemplos: Microsoft Azure e Google App Engine; e (III) Infrastructure as a Service (IaaS),
que é o modelo que fornece infraestrutura de hardware (servidores, storage, redes),
tipicamente é um ambiente virtualizado, disponível como serviço através da internet.
Exemplos: Rackspace Cloud Servers, GoGrid Cloud Storage, e Amazon Elastic Compute
Cloud (EC2).
A ascensão de Cloud Computing, que como um paradigma para entrega conveniente de
serviços através da internet, emergiu recentemente, mudando o cenário de TI e transformando
a promessa de longa data de Utility Computing em realidade. À medida que se diminuem os
receios e se esclarecem as desinformações que ainda circulam pelo mercado, vemos cada vez
mais modelos de negócios completamente baseados em Cloud Computing do tipo pública
como, por exemplo, os americanos NetFlix e Foursquare e o brasileiro Peixe Urbano
(TAURION, 2012; ZHANG; CHENG; BOUTABA, 2010).
3 ESTUDO DE CASO SAGE BIONETWORKS
Nas últimas duas décadas, a comunidade de pesquisa médica tem assistido a um enorme
aumento na capacidade de gerar dados genéticos e biomoleculares de pacientes para
investigação de uma grande variedade de doenças. Como resultado houve uma crescente
quantidade de recursos destinados para pesquisa tanto na indústria como na comunidade
acadêmica. (SAGE BIONETWORKS, 2013).
Em contrapartida, o desenvolvimento de técnicas analíticas para interpretar
significativamente estes novos tipos de dados é imaturo, sendo necessário o seu
desenvolvimento e aperfeiçoamento, a fim de avançar de forma a melhorar significativamente
a prevenção e tratamento de doenças humanas comuns. (AMAZON, 2013).
Dificuldades como o acesso aos dados, métodos de análise, avaliação, reutilização de
dados, ou ainda modelos de doenças em vários laboratórios de forma aberta têm representado
grandes obstáculos para interpretação de maneira eficaz dos dados genômicos. Outra
dificuldade é o fato de que a maior parte dos dados necessários para realização de uma
pesquisa está distribuída entre vários repositórios públicos e privados, onde a cada grupo de
pesquisa protege os seus próprios dados, ferramentas e resultados. Neste cenário atual de
pesquisas ocorre uma enorme duplicação de esforços e consequentemente perda de
oportunidades de pesquisa. (AMAZON, 2013; SAGE BIONETWORKS, 2013).
A Sage Bionetworks é uma organização sem fins lucrativos de pesquisa biomédica
fortemente envolvida com colaboradores acadêmicos, industriais, governamentais e
filantrópicos no desenvolvimento de um modelo de pesquisa distribuída. Esse modelo
pretende revolucionar a forma com que os seus usuários (pesquisadores) trabalham e traz uma
mudança de paradigma de pesquisa, fundado na ampla colaboração. Essa mudança no
ambiente de pesquisa aberta visa beneficiar futuros pacientes acelerando o desenvolvimento
de tratamentos de doenças para a sociedade como um todo, reduzindo o custo dos cuidados
com saúde e de investigação biológica. (SAGE BIONETWORKS, 2013).
O Synapse é um ambiente on-line construído pela Sage Bionetworks, com objetivo de
conduzir uma transição cultural na maneira com que pesquisadores trabalham com
colaboração entre pesquisadores. Esse ambiente fornece aos pesquisadores uma plataforma
para análises colaborativas, de maneira similar a que o GitHub e Source Forge fornecem, com
ferramentas e código compartilhado para engenheiros de software, onde são abrigados
conjuntos de dados de Gene Expression Omnibus (GEO), The Cancer Genome Atlas (TCGA),
ArrayExpress e outros bancos de dados públicos e oferece integração entre ferramentas de
análise e ambiente de programação, além de facilitar a colaboração entre grupos de pesquisa.
(AMAZON, 2013; SAGE BIONETWORKS, 2013).
Atualmente o Synapse está sendo utilizado como recurso oficial para a realização de
análise de dados de TCGA do grupo de pesquisa TCGA Pan Cancer e irá fornecer os
conjuntos de dados de controle de versão.
O Synapse tem como finalidade ajudar seus usuários em uma série de problemas (SAGE
BIONET WORKS, 2013):
• solucionando dificuldades de acesso a recursos gerados por outros pesquisadores
mesmo dentro de uma mesma organização, fornecendo um registro central para dados
científicos no qual pesquisadores podem encontrar e utilizar dados relevantes;
• facilitando a compreensão os workflows de análise tornando a possibilidade de
reprodução dos mesmos.
• realizando análise de dados com informações sobre genomas completos, antes
limitados somente a grupos de pesquisa que possuem acesso a alto poder
computacional para apoiar tais análises;
• facilitando o rastreamento de trabalhos feitos em uma determinada área para que os
usuários possam elaborar seu trabalho utilizando-se de trabalhos anteriormente
realizados ao invés de começar do zero, estabelecendo e mantendo coloração ativa
com resultados publicados on-line.
A Figura 1 mostra um esquema geral do das pretensões com Synapse.
Figura 1 - Esquema geral Synapse
Fonte: AMAZON, 2013
3.1 SOLUÇÃO
A equipe de desenvolvimento da Sage Bionetworks faz uso de uma variedade de
produtos da AWS para lidar com a parte de infraestrutura básica, o que gera uma redução de
esforço com a gestão, liberando a equipe para concentrar-se nos aspectos cientificamente
relevantes e originais de sua aplicação. (AMAZON, 2013).
Na construção de aplicativos de análise de dados sofisticados e linguagens
especializadas torna-se ainda mais complicada a realização de alterações complexas, por
conta da sua pequena flexibilidade. O SWF da AWS é um serviço de Cloud Computing que
possibilita a utilização de linguagens de programação comuns e dá ao desenvolvedor a
capacidade de controle de onde as tarefas serão realizadas. (AMAZON, 2013c). Sendo este
serviço chave para o desenvolvimento do Synapse, ele realiza a tarefa de orquestração dos
complexos e heterogêneos workflows científicos. (AMAZON, 2013).
A AWS tem se destacado como estudo de caso oficial no uso de tecnologia de
workflows para tornar mais flexível a utilização de recursos baseados em ambiente onpremises e ou serviços Cloud Computing para o processamento de grandes volumes de dados
em tempo hábil e com uma boa relação entre custo benefício.
A utilização do SWF permite decompor a análise rapidamente de pipelines 5 de maneira
ordenada, separando a lógica de transição de estados das atividades reais em cada passo da
pipeline. Isso permite que ao mesmo tempo em que todos os engenheiros de software
trabalharem na lógica de transição dos estados, os usuários da empresa podem implementar as
atividades. Além disso, o SWF possibilita utilizar infraestrutura dos servidores em ambiente
on-premises e serviços do Cloud Computing publica o EC2 da AWS, proporcionando grande
flexibilidade e permitindo o Synapse alavancar a infraestrutura certa para cada projeto.
(AMAZON, 2013).
A utilização do SWF a Sage Bionetworks facilmente construiu uma pipeline para
análise automática de um conjunto de dados acessíveis a partir do National Center for
Biotechnology Information (NCBI) GEO. Esse repositório de dados inclui cerca de 8 mil
conjuntos de dados, sendo que o seu tamanho varia de 100MB e 100GB. (AMAZON, 2013).
O portal web Synapse é um registro on-line de projetos de pesquisa ativos que permite
que pesquisadores encontrem e compartilhem dados, modelos e métodos de análise. Esse
espaço on-line de trabalho serve como cola para ajudar grupos de pesquisa distribuídos para
colaborarem em análises científicas complexas. (SAGE BIONETWORKS, 2013).
Entre os serviços disponibilizados pelo portal está o wiki-centric, que visa facilitar a
construção narrativa de uma explicação para o seu trabalho, a ser incluída aos resultados em
eventual publicação. Também é possível conectar os dados resultantes de análises do Synapse
com resultados intermediários e figuras, essas relações podem ser visualizadas na web
fornecendo documentação visual para os workflows e ajudando na produtividade e
reutilização. (SAGE BIONETWORKS, 2013).
De forma a fornecer integração com linguagens de programação como R, Python, ou
mesmo o Shell do Linux, o Synapse trabalha com uma variedade de ferramentas diferentes,
que permite que os pesquisadores interajam para realizar sua análise. (SAGE
BIONETWORKS, 2013).
5
Trata-se da capacidade que o processador tem de fazer o processamento através de fases,
contendo a definição da cadeia dependente de atividades de processamento de dados prédefinidos ou personalizados, destinos e fontes de dados necessários para executar sua lógica
comercial.
O Synapse fornece uma hospedagem na web para fornecer registros de dados, códigos e
outros recursos de pesquisa, armazenados no Synapse diretamente ou em uma variedade de
servidores externos como, por exemplo, centros de em universidades, serviços de Cloud
Computing como da AWS ou repositórios de códigos como GitHub. Independentemente de
onde estejam os arquivos, eles podem ser consultados, realizando-se anotações ou utilizando
os registros do Synapse para acompanhar e compartilhar workflows, conforme pode ser visto
na figura 2. (SAGE BIONETWORKS, 2013).
Figura 2 - Visualizando um passo na análise de pipeline
Fonte: KELLEN, 2012
O projeto Synapse web tem sentido em ser chamado assim quando observamos a
arquitetura do mesmo, que torna possível a diversos grupos de pesquisa realizar a análise de
dados sobre a infraestrutura de TI por ele oferecida. Como resultado dessa arquitetura, os
registros de vida do projeto ficam centralizados e com disseminação de computação e
armazenamento de dados numa variedade de provedores diferentes de back-end 6. (SAGE
BIONETWORKS, 2013).
6
Serve indiretamente de apoio aos serviços de front-end (camada que os usuários do
aplicativo interagem diretamente), geralmente por estar mais perto do recurso necessário ou
Figura 3 - Tela do Synapse em profundidade
Fonte: KELLEN, 2013
Pensando em auxiliar os pesquisadores a entender o conjunto de dados escolhido para
processamento, as pipelines adicionam anotações significativas e em seguida aplicam
métodos numéricos para remover dados com erros. Essa atividade de qualidade numérica é
informalmente conhecida como QCing. (AMAZON, 2013).
Tendo executado os passos anteriores, os cientistas podem extrair os dados agregados
em vários estudos buscando genes consistentemente associadas com uma doença pesquisada.
Antes de usar o serviço de SWF este tratamento de dados levava um tempo muito grande para
ser concluído, tornando-se necessário que o pesquisador escrevesse scripts em Perl para
implementar algoritmos para execução de cálculos com os dados agregados.
Com uso dessa abordagem era possível a realização de análise, mas era um processo
manual, tedioso e era impossível o pesquisador alavancar qualquer tipo de processamento
paralelo. (AMAZON, 2013).
de ter a capacidade de se comunicar com o recurso necessário, por exemplo, armazenamento
de dados e banco de dados.
Era necessário que o Synapse possuísse um mecanismo confiável para coordenar a
realização de vários trabalhos e acompanhá-los mesmo quando vários deles ocorriam em
paralelo ou com dependência entre eles. (AMAZON, 2013).
Como parte de um programa beta, a equipe Sage Bionetworks foi apresentada ao SWF
da AWS, quando foi concluído que o Synapse possuía o cenário ideal para rodar baseado no
SWF. Para programar a ordem do workflow foi utilizado o AWS Flow Framework, tendo uma
etapa inicial seguida de duas outras definidas no workflow. (AMAZON, 2013).
Na etapa inicial, uma consulta ao site GEO é realizada buscando conjuntos de dados
interessantes para baixá-los em conjunto com seus metadados. Uma nova instância de
workflow é criada para cada conjunto de dados, por meio de programação, para executar as
etapas de processamento. Com o início da utilização do SWF permitiu-se que os usuários
executassem simultaneamente milhões de workflows. Eles puderam ser executados em
paralelo de forma a atender as necessidades de vários usuários simultaneamente. (AMAZON,
2013).
Uma nova instância do workflow é criada automaticamente, via programação, para cada
conjunto de dados para executar as etapas de processamento. O uso do SWF permite que os
clientes tenham milhões de execuções simultâneas de workflows abertas, podendo este
conjunto de dados ser processados em paralelo, de forma a apoiar as necessidades
computacionais de vários usuários simultaneamente. Sendo que, para cada execução do
workflow, é realizada a indexação que carrega os metadados e os links apontando para GEO
na Synapse, e o QC, que processa os dados brutos e carrega os dados para o Synapse,
conforme mostrado na figura 4.
Figura 4 - Análise Pipelines escaláveis
Fonte: AMAZON, 2013
A lógica de coordenação global é escrita em Java utilizando AWS Flow Framework
como se fosse uma única threaded 7 de programa em Java, para decompor em tarefas
distribuídas assíncronas funcionando de forma conjunta com o serviço. A lógica do rastreador
e QC foram escritos por usuários em R e Perl de maneira independente para execução em
recursos computacionais heterogêneos. (AMAZON, 2013).
O recurso de lista de tarefas do SWF tornou possível poder especificar o requisito de
memória para cada execução de acordo com o tamanho do conjunto de dados a serem
processados. A lógica do QC é executada somente após o SWF encaminhar as tarefas aos
servidores devidamente dimensionados. (AMAZON, 2013).
Através do AWS Management Console, os engenheiros do Synapse podem analisar
resultados de execuções, já que a captura de sinais de execução do SWF pode ser realizada
mesmo que em execuções de natureza distribuída.
Graças ao uso de serviço SWF da AWS, o projeto Synapse agora é capaz de executar
algoritmos para análise de dados escritos nas mais diversas linguagens de programação, em
paralelo com um conjunto heterogêneo de servidores. (AMAZON, 2013).
A estimativa da Sage Bionetworks é que, para criar um mínimo framework de
orquestração seria necessário 100 mil dólares de mão de obra de engenheiros de software e
mais os custos com o crescimento da necessidade de orquestração. Com o SWF, a equipe da
Sage Bionetworks foi liberada da tarefa de lidar com a complexidade da orquestração em
ambiente distribuído para concentrar-se na verdadeira missão da empresa. Desta forma foi
possível evoluir a plataforma Synapse como uma plataforma para computação científica com
forte interação social entre seus usuários, com uso dos recursos do SWF e do AWS Flow
Framework que pouparam o tempo e esforços para construí-la. (AMAZON, 2013).
Com as melhorias obtidas com o uso do SWF, pesquisadores podem usar a plataforma
de computação para processar bilhões de mediações biológicas que têm potencial para
desvendar os principais pontos de complexas doenças humanas como o câncer, Alzheimer e
diabetes. De forma rápida e eficiente o serviço possibilitou usar os dados para o seu
verdadeiro propósito de encontrar curas para doenças humanas. (AMAZON, 2013).
5 CONCLUSÃO
Para que fosse possível realizar uma análise do que vem acontecendo no uso do
modelo de Cloud Computing utilizamos a metodologia de estudo de caso, que indica a melhor
forma de implementação deste modelo computacional. Neste artigo foi escolhido um caso que
apresentou resumidamente os resultados obtidos sobre o tipo de fornecedor, os tipos de
serviços e os principais benefícios que podem ser observados na Tabela 1.
Tabela 1 – Resumo do estudo de caso da utilização de Cloud Computing.
7
Estudo de
Caso
Fornecedor
de Serviços
Serviço(s)
Utilizado(s)
Principais Benefícios
Sage
Bionetworks
Synapse
Amazon Web
Services
 Simple
Workflow;
 Management
Console;
 Elastic
Compute
 Processamento de grandes volumes de
dados em tempo hábil e com uma boa
relação entre custo benefício;
 Liberada a equipe de lidar com a
complexidade e do custo criar um framework
de orquestração em ambiente distribuído;
Representa um fluxo de execução sequencial dentro um processo, de forma que ele possa ser
executado de forma concorrente em diferentes processadores, caso existam.
Cloud.
 Flexibilidade e proporcionando alavancar a
infraestrutura certa para cada projeto;
 Possibilidade captura de sinais de execução
do SWF e reutilizar processamentos;
 Separa a lógica de transição de estados das
atividades reais em cada passo da pipeline.
Fonte: Desenvolvido pelos autores.
Na Tabela 1 destacou-se uma característica que chamou a atenção no estudo: a liberação das
equipes de tarefas. Este aspecto estabeleceu os modos de gerenciamento da infraestrutura. E,
de fato, é algo que os serviços de Cloud Computing podem fazer para permitir que as
empresas concentrem suas forças no desenvolvimento de seus negócios específicos.
Através da exposição desse estudo verificou-se também importantes aspectos para os
usuários, onde foram realçadas razões pelas quais eles deveriam caminhar para a adoção deste
tipo de serviço. Acredita-se que com a escolha da carga de trabalho correta, pode-se obter
interessantes benefícios, como ocorreu com o usuário analisado no estudo de caso, onde a
solução apresentada resultou em elevados níveis de qualidade e de serviços prestados.
INNOVATION IN BIOMEDICAL RESEARCH WITH CLOUD
COMPUTING
ABSTRACT
This article deals with the use of Cloud Computing, showing its spread driven by market
trends, as well as the technological advancement that enables and ensures the soundness of
the services offered, bringing major benefits to its users. Adopted a real case study showing
the use of the services model. Are also highlighted reputed companies and their offered
services, which are relevant in terms of their history, and market, enabling the user to a
previous analysis to purchase the right to service your industry. With the knowledge passed
along this work it is possible to enter the cloud computing context being sure that all points
are satisfactory in choosing the ideal service for business. Finally, we sought to provide an
overview of cloud computing services, which are used, and help users overcome challenges in
different areas.
Keywords: Cloud Computing. Health. Agility. Innovation.
REFERÊNCIAS
AMAZON Web Services. AWS Case Study: Sage Bionetworks and Amazon SWF.
Disponível em: <http://aws.amazon.com/pt/swf/testimonials/swfsagebio/>. Acesso em: 14
maio 2013.
BATISTA, Thais Vasconcelos et al. AltoStratus: Uma Rede de Colaboração com Foco nos
Novos Desafios e Oportunidades de Pesquisa em Computação em Nuvem. In: XXV
SIMPÓSIO BRASILEIRO DE ENGENHARIA DE SOFTWARE (SBES 2011), 2011, São
Paulo. Anais... . Porto Alegre: Sociedade Brasileira de Computação (SBC), 2011. p. 136 141.
BLAIR, Gordon et al. Perspectives on cloud computing: interviews with fiveleading scientists
from the cloud community. Journal of Internet Services and Applications, Springer
London, p. 3-9. 01 jul. 2011.
BAUN, Christian et al. Cloud Computing: Web-Based Dynamic IT Services. Berlin,
Germany: Springer Publishing Company, 2011. 109 p
ELSENPETER, Robert; VELTE, Anthony T.; VELTE, Toby J. Cloud Computing A
Practical Approach.Fl, United States: Osborne-mcgraw-hil, 2010. 352 p.
GARTNER. Gartner Says Eight of Ten Dollars Enterprises Spend on IT is "Dead
Money".Disponível em: <http://www.gartner.com/it/page.jsp?id=497088/>. Acesso em: 20
out. 2011.
GOELEVEN, Yves et al. Architectural Requirements for Cloud Computing Systems: An
Enterprise Cloud Approach.Journal of Grid Computing, Springer Netherlands, v. 9, n. 1,
p.3 – 9, 01 mar. 2011.
INFO.
Serviços
de
nuvem
aceleram
inovação.
Disponível
em:
<http://info.abril.com.br/noticias/it-solutions/2013/08/saiba-o-que-o-facebook-e-o-linkedintem-em-comum.shtml>. Acesso em: 18 ago. 2013.
KELLEN, Mike. Synapse Introduction. Disponível em:
<https://sagebionetworks.jira.com/wiki/pages/worddav/preview.action?fileName=Synapse+In
tro+Oct+2012.pptx&pageId=3571721>. Acesso em: 10 out. 2013.
KELLEN, Michael. Synapse Vision Document. Disponível em:
<https://sagebionetworks.jira.com/wiki/pages/worddav/preview.action?fileName=Synapse+V
ision+Document.pdf&pageId=3571721>. Acesso em: 07 fev. 2012.
KNORR,
Eric.
9
trends
for
2014
and
beyond.Disponível
em:
<http://www.infoworld.com/t/cloud-computing/9-trends-2014-and-beyond-230099>. Acesso
em: 04 nov. 2013.
NIST.
The
NIST
Definition
of
Cloud
Computing.Disponível
em:
<http://csrc.nist.gov/publications/nistpubs/800-145/SP800-145.pdf>. Acesso em: 20 out.
2011.
PAPO, José. Arquitetura de Nuvem: rompendo fronteiras. Disponível
<http://imasters.com.br/design-ux/arquitetura-da-informacao/arquitetura-de-nuvemrompendo-fronteiras/>. Acesso em: 14 ago. 2013.
em:
REESE, George. Cloud Application Architectures: Building Applications and Infrastructure
in the Cloud.CA, United States/Sebastopol: O'Reilly Media, 2009. 208 p.
SAGE BIONETWORKS. Synapse in depth. Disponível em: <http://sagebase.org/synapse/>.
Acesso em: 03 ago. 2013.
SOUSA, Flavio Rubens de Carvalho; MOREIRA, Leonardo O.; MACHADO, Javam de
Castro. Computação em Nuvem: Conceitos, Tecnologias, Aplicações e Desafios. In:
PEDRO DE ALCANTARA SANTOS NETO. (ORG.). II Escola Regional de Computação
Ceará, Maranhão e Piauí (ERCEMAPI). : 2009. Cap. 21, p. 150 - 175.
TAURION, Cezar. Cloud Computing: Computação em nuvem transformando o mundo da
tecnologia da informação. São Paulo: Brasport, 2009. 228 p.
TAURION, Cezar.Cloud computing e a sua capacidade de mudar o cenário de TI.
Disponível em: <http://imasters.com.br/gerencia-de-ti/tendencias/cloud-computing-e-a-suacapacidade-de-mudar-o-cenario-de-ti/>. Acesso em: 02 set. 2013a.
TAURION, Cezar. Como o cloud computing vem transformando os mega datacenters.
Disponível
em:
<http://imasters.com.br/infra/cloud/como-o-cloud-computing-vemtransformando-os-mega-datacenters/>. Acesso em: 8 jul. 2013b.
TAURION, Cezar. Cloudnomics: The Power of Cloud Driving Business Model Innovation.
Disponível em: <http://www.slideshare.net/soudW/cloud-computing-da-curiosidade-paracasos-reais-13520639>. Acesso em: 02 jul. 2012.
TAURION, Cezar. Cloud speed: cloud computing também deve ser ágil e rápida. Disponível
em: <http://imasters.com.br/infra/cloud/cloud-speed-cloud-computing-tambem-deve-ser-agile-rapida/>. Acesso em: 11 nov. 2013c.
ZHANG, Qi; CHENG, Lu; BOUTABA, Raouf. Cloud computing: state-of-the-art and
research challenges.Journal of Internet Services and Applications, Springer London, v. 1,
p.7 - 18, 01 maio 2010.
ZISSIS, Dimitrios; LEKKAS, Dimitrios. Addressing Cloud Computing Security Issues.
Future Generation Computer Systems, Elsevier B.V., v. 28, n. 3, p. 583 - 592, mar. 2012.
Download

inovação na pesquisa biomédica com cloud computing