Área Temática Inovação Internacional # ID 1629 INOVAÇÃO NA PESQUISA BIOMÉDICA COM CLOUD COMPUTING Adani Cusin Sacilotti Fatec Jundiaí José Roberto Madureira Junior Pontifícia Universidade Católica de São Paulo (PUC-SP) Reginaldo Sacilotti FATEC Jundiaí Área 3 - Inovação Internacional INOVAÇÃO NA PESQUISA BIOMÉDICA COM CLOUD COMPUTING RESUMO Este artigo trata da utilização de Cloud Computing, demonstrando sua disseminação impulsionada pela tendência de mercado, bem como pelo avanço tecnológico, que possibilita e garante a solidez dos serviços oferecidos, trazendo grandes benefícios aos seus usuários. Adotou-se um estudo de caso real, mostrando a utilização de serviços do modelo. São destacadas também importantes empresas e seus respectivos serviços oferecidos, que são relevantes em função de sua história e solidez no mercado, possibilitando ao usuário uma análise prévia para a aquisição do serviço ideal ao seu ramo de atividade. Com o conhecimento transmitido ao longo deste trabalho é possível ingressar no contexto Cloud Computing tendo a certeza de que todos os pontos sejam satisfatórios na escolha do serviço ideal para o negócio. Por fim, buscou-se oferecer uma visão geral dos serviços de Cloud Computing, que são utilizados e, ajudam os usuários a vencer desafios em diferentes áreas. Palavras-Chave:Cloud Computing. Saúde. Agilidade. Inovação. 1 INTRODUÇÃO O modelo tradicional de Tecnologia da Informação (TI), com recursos físicos planejados para atender picos de processamento, demanda altos investimentos em recursos, muitas vezes igualando-se em custos, serviços para sistemas de alta e sistemas de baixa prioridade. “O atual modelo computacional também não responde de forma adequada à volatilidade do ambiente econômico, com suas constantes variações de crescimento e queda de atividades” (TAURION, 2013a). Os computadores, osdata centers e as licenças de software continuam tendo os mesmo custos em períodos de queda econômica quando temos baixa utilização das tecnologias, fazendo com que os usuários tenham seus investimentos posicionados acima ou abaixo do necessário se compararmos à média dos vários períodos do ano, causando, em ambos os casos, prejuízo para os usuários que acabam não tendo os recursos de TI adequados para atender suas demandas ou gastando mais do que deveriam (TAURION, 2013a). Por muitos anos foi negada a possibilidade de crescer rapidamente aos empreendedores em função dos altos custos de TI. Expandir as operações para novos mercados ou ampliar a capacidade de atendimento, por exemplo, eram grandes passos e os empreendedores tinham que arcar com elevados investimentos em infraestrutura de TI, conexão e servidores, inibindo o crescimento e surgimento de várias empresas criativas (INFO, 2013). Ao longo da história, várias tentativas foram feitas para eliminar a dependência do usuário com hardwares de computador, como exemplo a computação como utilitário imaginada na década 60, os computadores da rede na década de 90 e os sistemas de redes comerciais de anos mais recentes(ZISSIS; LEKKAS, 2012). Cloud Computing 1 emergiu recentemente como um modelo de entrega e de acesso a dados no qual os recursos virtualizados e dinamicamente escalados são entregues como um serviço através da internet. Esse modelo abre novas oportunidades e introduz um modelo de pagamento dos recursos utilizados conforme o uso, eliminando os pesados investimentos iniciais (GOELEVEN et al., 2011). Recentemente, Cloud Computing proporcionou uma mudança no paradigma da computação e negócios, com potencial de impulsionar a evolução de aplicações e serviços na internet, no qual os requisitos e complexidade de TI,em relação ao cliente, são reduzidos (ZHANG; CHENG; BOUTABA, 2010). Esse novo paradigma tem mudado radicalmente a paisagem de TI, alterando a forma de operar, gerenciar, executar, implantar, desenvolver e especificar. Grandes mudanças na indústria são motivadas por novas plataformas de computação, como ocorreu na mudança do Personal Computer(PC) para o modelo cliente-servidor e mais tarde para internet e agora para Cloud Computing como novo hardware (BATISTA et al., 2011; KNORR, 2013). Cloud Computing trouxe grande impacto na indústria, por exemplo, fornecendo suporte para as startups 2 e incentivando a inovação, que ganharam a possibilidade de implantar um grande número de máquinas, pagando por elas apenas a quantidade e o tempo em que são necessárias. Elas podem iniciar suas operações de forma mais rápida e barata que antes, escalando a infraestrutura de TI para baixo e para cima livremente e por uma fração do custo em relação aos modelos anteriores, o que permitiu o surgimento de muitas dessas empresas, como a Chaordic, Dropbox, Foursquare, Peixe Urbano, Netflix e Pinterest, todas startups que já nasceram suportadas por serviços de Cloud Computing(BLAIR et al., 2011; PAPO, 2013). Arede social Pinterest 3destaca-se pela sua inviabilidade no modelo tradicional de servidores físicos. Ele passou de 20 terabytes de dados armazenados para 350 em apenas sete meses, sendo absolutamente inviável fazer essa expansão utilizando-se o modelo tradicional de TI, no qual seria necessária a aquisição de servidores físicos. Além disso, sua infraestrutura de Cloud Computing era mantida por um único funcionário quando atingiu a marca de 17 milhões de visitantes no mês (TAURION, 2013b). Igualmente, o modelo Cloud Computing tem aberto grandes possibilidades para investidores ampliarem suas experiências e atingirem a escalabilidade que for necessária para o desenvolvimento de sua pesquisa. Os benefícios de Cloud Computing têm sido notados por agências do governo e grandes corporações que têm estabelecido estratégias para sua utilização. Como exemplo temos a Nasdaq, Samsung, Nasa, Sega, Shell, Unilever, The New York Times, Sul América Seguros, Grupo Pão de Açúcar e Gol Linhas Aéreas que estão utilizando o modelo para otimizar seus negócios (BLAIR et al., 2011; PAPO, 2013). Uma razão para o sucesso de Cloud Computing é o fato da diminuição dos riscos e aumento da agilidade no desenvolvimento de novos projetos, além da diminuição dos custos totais de propriedade com infraestrutura de TI, mudando assim o cenário onde a maior parte das organizações possuem 80% do seu investimento em sustentação dos seus ambientes de TI ao invés de investirem em inovações (GARTNER, 2011; PAPO, 2013). Cada vez mais, Cloud Computing tem sido alternativa presente por conta da possibilidade de redução e maior controle sobre os custos operacionais, alta escalabilidade, 1 Cloud Computing, em português, Computação em Nuvem, também muito conhecido como simplesmente Cloud, Nuvem, em português. 2 Uma instituição humana formada com o objetivo de buscar um modelo de negócios escalável e repetível em extremas condições de incerteza. 3 Rede social que permite que seus usuários interajam visualmente criando e compartilhando fotos ou vídeos por temas de interesse. baixo investimento inicial, eliminação da necessidade de manutenção de infraestrutura física e redução de investimentos em hardware de data centers, podendo as empresas concentrarem os investimentos no desenvolvimento de software, o que gera valor agregado para as áreas de negócios (BATISTA et al., 2011; TAURION, 2013c). Além disso, a velocidade das mudanças no ambiente de negócio tem levantado questionamentos quanto ao tempo de reação do modelo atual de TI. Com a velocidade de entrega sendo ponto de grande importância, o modelo Cloud Computing tende a acelerar, abrindo a possibilidade de se alocar recursos em minutos ao invés de semanas (TAURION, 2013c). Pretende-se neste artigo demonstrar como se dá a utilização de serviços de Cloud Computing e quais benefícios e desafios que, na sua utilização, ajudam os usuários a resolver seus problemas, através de uma análise dos aspectos sociais e econômicos através de um estudo de casos,onde detalhes desenvolvidos pormenorizadamente, baseado no levantamento bibliográfico existente. 2 CLOUD COMPUTING A Cloud Computing trouxe recentemente o modelo de serviços entregue nos moldes da energia elétrica para o ambiente de TI, que é uma evolução dos serviços e produtos de tecnologia da informação sob demanda, também chamada de Utility Computing(SOUSA; MOREIRA; MACHADO, 2009). Nesteartigo, adotamos a definição fornecida pelo National Institute of Standards and Technology (NIST) que define Cloud Computing como: Um modelo para permitir conveniente acesso à rede sob demanda e a um conjunto compartilhado de recursos de computação configurável (por exemplo, redes, servidores, armazenamento, aplicativos e serviços) que podem ser rapidamente fornecidos e liberados com mínimo esforço de gestão ou interação do fornecedor de serviços (NIST, 2011, tradução nossa) 4. O modelo de Cloud Computing possui cinco características essenciais, são elas (BAUN et al., 2011; NIST, 2011): (I) Self-service sob demanda: os recursos computacionais podem ser adquiridos pelo usuário unilateralmente conforme a sua necessidade sem qualquer interação humana; (II)Amplo acesso à rede: recursos computacionais são disponibilizados na rede em tempo real e acessados por meio de mecanismos padronizados que possibilitam a utilização por meio de plataformas thin ou thin client (por exemplo, celulares, tablets, laptops e desktops); (III) Pool de recursos: os recursos computacionais do fornecedor são agrupados de forma a atender múltiplos usuários (modelo multi-tenant), com diferentes recursos físicos e virtuais, dinamicamente distribuídos de acordo com a demanda de cada usuário; (IV) Elasticidade rápida: os recursos computacionais são provisionados de forma rápida e elástica, em certos casos automaticamente, para atender a necessidade do usuário dando a impressão de serem ilimitados;e (V)Serviços mensuráveis: para garantir a transparência tanto para o fornecedor como para o usuário, a utilização dos recursos deve ser monitorada, controlada e reportada de forma quantitativa e qualitativa. Os tipos de oferta de Cloud Computing são os mais diversos, e podem ser divididos em duas vertentes: grau de compartilhamento e modelo de entrega. Este modelo ocorre em quatro graus de compartilhamento diferentes, são eles (TAURION, 2009; NIST, 2011; REESE, 4 “A model for enabling convenient, on-demand network access to a shared pool of configurable computing resources (e.g., networks, servers, storage, applications, and services) that can be rapidly provisioned and released with minimal management effort or service provider interaction”. (NIST, 2011). 2009): (I)Públicos são centros de dados virtualizados fora do firewall da empresa. Geralmente, um provedor de serviços disponibiliza recursos para empresas sob demanda, através da internet; (II) Privados são centros de dados virtualizados dentro do firewall da empresa. Pode também ser um espaço privado dedicado a uma determinada empresa dentro de um centro provedor de Cloud Computing de dados; (III) Comunitários ocorrem quando diversas organizações compartilham os recursos de uma mesma infraestrutura de Cloud Computing; (IV) Híbridos combinam aspectos de ambos os públicos e privados. Quanto a modelos de entregas, que também podem ser vistos como camadas, podemos dividir os serviços de Cloud Computing em (BAUN et al., 2011; ELSENPETER; VELTE; VELTE, 2010; NIST, 2011): (I) Software as a Service (SaaS), que é o modelo de implantação de software em que uma aplicação é licenciada para ser usada como serviço que será provido para clientes sob demanda através da internet. Exemplos: Google Docs, Salesforce CRM e WebEx; (II) Platform as a Service (PaaS), que é o modelo que fornece uma plataforma para o desenvolvimento, suporte e entrega de aplicações e serviços disponíveis através da internet. Exemplos: Microsoft Azure e Google App Engine; e (III) Infrastructure as a Service (IaaS), que é o modelo que fornece infraestrutura de hardware (servidores, storage, redes), tipicamente é um ambiente virtualizado, disponível como serviço através da internet. Exemplos: Rackspace Cloud Servers, GoGrid Cloud Storage, e Amazon Elastic Compute Cloud (EC2). A ascensão de Cloud Computing, que como um paradigma para entrega conveniente de serviços através da internet, emergiu recentemente, mudando o cenário de TI e transformando a promessa de longa data de Utility Computing em realidade. À medida que se diminuem os receios e se esclarecem as desinformações que ainda circulam pelo mercado, vemos cada vez mais modelos de negócios completamente baseados em Cloud Computing do tipo pública como, por exemplo, os americanos NetFlix e Foursquare e o brasileiro Peixe Urbano (TAURION, 2012; ZHANG; CHENG; BOUTABA, 2010). 3 ESTUDO DE CASO SAGE BIONETWORKS Nas últimas duas décadas, a comunidade de pesquisa médica tem assistido a um enorme aumento na capacidade de gerar dados genéticos e biomoleculares de pacientes para investigação de uma grande variedade de doenças. Como resultado houve uma crescente quantidade de recursos destinados para pesquisa tanto na indústria como na comunidade acadêmica. (SAGE BIONETWORKS, 2013). Em contrapartida, o desenvolvimento de técnicas analíticas para interpretar significativamente estes novos tipos de dados é imaturo, sendo necessário o seu desenvolvimento e aperfeiçoamento, a fim de avançar de forma a melhorar significativamente a prevenção e tratamento de doenças humanas comuns. (AMAZON, 2013). Dificuldades como o acesso aos dados, métodos de análise, avaliação, reutilização de dados, ou ainda modelos de doenças em vários laboratórios de forma aberta têm representado grandes obstáculos para interpretação de maneira eficaz dos dados genômicos. Outra dificuldade é o fato de que a maior parte dos dados necessários para realização de uma pesquisa está distribuída entre vários repositórios públicos e privados, onde a cada grupo de pesquisa protege os seus próprios dados, ferramentas e resultados. Neste cenário atual de pesquisas ocorre uma enorme duplicação de esforços e consequentemente perda de oportunidades de pesquisa. (AMAZON, 2013; SAGE BIONETWORKS, 2013). A Sage Bionetworks é uma organização sem fins lucrativos de pesquisa biomédica fortemente envolvida com colaboradores acadêmicos, industriais, governamentais e filantrópicos no desenvolvimento de um modelo de pesquisa distribuída. Esse modelo pretende revolucionar a forma com que os seus usuários (pesquisadores) trabalham e traz uma mudança de paradigma de pesquisa, fundado na ampla colaboração. Essa mudança no ambiente de pesquisa aberta visa beneficiar futuros pacientes acelerando o desenvolvimento de tratamentos de doenças para a sociedade como um todo, reduzindo o custo dos cuidados com saúde e de investigação biológica. (SAGE BIONETWORKS, 2013). O Synapse é um ambiente on-line construído pela Sage Bionetworks, com objetivo de conduzir uma transição cultural na maneira com que pesquisadores trabalham com colaboração entre pesquisadores. Esse ambiente fornece aos pesquisadores uma plataforma para análises colaborativas, de maneira similar a que o GitHub e Source Forge fornecem, com ferramentas e código compartilhado para engenheiros de software, onde são abrigados conjuntos de dados de Gene Expression Omnibus (GEO), The Cancer Genome Atlas (TCGA), ArrayExpress e outros bancos de dados públicos e oferece integração entre ferramentas de análise e ambiente de programação, além de facilitar a colaboração entre grupos de pesquisa. (AMAZON, 2013; SAGE BIONETWORKS, 2013). Atualmente o Synapse está sendo utilizado como recurso oficial para a realização de análise de dados de TCGA do grupo de pesquisa TCGA Pan Cancer e irá fornecer os conjuntos de dados de controle de versão. O Synapse tem como finalidade ajudar seus usuários em uma série de problemas (SAGE BIONET WORKS, 2013): • solucionando dificuldades de acesso a recursos gerados por outros pesquisadores mesmo dentro de uma mesma organização, fornecendo um registro central para dados científicos no qual pesquisadores podem encontrar e utilizar dados relevantes; • facilitando a compreensão os workflows de análise tornando a possibilidade de reprodução dos mesmos. • realizando análise de dados com informações sobre genomas completos, antes limitados somente a grupos de pesquisa que possuem acesso a alto poder computacional para apoiar tais análises; • facilitando o rastreamento de trabalhos feitos em uma determinada área para que os usuários possam elaborar seu trabalho utilizando-se de trabalhos anteriormente realizados ao invés de começar do zero, estabelecendo e mantendo coloração ativa com resultados publicados on-line. A Figura 1 mostra um esquema geral do das pretensões com Synapse. Figura 1 - Esquema geral Synapse Fonte: AMAZON, 2013 3.1 SOLUÇÃO A equipe de desenvolvimento da Sage Bionetworks faz uso de uma variedade de produtos da AWS para lidar com a parte de infraestrutura básica, o que gera uma redução de esforço com a gestão, liberando a equipe para concentrar-se nos aspectos cientificamente relevantes e originais de sua aplicação. (AMAZON, 2013). Na construção de aplicativos de análise de dados sofisticados e linguagens especializadas torna-se ainda mais complicada a realização de alterações complexas, por conta da sua pequena flexibilidade. O SWF da AWS é um serviço de Cloud Computing que possibilita a utilização de linguagens de programação comuns e dá ao desenvolvedor a capacidade de controle de onde as tarefas serão realizadas. (AMAZON, 2013c). Sendo este serviço chave para o desenvolvimento do Synapse, ele realiza a tarefa de orquestração dos complexos e heterogêneos workflows científicos. (AMAZON, 2013). A AWS tem se destacado como estudo de caso oficial no uso de tecnologia de workflows para tornar mais flexível a utilização de recursos baseados em ambiente onpremises e ou serviços Cloud Computing para o processamento de grandes volumes de dados em tempo hábil e com uma boa relação entre custo benefício. A utilização do SWF permite decompor a análise rapidamente de pipelines 5 de maneira ordenada, separando a lógica de transição de estados das atividades reais em cada passo da pipeline. Isso permite que ao mesmo tempo em que todos os engenheiros de software trabalharem na lógica de transição dos estados, os usuários da empresa podem implementar as atividades. Além disso, o SWF possibilita utilizar infraestrutura dos servidores em ambiente on-premises e serviços do Cloud Computing publica o EC2 da AWS, proporcionando grande flexibilidade e permitindo o Synapse alavancar a infraestrutura certa para cada projeto. (AMAZON, 2013). A utilização do SWF a Sage Bionetworks facilmente construiu uma pipeline para análise automática de um conjunto de dados acessíveis a partir do National Center for Biotechnology Information (NCBI) GEO. Esse repositório de dados inclui cerca de 8 mil conjuntos de dados, sendo que o seu tamanho varia de 100MB e 100GB. (AMAZON, 2013). O portal web Synapse é um registro on-line de projetos de pesquisa ativos que permite que pesquisadores encontrem e compartilhem dados, modelos e métodos de análise. Esse espaço on-line de trabalho serve como cola para ajudar grupos de pesquisa distribuídos para colaborarem em análises científicas complexas. (SAGE BIONETWORKS, 2013). Entre os serviços disponibilizados pelo portal está o wiki-centric, que visa facilitar a construção narrativa de uma explicação para o seu trabalho, a ser incluída aos resultados em eventual publicação. Também é possível conectar os dados resultantes de análises do Synapse com resultados intermediários e figuras, essas relações podem ser visualizadas na web fornecendo documentação visual para os workflows e ajudando na produtividade e reutilização. (SAGE BIONETWORKS, 2013). De forma a fornecer integração com linguagens de programação como R, Python, ou mesmo o Shell do Linux, o Synapse trabalha com uma variedade de ferramentas diferentes, que permite que os pesquisadores interajam para realizar sua análise. (SAGE BIONETWORKS, 2013). 5 Trata-se da capacidade que o processador tem de fazer o processamento através de fases, contendo a definição da cadeia dependente de atividades de processamento de dados prédefinidos ou personalizados, destinos e fontes de dados necessários para executar sua lógica comercial. O Synapse fornece uma hospedagem na web para fornecer registros de dados, códigos e outros recursos de pesquisa, armazenados no Synapse diretamente ou em uma variedade de servidores externos como, por exemplo, centros de em universidades, serviços de Cloud Computing como da AWS ou repositórios de códigos como GitHub. Independentemente de onde estejam os arquivos, eles podem ser consultados, realizando-se anotações ou utilizando os registros do Synapse para acompanhar e compartilhar workflows, conforme pode ser visto na figura 2. (SAGE BIONETWORKS, 2013). Figura 2 - Visualizando um passo na análise de pipeline Fonte: KELLEN, 2012 O projeto Synapse web tem sentido em ser chamado assim quando observamos a arquitetura do mesmo, que torna possível a diversos grupos de pesquisa realizar a análise de dados sobre a infraestrutura de TI por ele oferecida. Como resultado dessa arquitetura, os registros de vida do projeto ficam centralizados e com disseminação de computação e armazenamento de dados numa variedade de provedores diferentes de back-end 6. (SAGE BIONETWORKS, 2013). 6 Serve indiretamente de apoio aos serviços de front-end (camada que os usuários do aplicativo interagem diretamente), geralmente por estar mais perto do recurso necessário ou Figura 3 - Tela do Synapse em profundidade Fonte: KELLEN, 2013 Pensando em auxiliar os pesquisadores a entender o conjunto de dados escolhido para processamento, as pipelines adicionam anotações significativas e em seguida aplicam métodos numéricos para remover dados com erros. Essa atividade de qualidade numérica é informalmente conhecida como QCing. (AMAZON, 2013). Tendo executado os passos anteriores, os cientistas podem extrair os dados agregados em vários estudos buscando genes consistentemente associadas com uma doença pesquisada. Antes de usar o serviço de SWF este tratamento de dados levava um tempo muito grande para ser concluído, tornando-se necessário que o pesquisador escrevesse scripts em Perl para implementar algoritmos para execução de cálculos com os dados agregados. Com uso dessa abordagem era possível a realização de análise, mas era um processo manual, tedioso e era impossível o pesquisador alavancar qualquer tipo de processamento paralelo. (AMAZON, 2013). de ter a capacidade de se comunicar com o recurso necessário, por exemplo, armazenamento de dados e banco de dados. Era necessário que o Synapse possuísse um mecanismo confiável para coordenar a realização de vários trabalhos e acompanhá-los mesmo quando vários deles ocorriam em paralelo ou com dependência entre eles. (AMAZON, 2013). Como parte de um programa beta, a equipe Sage Bionetworks foi apresentada ao SWF da AWS, quando foi concluído que o Synapse possuía o cenário ideal para rodar baseado no SWF. Para programar a ordem do workflow foi utilizado o AWS Flow Framework, tendo uma etapa inicial seguida de duas outras definidas no workflow. (AMAZON, 2013). Na etapa inicial, uma consulta ao site GEO é realizada buscando conjuntos de dados interessantes para baixá-los em conjunto com seus metadados. Uma nova instância de workflow é criada para cada conjunto de dados, por meio de programação, para executar as etapas de processamento. Com o início da utilização do SWF permitiu-se que os usuários executassem simultaneamente milhões de workflows. Eles puderam ser executados em paralelo de forma a atender as necessidades de vários usuários simultaneamente. (AMAZON, 2013). Uma nova instância do workflow é criada automaticamente, via programação, para cada conjunto de dados para executar as etapas de processamento. O uso do SWF permite que os clientes tenham milhões de execuções simultâneas de workflows abertas, podendo este conjunto de dados ser processados em paralelo, de forma a apoiar as necessidades computacionais de vários usuários simultaneamente. Sendo que, para cada execução do workflow, é realizada a indexação que carrega os metadados e os links apontando para GEO na Synapse, e o QC, que processa os dados brutos e carrega os dados para o Synapse, conforme mostrado na figura 4. Figura 4 - Análise Pipelines escaláveis Fonte: AMAZON, 2013 A lógica de coordenação global é escrita em Java utilizando AWS Flow Framework como se fosse uma única threaded 7 de programa em Java, para decompor em tarefas distribuídas assíncronas funcionando de forma conjunta com o serviço. A lógica do rastreador e QC foram escritos por usuários em R e Perl de maneira independente para execução em recursos computacionais heterogêneos. (AMAZON, 2013). O recurso de lista de tarefas do SWF tornou possível poder especificar o requisito de memória para cada execução de acordo com o tamanho do conjunto de dados a serem processados. A lógica do QC é executada somente após o SWF encaminhar as tarefas aos servidores devidamente dimensionados. (AMAZON, 2013). Através do AWS Management Console, os engenheiros do Synapse podem analisar resultados de execuções, já que a captura de sinais de execução do SWF pode ser realizada mesmo que em execuções de natureza distribuída. Graças ao uso de serviço SWF da AWS, o projeto Synapse agora é capaz de executar algoritmos para análise de dados escritos nas mais diversas linguagens de programação, em paralelo com um conjunto heterogêneo de servidores. (AMAZON, 2013). A estimativa da Sage Bionetworks é que, para criar um mínimo framework de orquestração seria necessário 100 mil dólares de mão de obra de engenheiros de software e mais os custos com o crescimento da necessidade de orquestração. Com o SWF, a equipe da Sage Bionetworks foi liberada da tarefa de lidar com a complexidade da orquestração em ambiente distribuído para concentrar-se na verdadeira missão da empresa. Desta forma foi possível evoluir a plataforma Synapse como uma plataforma para computação científica com forte interação social entre seus usuários, com uso dos recursos do SWF e do AWS Flow Framework que pouparam o tempo e esforços para construí-la. (AMAZON, 2013). Com as melhorias obtidas com o uso do SWF, pesquisadores podem usar a plataforma de computação para processar bilhões de mediações biológicas que têm potencial para desvendar os principais pontos de complexas doenças humanas como o câncer, Alzheimer e diabetes. De forma rápida e eficiente o serviço possibilitou usar os dados para o seu verdadeiro propósito de encontrar curas para doenças humanas. (AMAZON, 2013). 5 CONCLUSÃO Para que fosse possível realizar uma análise do que vem acontecendo no uso do modelo de Cloud Computing utilizamos a metodologia de estudo de caso, que indica a melhor forma de implementação deste modelo computacional. Neste artigo foi escolhido um caso que apresentou resumidamente os resultados obtidos sobre o tipo de fornecedor, os tipos de serviços e os principais benefícios que podem ser observados na Tabela 1. Tabela 1 – Resumo do estudo de caso da utilização de Cloud Computing. 7 Estudo de Caso Fornecedor de Serviços Serviço(s) Utilizado(s) Principais Benefícios Sage Bionetworks Synapse Amazon Web Services Simple Workflow; Management Console; Elastic Compute Processamento de grandes volumes de dados em tempo hábil e com uma boa relação entre custo benefício; Liberada a equipe de lidar com a complexidade e do custo criar um framework de orquestração em ambiente distribuído; Representa um fluxo de execução sequencial dentro um processo, de forma que ele possa ser executado de forma concorrente em diferentes processadores, caso existam. Cloud. Flexibilidade e proporcionando alavancar a infraestrutura certa para cada projeto; Possibilidade captura de sinais de execução do SWF e reutilizar processamentos; Separa a lógica de transição de estados das atividades reais em cada passo da pipeline. Fonte: Desenvolvido pelos autores. Na Tabela 1 destacou-se uma característica que chamou a atenção no estudo: a liberação das equipes de tarefas. Este aspecto estabeleceu os modos de gerenciamento da infraestrutura. E, de fato, é algo que os serviços de Cloud Computing podem fazer para permitir que as empresas concentrem suas forças no desenvolvimento de seus negócios específicos. Através da exposição desse estudo verificou-se também importantes aspectos para os usuários, onde foram realçadas razões pelas quais eles deveriam caminhar para a adoção deste tipo de serviço. Acredita-se que com a escolha da carga de trabalho correta, pode-se obter interessantes benefícios, como ocorreu com o usuário analisado no estudo de caso, onde a solução apresentada resultou em elevados níveis de qualidade e de serviços prestados. INNOVATION IN BIOMEDICAL RESEARCH WITH CLOUD COMPUTING ABSTRACT This article deals with the use of Cloud Computing, showing its spread driven by market trends, as well as the technological advancement that enables and ensures the soundness of the services offered, bringing major benefits to its users. Adopted a real case study showing the use of the services model. Are also highlighted reputed companies and their offered services, which are relevant in terms of their history, and market, enabling the user to a previous analysis to purchase the right to service your industry. With the knowledge passed along this work it is possible to enter the cloud computing context being sure that all points are satisfactory in choosing the ideal service for business. Finally, we sought to provide an overview of cloud computing services, which are used, and help users overcome challenges in different areas. Keywords: Cloud Computing. Health. Agility. Innovation. REFERÊNCIAS AMAZON Web Services. AWS Case Study: Sage Bionetworks and Amazon SWF. Disponível em: <http://aws.amazon.com/pt/swf/testimonials/swfsagebio/>. Acesso em: 14 maio 2013. BATISTA, Thais Vasconcelos et al. AltoStratus: Uma Rede de Colaboração com Foco nos Novos Desafios e Oportunidades de Pesquisa em Computação em Nuvem. In: XXV SIMPÓSIO BRASILEIRO DE ENGENHARIA DE SOFTWARE (SBES 2011), 2011, São Paulo. Anais... . Porto Alegre: Sociedade Brasileira de Computação (SBC), 2011. p. 136 141. BLAIR, Gordon et al. Perspectives on cloud computing: interviews with fiveleading scientists from the cloud community. Journal of Internet Services and Applications, Springer London, p. 3-9. 01 jul. 2011. BAUN, Christian et al. Cloud Computing: Web-Based Dynamic IT Services. Berlin, Germany: Springer Publishing Company, 2011. 109 p ELSENPETER, Robert; VELTE, Anthony T.; VELTE, Toby J. Cloud Computing A Practical Approach.Fl, United States: Osborne-mcgraw-hil, 2010. 352 p. GARTNER. Gartner Says Eight of Ten Dollars Enterprises Spend on IT is "Dead Money".Disponível em: <http://www.gartner.com/it/page.jsp?id=497088/>. Acesso em: 20 out. 2011. GOELEVEN, Yves et al. Architectural Requirements for Cloud Computing Systems: An Enterprise Cloud Approach.Journal of Grid Computing, Springer Netherlands, v. 9, n. 1, p.3 – 9, 01 mar. 2011. INFO. Serviços de nuvem aceleram inovação. Disponível em: <http://info.abril.com.br/noticias/it-solutions/2013/08/saiba-o-que-o-facebook-e-o-linkedintem-em-comum.shtml>. Acesso em: 18 ago. 2013. KELLEN, Mike. Synapse Introduction. Disponível em: <https://sagebionetworks.jira.com/wiki/pages/worddav/preview.action?fileName=Synapse+In tro+Oct+2012.pptx&pageId=3571721>. Acesso em: 10 out. 2013. KELLEN, Michael. Synapse Vision Document. Disponível em: <https://sagebionetworks.jira.com/wiki/pages/worddav/preview.action?fileName=Synapse+V ision+Document.pdf&pageId=3571721>. Acesso em: 07 fev. 2012. KNORR, Eric. 9 trends for 2014 and beyond.Disponível em: <http://www.infoworld.com/t/cloud-computing/9-trends-2014-and-beyond-230099>. Acesso em: 04 nov. 2013. NIST. The NIST Definition of Cloud Computing.Disponível em: <http://csrc.nist.gov/publications/nistpubs/800-145/SP800-145.pdf>. Acesso em: 20 out. 2011. PAPO, José. Arquitetura de Nuvem: rompendo fronteiras. Disponível <http://imasters.com.br/design-ux/arquitetura-da-informacao/arquitetura-de-nuvemrompendo-fronteiras/>. Acesso em: 14 ago. 2013. em: REESE, George. Cloud Application Architectures: Building Applications and Infrastructure in the Cloud.CA, United States/Sebastopol: O'Reilly Media, 2009. 208 p. SAGE BIONETWORKS. Synapse in depth. Disponível em: <http://sagebase.org/synapse/>. Acesso em: 03 ago. 2013. SOUSA, Flavio Rubens de Carvalho; MOREIRA, Leonardo O.; MACHADO, Javam de Castro. Computação em Nuvem: Conceitos, Tecnologias, Aplicações e Desafios. In: PEDRO DE ALCANTARA SANTOS NETO. (ORG.). II Escola Regional de Computação Ceará, Maranhão e Piauí (ERCEMAPI). : 2009. Cap. 21, p. 150 - 175. TAURION, Cezar. Cloud Computing: Computação em nuvem transformando o mundo da tecnologia da informação. São Paulo: Brasport, 2009. 228 p. TAURION, Cezar.Cloud computing e a sua capacidade de mudar o cenário de TI. Disponível em: <http://imasters.com.br/gerencia-de-ti/tendencias/cloud-computing-e-a-suacapacidade-de-mudar-o-cenario-de-ti/>. Acesso em: 02 set. 2013a. TAURION, Cezar. Como o cloud computing vem transformando os mega datacenters. Disponível em: <http://imasters.com.br/infra/cloud/como-o-cloud-computing-vemtransformando-os-mega-datacenters/>. Acesso em: 8 jul. 2013b. TAURION, Cezar. Cloudnomics: The Power of Cloud Driving Business Model Innovation. Disponível em: <http://www.slideshare.net/soudW/cloud-computing-da-curiosidade-paracasos-reais-13520639>. Acesso em: 02 jul. 2012. TAURION, Cezar. Cloud speed: cloud computing também deve ser ágil e rápida. Disponível em: <http://imasters.com.br/infra/cloud/cloud-speed-cloud-computing-tambem-deve-ser-agile-rapida/>. Acesso em: 11 nov. 2013c. ZHANG, Qi; CHENG, Lu; BOUTABA, Raouf. Cloud computing: state-of-the-art and research challenges.Journal of Internet Services and Applications, Springer London, v. 1, p.7 - 18, 01 maio 2010. ZISSIS, Dimitrios; LEKKAS, Dimitrios. Addressing Cloud Computing Security Issues. Future Generation Computer Systems, Elsevier B.V., v. 28, n. 3, p. 583 - 592, mar. 2012.