TRÊS BILHÕES DE GIGABYTES DE DADOS POR DIA. FAZENDO PARTE DO GIGANTESCO ARMAZENAMENTO DE DADOS, COM ENORME VELOCIDADE, O BIG DATA É BASEADO NO CONCEITO DE 5V: VALOR VERACIDADE VARIEDADE VOLUME VELOCIDADE ATÉ 2008, DE ACORDO COM A IBM, JÁ TINHAM SIDO PRODUZIDOS MAIS DE 2,5 QUINTILHÕES DE BYTES. DESSE TOTAL, 90% DAS INFORMAÇÕES FORAM ARMAZENADAS EM CENTRAIS, SENDO PRODUZIDOS NOS ÚLTIMOS DOIS ANOS BIG DATA: Grande volume de dados integrados. Mais velocidade. Software que faz varredura de dados,separando-os para serem utilizados em outra ocasião,tornando mais fácil a utilização dos mesmos. WAREHOUSE: Conjunto de dados com variação de tempo. Opção de auxiliar nas decisões de negócios. USO DO BIG DATA UNIVERSITY NA MEDICINA. Isso depende da capacidade de processamento que ele gerencia em relação às ferramentas que utilizam em conjunto. Pois, certo tamanho de volume de dados ,que hoje é considerado grande, pode rapidamente deixar de ser visto como tal, uma vez que as ferramentas e hardwares evoluem a cada ano. Com 15 petabytes de dados (que é 15 milhões de gigabytes) recolhidos pelos detectores do LHC a cada ano, os cientistas têm uma enorme tarefa pela frente.Como você processar tanta informação? Como você sabe que você está olhando para algo significativo dentro desse um grande conjunto de dados? Mesmo usando um supercomputador, processar tanta informação pode demorar milhares de horas.Enquanto isso, o LHC continuaria a acumular ainda mais dados. SISTEMA DE ARQUIVO DISTRIBUÍDO (HADOOP): Solução que trabalha no sentido de resolver o problema da grande massa de dados. BIG DATA NO SQL-É um sistema não relacional de gerenciamento de Banco de dados diferentes dos tradicionais sistemas de BDs relacionais de gestão. Definimos como grupo de documentos, onde cada um representa uma linha e a coleção representa uma tabela em um Banco de Dados Relacional. FLEXIBILIDADE. CONSISTE BASICAMENTE EM TRÊS PARTES: CONFIGURAÇÃO(setup) REDUÇÃO(Reduce) MAPEAMENTO(Map) Cluster pode ser definido como um sistema onde dois ou mais computadores trabalham de maneira conjunta para realizar processamento pesado. Em outras palavras, os computadores dividem as tarefas de processamento e trabalham como se fossem um único computador. A quantidade de dados aumentou mais rapidamente que o processamento. Grandes empresas já desenvolvem e utilizam ferramentas para tratar grandes quantidades de dados, porém ainda existe uma grande área para ser explorada. A quantidade de dados vem aumentando exponencialmente, e à medida que se encontram cada vez mais formas de se utilizar grandes quantidades de dados, aqueles que não souberem utilizar estas ferramentas estarão perdendo mercado para os seus concorrentes. A grande Massa de Dados já é uma realidade e ao mesmo tempo um grande desafio para a Tecnologia. ALUNOS PARTICIPANTES: ADRIANA RODRIGUES MITIÃ HENRIQUE “ SISTEMAS DE INFORMAÇÃO(SI-1).” Recife, 23 de janeiro de 2014.