TRÊS BILHÕES DE GIGABYTES DE DADOS
POR DIA.
FAZENDO PARTE DO GIGANTESCO
ARMAZENAMENTO DE DADOS, COM
ENORME VELOCIDADE, O BIG DATA É
BASEADO NO CONCEITO DE 5V:
 VALOR
 VERACIDADE
 VARIEDADE
 VOLUME
 VELOCIDADE
ATÉ 2008, DE ACORDO COM A IBM, JÁ
TINHAM SIDO PRODUZIDOS MAIS DE 2,5
QUINTILHÕES DE BYTES. DESSE TOTAL, 90%
DAS INFORMAÇÕES FORAM
ARMAZENADAS EM CENTRAIS, SENDO
PRODUZIDOS NOS ÚLTIMOS DOIS ANOS
BIG DATA:
 Grande volume de dados integrados.
 Mais velocidade.
 Software que faz varredura de
dados,separando-os para serem
utilizados em outra ocasião,tornando
mais fácil a utilização dos mesmos.
WAREHOUSE:
 Conjunto de dados com variação de
tempo.
 Opção de auxiliar nas decisões de
negócios.

USO DO BIG DATA UNIVERSITY NA
MEDICINA.
Isso depende da capacidade de
processamento que ele gerencia em
relação às ferramentas que utilizam em
conjunto. Pois, certo tamanho de
volume de dados ,que hoje é
considerado grande, pode rapidamente
deixar de ser visto como tal, uma vez
que as ferramentas e hardwares
evoluem a cada ano.
Com 15 petabytes de dados (que é 15 milhões de gigabytes)
recolhidos pelos detectores do LHC a cada ano, os cientistas
têm uma enorme tarefa pela frente.Como você processar
tanta informação? Como você sabe que você está olhando
para algo significativo dentro desse um grande conjunto de
dados? Mesmo usando um supercomputador, processar tanta
informação pode demorar milhares de horas.Enquanto isso, o
LHC continuaria a acumular ainda mais dados.
SISTEMA DE ARQUIVO DISTRIBUÍDO
(HADOOP): Solução que trabalha no
sentido de resolver o problema da grande
massa de dados.
BIG DATA NO SQL-É um sistema não
relacional de gerenciamento de Banco
de dados diferentes dos tradicionais
sistemas de BDs relacionais de gestão.

Definimos como grupo de documentos, onde
cada um representa uma linha e a coleção
representa uma tabela em um Banco de
Dados Relacional.

FLEXIBILIDADE.
CONSISTE BASICAMENTE EM TRÊS PARTES:
 CONFIGURAÇÃO(setup)
 REDUÇÃO(Reduce)
 MAPEAMENTO(Map)
Cluster pode ser definido como um sistema
onde dois ou mais computadores trabalham
de maneira conjunta para realizar
processamento pesado. Em outras palavras,
os computadores dividem as tarefas de
processamento e trabalham como se
fossem um único computador.

A quantidade de dados aumentou mais
rapidamente que o processamento.

Grandes empresas já desenvolvem e utilizam
ferramentas para tratar grandes quantidades
de dados, porém ainda existe uma grande
área para ser explorada. A quantidade de
dados vem aumentando exponencialmente, e
à medida que se encontram cada vez mais
formas de se utilizar grandes quantidades de
dados, aqueles que não souberem utilizar estas
ferramentas estarão perdendo mercado para
os seus concorrentes. A grande Massa de
Dados já é uma realidade e ao mesmo tempo
um grande desafio para a Tecnologia.

ALUNOS PARTICIPANTES:
ADRIANA RODRIGUES
MITIÃ HENRIQUE
“ SISTEMAS DE INFORMAÇÃO(SI-1).”
Recife, 23 de janeiro de 2014.
Download

2013-2-Big Data - ufrpe-si-lab-inf