ESTUDOS ANALÍTICOS DO BIG DATA
Ganhe vantagem competitiva a partir
da combinação de big data e lógica
avançada
Perspectiva da EMC
ÍNDICE
De volta ao futuro: o advento do big data
1
EXPLORANDO A OPORTUNIDADE DE NEGÓCIOS DOS “ESTUDOS ANALÍTICOS DO BIG DATA”
1
Ponto 1: PROGRAMA DE COMPUTAÇÃO ÁGIL
2
HABILITAR O DATA WAREHOUSING “ÁGIL”
2
DATA WAREHOUSING E ESTUDOS ANALÍTICOS INTEGRADOS
2
Ponto 2: CAPACIDADE DE EXPANSÃO LINEAR
3
TRANSFORMAR ETL EM APRIMORAMENTO DE DADOS
3
DAR SUPORTE A CONSULTAS VARIÁVEIS EXTREMAS E CARGAS DE TRABALHO
DE ESTUDOS ANALÍTICOS
3
ANALISAR CONJUNTOS DE DADOS GRANULARES E EM GRANDE ESCALA (BIG DATA)
4
HABILITAR ACESSO A DADOS DE BAIXA LATÊNCIA E TOMADA DE DECISÕES
4
Ponto 3: EXPERIÊNCIA DE USUÁRIO COLABORATIVA, ONIPRESENTE E GENERALIZADA
5
HABILITAR UMA EXPERIÊNCIA DE USUÁRIO INTUITIVA E GENERALIZADA
5
EXPLORAR A NATUREZA COLABORATIVA
5
HABILITAR NOVOS APLICATIVOS DE NEGÓCIOS
5
APLICATIVOS BASEADOS EM ATRIBUIÇÕES
5
APLICATIVOS BASEADOS EM RECOMENDAÇÕES
6
APLICATIVOS PREDITIVOS/BASEADOS EM ESTIMATIVAS
6
APLICATIVOS BASEADOS EM PERCEPÇÃO
7
APLICATIVOS BASEADOS EM BENCHMARK
7
CONSIDERAÇÕES FINAIS
8
SOBRE O AUTOR
8
DE VOLTA AO FUTURO: O ADVENTO DO BIG DATA
Ao longo dos anos 70 e no início dos anos 80, fabricantes e revendedores de CPG (Consumer
Package Goods, bens de consumo embalados) administravam seus negócios usando
relatórios de mercado bimestrais da AC Nielsen. Esses relatórios apresentavam dados da
concorrência e do mercado (por exemplo, receita, unidades vendidas, preço médio e
participação no mercado) que os fabricantes de CPG usavam para definir planos, estratégias
de vendas, marketing, promoção e publicidade e gastos com seus parceiros (por exemplo,
distribuidores, atacadistas e revendedores).
Então, nos meados dos anos 80, a IRI (Information Resources Inc.) ofereceu-se para instalar
scanners gratuitos de POS (Point-of-sale, ponto de venda – conhecido no Brasil como PDV),
em locais de revenda em troca dos dados residuais do scanner. Os revendedores ficaram mais
do que satisfeitos em fazer essa troca, já que a mão de obra era seu maior componente de
custo e a compreensão do valor dos dados do scanner de POS era limitada.
Esses dados do scanner de POS, considerados “big data” naquela época, causaram uma
mudança estratégica e industrial no poder (entre os fabricantes e os revendedores) e na
maneira de ambos conduzirem seus negócios. Os volumes de dados aumentaram de
megabytes para terabytes, o que exigiu uma nova geração de plataformas de armazenamento
e de servidores (por exemplo, Teradata, Red Brick, Sybase IQ, Sun e Sequent) e de ferramentas
de lógica (por exemplo, Metaphor, Business Objects, Informatica e MicroStrategy).
Novas categorias de aplicativos de
negócios baseados em estudos analíticos:
• Previsão baseada em demanda
•Otimização da cadeia de fornecimento
•Eficácia dos gastos no comércio
•Análise das estatísticas do mercado
•Gerenciamento e comercialização da
categoria
•Otimização de preços/rendimento
•Gerenciamento de redução de
comercialização
• Programas de fidelidade de cliente
Empresas líderes, como Wal-Mart, Procter & Gamble, Tesco e Frito Lay, exploraram esse novo
“big data” e as novas plataformas e ferramentas de estudos analíticos para obter vantagem
competitiva. Essas empresas estavam na vanguarda do desenvolvimento de novas
categorias de aplicativos de negócios orientados por lógica e big data para lidar com
problemas de negócios que não podiam ser resolvidos anteriormente de forma econômica
(consulte o gráfico à esquerda).
Trinta anos depois, surge mais um déjà vu. Há uma explosão de novas fontes de dados
diversos, com baixa latência e alta granularidade (“big data”), que têm a possibilidade de
mudar o funcionamento das organizações e dos setores. Essas novas fontes de dados são
originadas de um grupo de dispositivos, de interações do cliente e de atividades de
negócios que revelam novas percepções nas cadeias de valores organizacionais e do setor.
O advento dessas novas fontes de dados mais detalhadas possibilitará que as organizações
lidem com oportunidades de negócios que antes não eram possíveis e levará à criação de
novas famílias de aplicativos de negócios. No entanto, para que isso aconteça, devem surgir
novas plataformas (infraestrutura) e novas ferramentas (estudos analíticos). Este white
paper descreverá a função que essas novas plataformas poderão desempenhar e discutirá
os tipos de aplicativos de negócios orientados por lógica e de exploração de big data que
poderão surgir.
EXPLORANDO A OPORTUNIDADE DE NEGÓCIOS DOS “ESTUDOS
ANALÍTICOS DO BIG DATA”
O big data requer uma nova plataforma de estudos analíticos a partir da qual tanto os
negócios quanto a tecnologia possam obter vantagem competitiva. Isso requer uma nova
infraestrutura de tecnologia que (a) seja altamente dimensionável para petabytes de dados,
(b) dê suporte a acesso aos dados com baixa latência e à tomada de decisões e (c) tenha lógica
integrada para acelerar os processos de modelagem e operacionalização de lógica avançada.
A possibilidade de apresentar novas escalas de capacidade de processamento para dar
suporte a grandes conjuntos de dados permite a identificação contínua de percepções
acionáveis inerentes ao big data e proporciona a integração perfeita dessas percepções
acionáveis ao ambiente de trabalho do usuário, onde quer que ele esteja. Essa nova
plataforma de estudos analíticos pode liberar as organizações das maneiras antigas de emitir
relatórios retrospectivos fornecendo estudos analíticos modernos e preditivos para as massas
e aprimorando o processo de tomada de decisões em todos os níveis da organização.
1
PONTO 1: PLATAFORMA DE COMPUTAÇÃO ÁGIL
A agilidade é proporcionada por data warehousing altamente flexível e reconfigurável e por
arquiteturas de estudos analíticos. Os recursos de estudos analíticos podem ser rapidamente
reconfigurados e reimplementados para atender às demandas dinâmicas dos negócios,
possibilitando novos níveis de flexibilidade e agilidade nos estudos analíticos.
Habilitar o data warehousing “ágil”
A nova plataforma de estudos analíticos proporciona o desenvolvimento de data
warehouses sem as restrições encontradas nos ambientes de TI dos dias de hoje. Hoje, as
organizações são obrigadas a usar técnicas de projeto artificiais e ferramentas rudimentares
de emissão de relatórios para extrair percepções de enormes e crescentes fontes de dados
usando tecnologias obsoletas de banco de dados. Conforme esses volumes de dados
continuam crescendo e novas fontes de dados são disponibilizadas on-line, as organizações
descobrem que as arquiteturas, ferramentas e soluções de hoje são muito caras, muito
lentas e muito rígidas para dar suporte a suas iniciativas estratégicas de negócios.
Considere o impacto das agregações de pré-criação. As agregações1 são normalmente usadas
para superar a capacidade de processamento limitada dos tradicionais RDBMS (Relational
Database Management Systems, sistemas de gerenciamento de bancos de dados relacionais)
ao lidar com junções de várias tabelas e digitalizações de tabelas em grande escala. Um DBA
(Database Administrator, administrador de banco de dados) calcula previamente as
agregações mais comuns durante a preparação dos dados para acelerar o desempenho
específico e de emissão de relatórios. O volume de dados armazenados nessas tabelas de
agregação cresce muito mais do que os próprios dados brutos. Portanto, é necessário muito
tempo para criar previamente as agregações contidas nos SLAs (Service-Level Agreements,
contratos de nível de serviço). A exploração de “feeds de gotejamento” de dados para fornecer
“relatórios operacionais em tempo real” é um sonho devido ao tempo necessário para recriar
as tabelas de agregação sempre que novos dados “gotejam” no data warehouse.
A eliminação dessas limitações proporciona um ambiente ágil de data warehouse que é tão
flexível e responsivo quanto os negócios que ele atende explorando os seguintes recursos:
•Agregação sob demanda: não há necessidade de criar previamente as agregações para
fornecer tempo de resposta mais rápido a consultas e relatórios. Há a possibilidade de criar
agregações em tempo real, eliminando a necessidade desgastante de recriar constantemente
agregações toda vez que novos dados gotejam (são enviados) no data warehouse.
•Independência de indexação: os DBAs podem eliminar a necessidade de uma indexação
rígida. Os DBAs não precisarão saber com antecedência as perguntas dos usuários para
poderem criar todos os índices de suporte. Os usuários podem fazer perguntas detalhadas
de negócios do próximo nível sem a preocupação com problemas de desempenho.
•Criação dinâmica do KPI (Key Performance Indicator, principal indicador de desempenho):
os usuários corporativos podem definir, criar e testar novos KPIs derivados (e compostos)
sem precisar envolver os DBAs para calculá-los previamente.
•Estruturas flexíveis, específicas e hierárquicas: as hierarquias dimensionais não
precisam ser predefinidas na criação do data warehouse. Por exemplo, durante uma
análise de inteligência do mercado, as organizações poderiam ter flexibilidade para alterar
as empresas com as quais estiverem sendo comparadas.
DATA WAREHOUSE E ESTUDOS ANALÍTICOS INTEGRADOS
Tradicionalmente, o data warehouse e os estudos analíticos residem em ambientes diferentes.
A transferência de dados do data warehouse para o ambiente de estudos analíticos tem
exigido um processo de ETL separado em que os dados são selecionados, filtrados, agregados,
pré-processados, reformatados e, em seguida, transportados para o ambiente de estudos
analíticos. No ambiente de estudos analíticos, os analistas de dados iniciam a criação, os
testes e o refinamento dos modelos e dos algoritmos analíticos. Se, durante esse processo, os
analistas de dados chegarem à conclusão de que precisam de mais dados granulares e/ou
dados diferentes, eles precisarão repetir todo o processo de ETL do data warehouse. Isso pode
acrescentar dias, talvez semanas, ao processo de estudos analíticos.
1
Agregações são resumos hierárquicos ou dimensionais pré-calculados dos fatos (medidas), geralmente
definidas pela cláusula SQL “Group By”. Por exemplo, na dimensão geográfica, alguém pode criar
agregações para todos os fatos (por exemplo, vendas, receita, dólares de margem, porcentagem de margem
e retornos) por país, região, estado, cidade, município e código postal.
2
Um ambiente de data warehouse e estudos analíticos único e integrado (com estudos
analíticos no banco de dados) significa que os analistas de dados não precisam sair do data
warehouse para realizar os estudos analíticos. Conjuntos de dados em grande escala podem
ser transferidos entre os ambientes de data warehouse e estudos analíticos a taxas de
transferência muito velozes (de 5 TB a 10 TB/hora). Isso acelera consideravelmente o
processo de análise e facilita a integração dos resultados dos estudos analíticos de volta ao
ambiente de data warehouse e business intelligence. Por exemplo, um ambiente integrado
de data warehouse e estudos analíticos dá suporte aos seguintes tipos de análise:
•Subsegmentar e transferir conjuntos de dados em grande escala entre o ambiente de data
warehouse e o ambiente de estudos analíticos para possibilitar a criação de “áreas de
segurança de estudos analíticos” para exploração e detecção analíticas.
•Examinar conjuntos de dados em grande escala no nível mais baixo de granularidade para
indicar comportamentos, tendências e atividades fora do comum para criar percepções
acionáveis com recomendações correspondentes.
•Acelerar o desenvolvimento e os testes de diferentes cenários de negócios para facilitar
análises do tipo “e se”, análises de sensibilidade e de risco.
Esses tipos de benefícios seriam inestimáveis se integrados às tarefas diárias. Basta
perguntar a um gerenciador de distribuição que deseja que o sistema indique possíveis
problemas de desempenho do fornecedor em relação a serviços com menor qualidade,
conforme medido por entregas pontuais e a porcentagem de entregas completas.
PONTO 2: CAPACIDADE DE EXPANSÃO LINEAR O acesso a enormes volumes de capacidade de computação significa que os problemas dos
negócios podem ser abordados de maneira totalmente diferente. Vejamos alguns exemplos em
que o dimensionamento computacional em grande escala pode causar impacto nos negócios.
TRANSFORMAR ETL EM APRIMORAMENTO DE DADOS
O ETL concentra-se na correção de erros causados pelos sistemas de origem; extração,
tradução, limpeza, definição de perfis, normalização e alinhamento de todos os dados para
garantir que os usuários estejam fazendo comparações adequadas em suas análises. Com a
capacidade de processamento disponível para ETL (além de aproveitar a disponibilidade de
novas linguagens computacionais, como Hadoop), o processo de ETL tradicional pode ser
transformado em um processo de aprimoramento de dados. Medidas novas e criteriosas
podem ser criadas, inclusive:
•Sequenciamento ou organização de atividades — identificação da sequência de
atividades que ocorreram antes de um evento específico. Por exemplo, identificar que
alguém normalmente liga duas vezes para o call center depois de buscar por opções de
suporte no site antes de obter a resolução bem-sucedida do problema.
•Contagens de frequência — contagem da frequência com que determinado evento ocorre
durante um período especificado. Por exemplo, a identificação de produtos com x
chamadas de serviço durante os primeiros 90 dias de uso.
•N quantis — agrupamento de itens (por exemplo, produtos, eventos, clientes e parceiros)
em buckets baseados em uma medida específica ou em um conjunto de medidas. Por
exemplo, controlar o primeiro tercil (os principais 10%) dos clientes com base na receita
ou em uma margem durante um período contínuo de três meses.
•Grupo comportamental — criação de uma “cesta” de atividades, inclusive frequência e
organização, que precede uma venda ou um evento de “conversão”, de forma a identificar
as combinações mais eficazes e lucrativas dos tratamentos de mercado.
Dar suporte a consultas variáveis extremas e cargas de trabalho de estudos
analíticos
É muito difícil saber com antecedência os tipos de consultas e estudos analíticos que a
empresa pode querer executar com base no ambiente de negócios mais atual. Os preços ou
as ações promocionais de um concorrente podem exigir uma análise repentina para melhor
compreensão do impacto financeiro e dos negócios em sua empresa. Os estudos analíticos
mais interessantes envolvem cargas de trabalho extremamente variáveis e, a princípio,
difíceis de ser previstas.
3
Antes, as organizações tinham de contentar-se com uma análise superficial “pós-fato” e não
tinham a capacidade de computação para “mergulhar” nas análises enquanto os eventos
ocorriam ou para contemplar todas as variáveis e permutações diferentes que pudessem
estar conduzindo os negócios. Com as novas plataformas, essas necessidades analíticas
repentinas e de grande uso computacional podem ser favorecidas. Esse recurso
manifesta-se das seguintes maneiras para os usuários corporativos:
•Desempenho e dimensionamento — agilidade para “aprofundar-se” nos dados e fazer as
perguntas de segundo e terceiro níveis necessárias para respaldar a tomada de decisões.
Se os usuários corporativos quiserem observar todos os detalhes dos dados para saber
quais variáveis estão conduzindo os negócios, eles não precisam preocupar-se em parar o
sistema com a análise de dados demais.
•Agilidade — suporte à rapidez no desenvolvimento, nos testes e no refinamento de
modelos analíticos que ajudam a prever o desempenho dos negócios. Os analistas de
dados estão livres para explorar as diferentes variáveis que podem estar conduzindo o
desempenho dos negócios, aprender com os resultados e encaixar essas descobertas na
próxima iteração do modelo. Eles também podem falhar rapidamente em sua análise sem
se preocupar com as ramificações de desempenho do sistema de suas análises.
ANALISAR CONJUNTOS DE DADOS GRANULARES E EM GRANDE ESCALA (BIG DATA)
Uma das vantagens mais significativas da nuvem é o volume e o nível dos dados detalhados
que podem ser colocados em uso em análises e modelagens de geradores de negócios.
Além de oferecer a possibilidade de obter uma capacidade de processamento mais eficiente
sob demanda, a nuvem fornece recursos mais eficientes e econômicos de armazenamento
de dados. Em vez de forçar os negócios a se adaptarem aos dados, eles são livres para
expandir suas análises aproveitando todos os aspectos dos dados, das seguintes maneiras:
•A capacidade de executar o máximo possível de análises de múltiplas dimensões. Os
negócios não ficam restritos a contemplar apenas três ou quatro dimensões, mas podem
abranger centenas, ou milhares, de dimensões para ajustar e localizar o desempenho dos
negócios. Com esse nível de análise de múltiplas dimensões, as empresas podem localizar
os geradores de negócios de acordo com a região específica (por exemplo, cidade ou CEP),
com o produto (por exemplo, unidade de produto ou nível de UPC), com o fabricante, a
promoção, o preço, a hora do dia, o dia da semana etc. Com esse nível de granularidade,
o desempenho dos negócios locais pode ser drasticamente aprimorado.
•Encontre “pequenos” diamantes suficientes no volume de dados para fazer uma diferença
substancial nos negócios. A plataforma lida com dois desafios importantes de lógica
aplicada: o primeiro é encontrar os geradores de negócios no nível local ou específico e o
segundo é localizar geradores de negócios suficientes que possam fazer uma diferença
substancial nos negócios.
HABILITAR ACESSO A DADOS DE BAIXA LATÊNCIA E TOMADA DE DECISÕES
Como os dados não precisam passar por uma fase intensiva de preparação de dados (com
relação à pré-criação de agregações e ao cálculo prévio de medidas derivadas), a latência
entre o momento em que os dados são gerados e o momento em que ficam disponíveis para
os negócios é significativamente reduzida. A capacidade de reduzir o tempo entre o evento
de dados e a disponibilidade de dados significa que o conceito de lógica operacional é uma
realidade das seguintes maneiras:
•Exploração de feeds de dados contínuos (feeds de gotejamento) para fornecer lógica e
relatórios operacional de baixa latência. O tempo entre um evento de negócios (como uma
transação financeira) e a decisão de comprar ou vender é reduzido drasticamente.
Podemos ver claramente o impacto dessa tomada de decisões de baixa latência no
aumento do comércio algorítmico de Wall Street3.
•O acesso a dados de baixa latência possibilita tomadas de decisões pontuais e em
trânsito. Por exemplo, os gerenciadores de campanhas podem realocar orçamentos on-line
da campanha entre locais de melhor desempenho e/ou melhor conversão e combinações
de palavras-chave, enquanto a campanha está em trânsito.
4
PONTO 3: EXPERIÊNCIA DE USUÁRIO COLABORATIVA,
ONIPRESENTE E GENERALIZADA
Os usuários corporativos não querem mais dados, gráficos e opções de emissão de
relatórios, independentemente da maneira sofisticada de serem apresentados. Eles querem
uma solução que aproveite os estudos analíticos para identificar e oferecer percepções
importantes e acionáveis sobre seus negócios.
HABILITAR UMA EXPERIÊNCIA DE USUÁRIO INTUITIVA E GENERALIZADA
O agrupamento de dados detalhados com capacidade analítica em grande escala oferece
um benefício interessante: interfaces mais simples e intuitivas. Como isso é possível? Pense
no relacionamento entre o iPod e o iTunes. A interface minimalista do iPod é uma das razões
para o sucesso com os clientes (e a fatia dominante no mercado). A Apple transferiu grande
parte da complexidade do usuário (por exemplo, gerenciamento de listas de reprodução,
adição de novas músicas e geração de recomendações usando o recurso Genius) do iPod
para o iTunes, onde ela pode ser mais bem gerenciada. Podemos aplicar esse mesmo
conceito para aprimorar a experiência do usuário de estudos analíticos.
•A experiência do usuário pode potencializar a lógica para realizar mais tarefas complexas
de análise de dados em segundo plano. Em vez de apresentar uma complexidade cada vez
mais crescente de relatórios, gráficos e planilhas, a interface pode tornar-se mais intuitiva
e oferecer aos usuários as percepções de que precisam saber sobre os negócios.
•Com base nas percepções apresentadas pelos dados, a experiência do usuário pode
começar com ações específicas recomendadas (como o recurso Genius do iTunes).
A complexidade de identificar recomendações relevantes e acionáveis torna-se
responsabilidade dos estudos analíticos.
Por exemplo, imagine a interface do gerenciador de uma campanha que reduza as diversas
variáveis que causam impacto no desempenho da campanha a apenas aquelas que sejam
importantes e acionáveis. Imagine que a interface do usuário não só apresente essas
variáveis, como também recomendações para melhorar o desempenho da campanha em
trânsito. Essa sim é uma experiência que a maioria dos usuários gostaria de ter.
EXPLORAR A NATUREZA COLABORATIVA
A colaboração faz parte, naturalmente, dos processos de análise e tomada de decisões.
Pequenas comunidades de usuários afins podem ser formadas rapidamente para
compartilhar aprendizados sobre áreas de assuntos específicos.
Por exemplo, seria muito útil para todos os gerentes de marca em uma grande empresa de
bens de consumo embalados criar uma comunidade em que os dados, as informações e as
percepções sobre o gerenciamento de marca pudessem ser facilmente compartilhados e
discutidos. As campanhas de marketing em vigor para uma marca podem ser copiadas e
expandidas por outras marcas mais rapidamente por meio do compartilhamento de dados
e análises resultantes.
HABILITAR NOVOS APLICATIVOS DE NEGÓCIOS
Uma maneira de avaliar o potencial dessa nova plataforma de “estudos analíticos” é
perguntar: que tipos de problemas de negócios ela (com sua capacidade de processamento
sob demanda, com conjuntos de dados de alta granularidade, acesso a dados de baixa
latência e estreita integração entre lógica e data warehouse) permite que a empresa resolva o
que não conseguiu resolver antes? Vejamos alguns aplicativos de negócios que os estudos
analíticos podem habilitar nessas novas plataformas, principalmente quando em conjunto
com o big data.
2
Nos mercados eletrônicos financeiros, comércio algorítmico é o uso de programas de computação para
inserir pedidos de comercialização, em que o algoritmo do computador decide sobre os aspectos do pedido,
como agendamento, preço ou quantidade do pedido ou, em muitos casos, dá início ao pedido sem
intervenção humana.
5
APLICATIVOS BASEADOS EM ATRIBUIÇÕES
Os aplicativos de atribuição tentam atribuir “crédito” de um evento específico a uma série
de atividades ou transações em um processo complexo de várias fases. Esses aplicativos
precisam recuperar, alinhar e analisar a série de atividades, levando em consideração
fatores como frequência, sequenciamento, novidades, limites e diminuição de tempo entre
as atividades, a fim de agregar valor para cada atividade. Entre os exemplos de aplicativos
de atribuição estão:
•Aplicativos com eficácia em marketing de vários canais, em que comerciantes tentam
atribuir o crédito de uma venda em vários canais de marketing. Isso é especialmente
pertinente para comerciantes on-line que tentam atribuir crédito para uma conversão em
múltiplos anúncios, sites e pesquisas de palavra-chave.
•Aplicativos de atribuição de parceiros em que as organizações de vendas tentam analisar
as contribuições dos parceiros em transações de negócios complexas e de várias fases.
•Aplicativos de atribuição de tratamento médico em que organizações de saúde tentam atribuir
o impacto de tratamentos e medicações diferentes que apresentaram algum resultado.
APLICATIVOS BASEADOS EM RECOMENDAÇÕES
Os aplicativos de recomendação identificam e criam conjuntos de usuários ou produtos
idênticos ou semelhantes baseados em comportamentos, faixa demográfica ou alguns
outros atributos reconhecíveis. Os aplicativos analisam as transações desses conjuntos para
criar tendências que analisem a força dos relacionamentos entre os usuários e seus
comportamentos e suas preferências. A partir dessas tendências, os aplicativos podem fazer
recomendações de produtos (por exemplo, Amazon e Netflix) ou pessoas (por exemplo,
LinkedIn e Facebook). Entre os exemplos de aplicativos de recomendação estão:
•Aplicativos de direcionamento de anúncios para clientes que recomendam segmentos de
público-alvo idêntico ou semelhante baseados em comportamentos e no histórico de
compras de produtos (por exemplo, campanhas bem-sucedidas destinadas a “Supermães”
têm alta probabilidade de também obter êxito ao se direcionarem a “Novas vovós”).
•Aplicativos de recomendação de produtos que recomendam produtos complementares
com base no que usuários semelhantes compraram em determinado período (por
exemplo, os clientes que compraram uma casa nova em determinados locais têm mais
probabilidade de adquirir uma nova máquina de lavar roupas e uma secadora três meses
após a compra do imóvel).
APLICATIVOS PREDITIVOS/BASEADOS EM ESTIMATIVAS
Os aplicativos preditivos e de estimativas usam uma ampla gama de variáveis, medidas e
dimensões para facilitar a tomada de decisões em diferentes cenários de mercado. Esses
aplicativos aproveitam técnicas de estatística e de data mining para refinar uma diversidade
de variáveis a fim de identificar essas variáveis, bem como a combinação de variáveis, que
são as melhores possíveis para prever o desempenho em determinadas situações.
Considerando a linha do tempo de algumas dessas decisões (como a precificação), o acesso
de baixa latência aos dados e o in-database analytics são fundamentais para o sucesso.
Os aplicativos preditivos avançados criam avaliações de sensibilidade e risco para que o
responsável pela tomada de decisões possa entender quais variáveis são mais importantes
na tomada de decisões. Por exemplo, se determinada variável é considerada importante
para uma tomada de decisões, então esforços extras podem ser feitos para garantir a
precisão e a abrangência dessa variável. Entre os exemplos de aplicativos preditivos/de
estimativa estão:
•Aplicativos de rotatividade de clientes que preveem a probabilidade de redução de
clientes com base em fatores tais como atividades de uso, solicitações de suporte,
padrões de pagamento e impacto social de amigos.
•Aplicativos de manutenção de produtos que preveem falhas de equipamento com base
nas informações de uso do produto (principalmente informações que, agora, são
especificadas por dispositivos de dados incorporados), registros de serviços de
manutenção e histórico geral de desempenho do produto.
•Aplicativos de desempenho do funcionário que preveem um possível desempenho do
funcionário com base em fatores, tais como grau de instrução, posição socioeconômica,
histórico de empregos anteriores, estado civil e determinadas respostas psicocomportamentais.
6
•Aplicativos de desempenho de estudos clínicos que apresentam diferentes resultados de
medicamentos com base em estudos para que uma empresa possa entender a eficácia de
determinados tratamentos e evitar problemas catastróficos quando medicamentos são
usados em determinadas combinações. Isso passa a ser ainda mais importante ao tentar
atribuir resultados em vários tratamentos e medicamentos (consulte os aplicativos de
atribuição).
•Aplicativos de gerenciamento de produção, de gerenciamento de redução da
comercialização e de otimização de preços que criam modelos temporais para ajudar o
responsável pela tomada de decisões a compreender quando e quanto aumentar ou
reduzir os preços com base nas condições atuais de demanda e oferta. Esses tipos de
aplicativos são mais comuns em produtos de consumo (por exemplo, produtos perecíveis,
passagens de avião, quartos de hotel, roupas de marca e ingressos para eventos
esportivos) com valor que chega a zero em determinado ponto no tempo.
APLICATIVOS BASEADOS EM PERCEPÇÃO
Os aplicativos de percepção usam técnicas de estatística e de data mining para identificar
comportamentos ou situações incomuns. Aplicativos de percepção avançados têm a
capacidade de executar análises complexas em centenas ou milhares de dimensões de
negócios. Esses aplicativos estão se tornando mais importantes conforme o volume de
detalhes dos dados aumenta com as fontes de dados, como cliques na Web, sensores RFID
e dispositivos em rede. Entre os exemplos de aplicativos de percepção estão:
•Aplicativos de distribuição e redução de produtos que monitoram constantemente os
sensores e dados RFID para identificar discrepâncias entre o local em que o produto deve
estar e onde ele realmente se encontra.
•Aplicativos antifraude que monitoram transações financeiras constantemente para
detectar comportamentos “incomuns” que possam indicar atividades fraudulentas. Esses
tipos de aplicativos estão sendo aplicados em cartões de crédito, contas correntes e
reivindicações de seguro, inclusive de tratamentos médicos.
•Aplicativos de lavagem de dinheiro que monitoram constantemente o fluxo de dinheiro
para identificar comportamentos “incomuns” que possam indicar lavagem de dinheiro,
como um número estranhamente alto de transações sequenciais, pequenas e apenas em
dinheiro.
APLICATIVOS BASEADOS EM BENCHMARK
Os aplicativos de benchmark aproveitam os estudos analíticos que comparam o
desempenho de uma entidade com alguma linha de base. A linha de base de comparação
pode ser um padrão do setor, um período ou evento anterior (por exemplo, uma campanha
de marketing). Entre os exemplos de aplicativos de benchmark estão:
•Aplicativos de participação no mercado que especificam informações de participação no
mercado e cota do mercado. Por exemplo, grandes empresas de sites podem fornecer
dados e análises de cota de mercado que ajudam os anunciantes e as agências a
compreender seus gastos de marketing em comparação com os de seus concorrentes.
•Aplicativos de benchmark da concorrência que comparam o desempenho de uma empresa
com uma grupo de concorrentes ou uma média do setor. Isso fornece uma linha de base
que as empresas podem usar para comparar seu desempenho financeiro ou de mercado.
•Aplicativos de benchmark de campanhas que comparam o desempenho de uma
campanha de marketing atual com uma campanha ou um evento de marketing anterior
e/ou semelhante. Por exemplo, uma empresa pode querer comparar o desempenho de sua
campanha atual do feriado de Independência com a maneira como a mesma campanha foi
realizada no ano passado. Os usuários podem querer rastrear a porcentagem do total de
vendas até o momento da campanha para cada dia da campanha e comparar diariamente
os níveis máximo e mínimo de determinadas áreas geográficas e determinados produtos.
7
ESTUDO DE CASO: HAVAS DIGITAL
O PODER DOS ESTUDOS ANALÍTICOS
INTEGRADOS PARA IMPULSIONAR A
MODELAGEM COMPLEXA DE ATRIBUIÇÕES
CONSIDERAÇÕES FINAIS
Essas plataformas novas e altamente dimensionáveis trazem recursos revolucionários para
o mundo dos estudos analíticos. Quais as vantagens em relação às atuais plataformas de
data warehouse e estudos analíticos?
A Havas Digital e a Divisão de produtos de
computação de dados da EMC estão
trabalhando em conjunto para aprimorar o
Artemis Analytics Lab — uma iniciativa de
pesquisa e desenvolvimento que abrange
estudos analíticos de big data em grande
escala na nuvem privada. Essa iniciativa
aumenta muito a compreensão dos clientes
da Havas Digital sobre o comportamento do
usuário e sua capacidade de otimizar as
campanhas de marketing adequadamente.
•A agilidade de provisionar e reatribuir recursos de computação em grande escala sob
demanda, conforme impulsionado pelas prioridades dos negócios.
•A capacidade de analisar conjuntos de dados de baixa latência mais granulares e mais
diversificados (big data) e, ao mesmo tempo, preservar detalhes e relações nos dados que
gerarão as percepções diferenciadas para possibilitar o desempenho otimizado dos
negócios.
•Colaboração de várias organizações nas principais iniciativas de negócios e na rápida
disseminação de práticas recomendadas e descobertas organizacionais.
•Superioridade de custos para aproveitar os componentes de processamento de produtos
de consumo e analisar o big data para abordar e explorar oportunidades de negócios que
não puderam ser abordadas com economia anteriormente (se é que foram abordadas).
O Artemis Analytics Lab é uma iniciativa que
reúne a expertise da Artemis em marketing
orientado por dados e a base de
computação de dados do EMC® Greenplum
para oferecer mining de estudos analíticos
de marketing digital e in-database analytics
líderes do setor.
A plataforma ideal para os estudos analíticos apresenta capacidade de processamento
altamente dimensionável, capacidade de explorar conjuntos de dados de alta granularidade,
acesso a dados de baixa latência e estreita integração entre data warehouse e estudos
analíticos. Se compreendida e implementada corretamente, ela pode ser usada para
resolver difíceis problemas de negócios que não puderam ser resolvidos antes e oferecer
percepções importantes e acionáveis aos negócios.
“Para muitos profissionais de marketing,
informações demográficas simples sobre os
usuários já não são suficientes”, diz Katrin
Ribant, Vice-presidente sênior da Artemis.
“Nossos clientes querem compreender os
aspectos do comportamento dos usuários,
que só podem ser conhecidos com o tempo,
e chegar a conclusões que se escondem
atrás de simples listas de transações.
Usando os estudos analíticos avançados, o
EMC Greenplum® oferece recursos de lógica
integrados diretamente ao banco de dados
executando-os em grandes conjuntos de
dados, o que nos permite gerar percepções
novas e avançadas sobre o comportamento
dos usuários e ajuda os profissionais de
marketing a prever como os usuários
responderão a novas campanhas”.
Sobre o autor
Bill Schmarzo, líder em Competência global da EMC Consulting, tem mais de duas décadas
de experiência em data warehousing, Business Intelligence e aplicativos analíticos. Bill é
autor da metodologia Business Benefits Analysis (Análise de benefícios de negócios), que
vincula as iniciativas estratégicas de negócios de uma organização a seus requisitos de
estudos analíticos e de suporte a dados, além de ser coautor, com Ralph Kimball, de uma
série de artigos sobre aplicativos de estudos analíticos. Bill trabalhou no The Data
Warehouse Institute como responsável pelo currículo de aplicativos de estudos analíticos.
Um importante fator de diferenciação do
sistema Artemis é seu mecanismo único e
moderno de atribuição, que calcula com
maior precisão a influência relativa da
publicidade em eventos de compra. Ao
transferir a modelagem e outros cálculos
para o banco de dados e usar o EMC
Greenplum, a Havas Digital agora é capaz
de oferecer aos clientes uma estrutura de
lógica de atribuição algorítmica mais
próxima do tempo real.
EMC2, EMC, Greenplum e o logotipo da EMC são marcas registradas ou comerciais da EMC Corporation nos Estados Unidos e em outros
países. Todas as outras marcas comerciais aqui utilizadas pertencem a seus respectivos proprietários. © Copyright 2011 EMC Corporation.
Todos os direitos reservados. Publicado no Brasil. 5/11 Perspectiva da EMC H8668.1
EMC Brasil
Rua Verbo Divino, 1488 - 04719-002
0800-553622 Na América do Norte 1-866-464-7381
www.EMC2.com.br
Download

ESTUDOS ANALÍTICOS DO BIG DATA