Você está na página 1de 3

Gartner orienta como

evitar falhas na análise de


Big Data
O Gartner, Inc., líder mundial em pesquisa e aconselhamento
imparcial em tecnologia, afirma que os grandes projetos de análise
de Big Data não falham por uma razão única, nem devido à
tecnologia por si só. Uma combinação de fatores normalmente
corrompe as implementações de Big Data. Problemas e falhas
ocorrem devido a fatores que incluem estratégia, pessoas, cultura,
capacidades, falta de atenção aos detalhes de análise ou nuances de
ferramentas implementadas, todas agravadas pelo rápido avanço da
economia digital. Essas e outras informações serão apresentadas
durante a Conferência Business Intelligence, Analytics & Information
Management 2016, que acontecerá nos dias 10 e 11 de maio (Terça e
Quarta-feira), no Sheraton São Paulo WTC Hotel, em São Paulo.
A Diretora de Pesquisas do Gartner, Svetlana Sicular, explica que
diante de grandes escolhas e novos desafios, os profissionais técnicos
muitas vezes se desviam das prioridades fundamentais: encontrar os
problemas corretos em soluções de Big Data, questionar as
informações e compreender as nuances dos modelos de análise que
são aplicados.

“Para ter sucesso, você deve desenvolver uma estratégia viável que
entregue valor ao negócio a partir de uma iniciativa de Big Data. Em
seguida, deve mapear, adquirir ou desenvolver as competências ausentes e
especializadas que são necessárias. Uma vez que as prioridades de
estratégia e de habilidade são endereçadas, você pode passar para a
análise de Big Data”, afirma Svetlana.
Aprender com as armadilhas enfrentadas por
outros:
Muitas vezes ouvimos histórias de sucesso de Big Data, mas algumas
das informações mais reveladoras que podem ajudar os planejadores
de Analytics para Big Data são as informações sobre falhas. Uma das
falhas mais comuns envolve a definição de expectativas
excessivamente otimistas quando a equipe envolvida no projeto não
está devidamente qualificada.
O CEO de uma rede de varejo reconheceu que, para se manter
competitiva, sua empresa precisava de um mecanismo de
recomendação, como a famosa frase “clientes que compraram isso
também compraram…”. O varejista nunca tinha realizado quaisquer
projetos de Big Data antes, mas os executivos prometeram ao CEO
que o mecanismo seria operacional no prazo de seis meses.

A equipe de TI trabalhou duro para implementar um algoritmo de


filtragem colaborativo que geralmente reforça o mecanismo de
recomendação, porém enfrentou dificuldades com a dispersão e a
escala de grandes conjuntos de dados de itens comprados e histórico
de navegação do cliente, bem como o inventário disponível, que foi
mudando constantemente, o que exigiu habilidades de
aprendizagem adicionais.

Para cumprir o prazo, a equipe criou um mecanismo de


recomendação fictícia de lençóis como produto recomendado,
independentemente do que estava sendo comprado. Enquanto não
havia nenhum dado analítico real por trás dele, a ação produziu um
elevado crescimento de vendas. Foram então necessários dois anos a
partir da diretriz do CEO para terem o desenvolvimento de um
mecanismo eficaz. Nesse tempo, eles tinham adicionado especialistas
comportamentais à equipe, especialistas em pesquisa e engenheiros
de operações para estabilizar a grande infraestrutura de dados da
empresa.

Isso demonstra que um fator-chave para o sucesso da


implementação de análises de Big Data é a capacidade da
organização para construir, crescer e sustentar uma equipe
multidisciplinar com a experiência necessária para lidar com os
problemas de negócios identificados.
As organizações devem também permitir tempo suficiente para
entregar resultados significativos. Como alternativa, podemos
considerar a compra de um mecanismo de recomendação
comercial. Neste caso, a estratégia deve incluir a decisão sobre
desenvolver um aplicativo ou comprá-lo. As
pesquisas do Gartner estão disponíveis para clientes no relatório ‘Big
Data Analytics Failures and How to Prevent Them’.

Você também pode gostar