Escolar Documentos
Profissional Documentos
Cultura Documentos
Niterói
2018
ARTUR RODRIGUES DE SOUSA
Orientador:
Prof. Dr. Eduardo Camilo da Silva
Niterói
2018
Ficha catalográfica automática - SDC/BAC
CDD -
BANCA EXAMINADORA
_____________________________________________
Prof. Dr. Eduardo Camilo da Silva
_____________________________________________
Prof. Dr. Ariel Levy
_____________________________________________
Prof. Dr. Joel de Lima Pereira Castro Junior
Niterói
2018
Dedico este trabalho a toda minha
família, namorada e amigos, que
estiveram ao meu lado e me apoiaram
em toda minha trajetória.
AGRADECIMENTOS
A todos os professores da
Universidade Federal Fluminense, que
tanto me ensinaram.
Nos dias de hoje, possuímos uma avalanche de dados gerados pelas mais diversas
fontes, que se caracterizam por serem criados em grande velocidade, em volumes
antes impensáveis, com uma grande variedade de formatos, que são capazes de gerar
valor para as organizações, por meio de informações mais qualificadas, que
enriquecem o processo decisório, caracterizando o que chamamos de Big Data.
Entretanto, devido à quantidade exorbitante destes dados, torna-se difícil visualizá-los
de maneira eficaz e, tendo em vista que a visualização eficiente de informações é
ponto chave para a obtenção do conhecimento, esta discussão torna-se ainda mais
relevante no contexto do Big Data. Então, o presente trabalho busca discutir e
apresentar as ferramentas de Business Intelligence mais relevantes no mercado,
discutir suas vantagens e desvantagens, com destaque para a capacidade de gerar
visualizações interativas, intuitivas e eficientes, que facilitem a obtenção do
conhecimento gerado pelos dados, por parte dos gestores e, por consequência,
qualifiquem a tomada de decisão.
The avalanche of data received nowadays deriving from a variety of sources and
generated in unthinkable speed and volume is called Big Data. The Big Data
incorporates a great variety of formats capable of generating value to organizations
through qualified information, enriching the decision-making process. However, due
to its exorbitant amount of data, it becomes difficult to visualize the gathered
information efficiently. Considering that an efficient visualization of information is
crucial to obtain knowledge, this discussion is extremely relevant in the context of
Big Data. Accordingly, the present work aims to discuss and present relevant
Bussiness Intelligence tools to the market, reflecting upon its advantages and
disadvantages, with emphasis on generating interactive, efficient and intuitive
visualizations. In consequence, this capacity would help managers obtain knowledge
from the data and therefore, improve the decision-making process.
1. Introdução …………………………………………………......…….... 1
1.2 Objetivos gerais .............................................................................. 2
1.2.1 Objetivos específicos .................................................................... 2
2. Problema de Pesquisa ..............…….………………………………..... 4
3. Fundamentação Teórica ..................…………………………….....… 4
3.1 Big Data ........................................................................................ 4
3.2 Sistema visual humano e importância da visualização de dados............10
4. Novas Tecnologias e Ferramentas de Visualização de Dados............17
4.1.1 Data Cube e Nano Cube ............................................................... 18
4.1.2 imMens ...................................................................................... 18
4.2 Ferramentas de Visualização de Dados.............................................. 20
4.2.1 Tableau ...................................................................................... 21
4.2.2 Microsoft Power BI ..................................................................... 22
4.2.3 Qlik ........................................................................................... 23
5. Análise dos Resultados .................................................................. 25
5.1 Tableau ......................................................................................... 25
5.1.1 Vantagens ................................................................................... 25
5.1.2 Desvantagens .............................................................................. 26
5.2 Microsoft Power BI ........................................................................ 26
5.2.1 Vantagens ................................................................................... 26
5.2.2 Desvantagens .............................................................................. 27
5.3 Qlik .............................................................................................. 28
5.3.1 Vantagens ................................................................................... 28
5.3.2 Desvantagens .............................................................................. 28
6. Conclusão ...................................................................................... 29
1. Introdução
Um dos principais fenômenos observados recentemente, em termos de
tecnologia, foi a grande crescente de dados gerados pela humanidade, devido à
difusão da internet que, no ano de 2018, chegou a 53% da população mundial (We
Are Social; Hootsuite, 2018). Estes dados são gerados nos mais diversos formatos,
desde imagem, texto, vídeo, áudio etc., também em função da grande propagação das
redes sociais. Este fenômeno, que tem ganhado um destaque cada vez maior, tanto no
meio acadêmico, quanto no empresarial, é chamado de Big Data.
Como a diversidade e quantidade dos dados é muito grande, naturalmente, a
análise destes, traz uma gama enorme de informações para as empresas. Com o
aumento da quantidade e acuracidade de informações disponíveis, gerando insights
novos a partir da descoberta de dados, temos uma tendência de melhoria de decisões
gerenciais, podendo gerar um diferencial competitivo. Entretanto, é ponto
fundamental neste contexto, a forma que o conhecimento que estas informações
trazem será transmitido. Então, chegamos à importância que a visualização de dados
tem, no cenário apresentado. De que modo podemos apresentar dados tão fartos,
garantindo a melhor obtenção de conhecimento possível para os gestores e
aumentando a qualidade das decisões estratégicas da empresa? Um caminho possível
é estudar as ferramentas de Business Intelligence do mercado atual.
A capacidade de gerar visualizações interativas e de fácil compreensão para os
dados disponíveis tornou-se ponto fundamental para as ferramentas de BI, que são
extremamente difundidas entre as grandes empresas. Então, selecionamos as
principais plataformas disponíveis no mercado, a fim de avaliar suas capacidades de
criar visualizações, sem esquecer dos processos anteriores a isso, como
processamento e modelagem de dados, tão importantes quando trabalhamos com
grandes quantidades de informações. Para selecionar as ferramentas, foi utilizado
como referência o Quadrante Gartner de ferramentas de BI (Figura 1). Analisamos a
ferramenta que estão na principal área do gráfico, que é o quadrante de líderes, que
são: Tableau, Qlik e Microsoft Power BI. Por fim, o presente trabalho busca
descrever pontos positivos e negativos de cada uma destas ferramentas e concluir qual
desempenha melhor as funções descritas, bem como traçar um cenário futuro para tal
tipo de plataforma, concluindo qual pode ser mais efetiva para criar visualizações de
dados interativas que apoiem os gestores e transmitam o conhecimento de maneira
mais eficiente.
1
Figura 1 – Quadrante Gartner de ferramentas de BI. Fevereiro de 2018. Fonte: Garnet
Report 2018
2
2. Problema de Pesquisa
A visualização de dados é parte fundamental no apoio do processo decisório
organizacional, visto que se a transmissão do conhecimento contido nos dados for
efetiva, a decisão do gestor tende a ser mais qualificada. Porém, num cenário onde os
dados são muito vastos e em formatos diversos, como gerar visualizações de dados
interativas e de fácil compreensão para os usuários? De que forma o ser humano capta
essas informações de maneira mais veloz? Quais plataformas estão disponíveis no
mercado para desenvolver tais visualizações e qual se apresenta como mais efetiva? É
preciso responder tais questões para entender a importância da visualização de dados
no atual cenário.
3
3. Fundamentação Teórica
4
Variedade é o termo que se refere aos diferentes tipos de dados que são
coletados, extraídos destes citados dispositivos móveis, sensores, redes sociais e afins.
Os formatos desses dados são obtidos em diversos formatos como fotos, texto, vídeo
e áudio e são, em sua maioria, não-estruturados. A variedade nesses formatos gera
diversas possibilidades às empresas, que podem captar as impressões dos usuários
sobre sua marca por análises textuais no Twitter, por exemplo, avaliar nível de
engajamento em redes sociais, compreender melhor seu público consumidor, etc.
Observamos isso quando, após realizarmos uma busca ou falarmos sobre algum
interesse de compra em redes sociais, pouco depois recebemos diversas ofertas
erecomendações daquele tipo de produto.
Figura 2 - “Digital around the world in 2018”. Fonte: adaptado de We Are Social e
Hootsuite, 2018.
Velocidade, por sua vez, se refere à rapidez cada vez maior com que esses
dados são gerados, processados, armazenados e analisados. Sobre a velocidade de
processamento, ainda se mantém a máxima da Lei de Moore, que diz que, a cada 18
meses, a capacidade dos processadores dobra. Além disso, esses dados são
transferidos digitalmente de maneira cada vez mais veloz, nos dias atuais, com o
aumento de banda de internet.
Entretanto, além desses conceitos, outros dois “Vs” tão fundamentais quanto
para o entendimento do Big Data foram adicionados ao conceito, que são a
Veracidade e o Valor.
Veracidade se refere ao aspecto da qualidade dos dados, porque já que eles
5
são extraídos em quantidades massivas e são extremamente diversos em seus
formatos, não há possibilidade de esses dados serem 100% corretos (ISHWARAPPA;
ANURADHA, 2015). Por exemplo, os dados podem ser extraídos com imprecisão
devido a variação de palavras, tradução de informações, incompletude, etc. O desafio
é conseguir garantir a confiabilidade dos dados de maneira automatizada, por meio de
Softwares.
Valor é o aspecto principal do Big Data. (ISHWARAPPA; ANURADHA,
2015). Este termo se refere ao conhecimento absorvido a partir de análises de Big
Data, que podem ser utilizados de maneira efetiva para determinado fim. Uma forma
de identificar o valor absorvido da análise do Big Data é focar nos seguintes pontos:
identificar o conhecimento extraído que será efetivamente utilizado; verificar o
retorno sobre o investimento feito no big data; compreender a relevância para os
consumidores, por meio de análise dos sentimentos expressados por estes em mídias
sociais, por exemplo; etc. E estes resultados podem ser apresentados de diferentes
formas, que terão sua importância abordada no contexto de visualização de
informações. (STOREY; SONG, 2017).
6
Compreendendo o fenômeno do Big Data por estes 5Vs, podemos descrever
como se realiza a obtenção do conhecimento oferecido por ele e que pode gerar, no
fim, o apoio na tomada de decisão nas organizações, pelos seguintes processos:
obtenção e armazenamento dos dados (volume, velocidade e variedade); limpeza e
integração dos dados (veracidade); análise dos dados agora filtrados; visualização e
interpretação das informações obtidas; tomada de decisão (valor). (CHEN; ZHANG,
2014).
7
Mesmo o armazenamento em “nuvem” desses tem apresentado
desafios importantes, principalmente em tamanho de banda para a
transmissão desses dados, principalmente em casos de dados muito
grandes, bem como problemas diversos de segurança que essa
modalidade de armazenamento apresenta.
9
cognitive capacities”.
Como o Big Data gera muitos dados em tempo real, é importante
elaborar visualizações para esse tipo de informação, possibilitando
análises e tomadas de decisão constantes. Entretanto, há uma grande
dificuldade em tornar esse tipo de visualização escalável, por conta
das dificuldades de processamento e da grande quantidade de dados
gerados em tempo real, o que torna consultas lentas e excede à
capacidade de armazenamento (AGRAWAL et al, 2015). O Twitter,
por exemplo, segundo report de 2017 da plataforma Omnicore, gera
em média cerca de 500 milhões de tweets por dia, e esses possuem
informações geográficas, de horário, um perfil de usuário, um
contexto dos caracteres e uma série de informações úteis, porém
difíceis de serem visualizadas facilmente.
Já a interatividade amplifica os benefícios dados pela visualização de
dados, já que visualizações interativas podem ajudar a compreender as
informações de forma mais rápida e eficaz. Entretanto, devido às
quantidades muito grande de dados, mesmo com uma redução destes,
leva muito tempo para as visualizações serem geradas, podendo gerar
travamentos no sistema e até um crash durante o processamento,
enquanto o sistema tenta gerar as visualizações (AGRAWAL et al,
2015).
Então, conhecendo as dificuldades impostas pela visualização de
dados, bem como as oportunidades que isso oferece, no contexto do
Big Data, discutiremos como funciona a visualização de dados, bem
como os players atuantes nesse mercado e o apoio nessa área para as
empresas.
A visão, sem dúvidas, representa a nossa fonte mais diversa fonte de obtenção
de informações em relação ao mundo ao nosso redor (SEKULER; BLAKE, 2005). A
visualização de dados por meio de tabelas, por exemplo, pode ser útil para enxergar
uma informação individual, porém, a partir da inclusão de outros fatores para um
10
cruzamento de dados, os gráficos já começam a se tornar necessários (FEW, 2009). A
visão, como o nosso principal sentido, pode ser muito mais efetivamente explorada em
uma visualização gráfica, do que em formato de números, já que, quando se enxerga
somente o número em forma de texto, o processamento é muito mais lento do que
quando visto em forma de gráfico (FEW, 2009), que potencializa nossa capacidade de
raciocinar em cima da informação. A visualização dos dados feita de forma
equivocada pode, no máximo, oferecer informações rasas e, no pior dos casos, dar
direcionamentos errôneos, gerando gastos mal efetuados, que é o que buscamos evitar,
ainda mais de forma observada sobre o prisma do Big Data, que oferece diversas
oportunidades, porém gera altos custos.
Recentemente, o auxílio de computadores como ferramenta de apoio para o
aumento da efetividade da obtenção de conhecimento tem sido um importante tema de
pesquisa e investimento (CARD; MACKINLAY, 1997). Ainda mais com a avalanche
de dados já citada, bem como com o desenvolvimento de ferramentas de
processamento de dados e difusão na internet, o tema de visualização de informações
acabou surfando essa onda de desenvolvimento.
Uma definição básica de visualização de informações diz que é a utilização
representações visuais computadorizadas de dados abstratos que amplificam a
cognição (OSTERGREN et al., 2011, p. 1). Outra definição, agora mais abrangente,
por não se referir somente às visualizações produzidas por computação gráfica, diz
que a visualização da informação é um processo de transformação de dados que os
torna algo mais fácil de ser assimilado pelo usuário, baseando-se em características do
sistema visual humano (OSTERGREN et al., 2011).
Exemplos acerca da importância da visualização de dados se fazem presentes
desde muito tempo. O Dr. John Snow, um médico inglês pioneiro em técnicas de
anestesia com éter e clofoórmio, em meio a uma epidemia de cólera em Londres, no
século XIX, plotou em um mapa da cidade pontos correspondente à localidade das
mortes pela doença. Então, a partir desta imagem, foram observados clusters em volta
da Broad Street, nas bombas d’água. A partir disso, ele conseguiu convencer as
autoridades londrinas a remover as bombas e, mesmo não havendo o conhecimento
que ligava a contaminação da água à doença, a epidemia foi superada (RIEBER,
1995). Veja a imagem da dispersão das mortes em Londres por cólera, que
possibilitou essa análise:
11
Figura 5 – Mortes por cólera em Londres. Fonte: Geo Independência, 2013.
12
informações pelo usuário e, por consequência, uma melhor qualidade no processo
decisório do gestor, afinal, o diagnóstico é fundamental para a resolução efetiva de
algum problema.
A formulação da visualização de dados pode ser elaborada a partir de alguns
modelos de referência. No processo apresentado na figura 6, por exemplo, propõe-se a
coleta dos dados brutos, seguido de sua organização, depois a escolha de uma
estrutura visual para, então, ser efetuada a montagem da visualização, possivelmente
no modelo de painéis interativos (Card et al. 1999; Ware 2013; Spence 2001).
Nesse modelo, é simples traçar um paralelo entre o processo de obtenção do
conhecimento oferecido pelo Big Data, apresentado na sessão anterior, com o
processo de elaboração da visualização de informações. Os dados brutos,
exemplificando por esse contexto, são os dados extraídos de dispositivos com sensores
que geram dados, de redes sociais, de dados de navegação na web, pesquisas em
ferramentas de busca, cookies gerados nos sites, conversas por dispositivos de
mensagem, vídeos postados em diversos servidores, hábitos de e-commerce e por aí
vai. Esses dados serão, então, mineirados e tratados, fazendo uso de softwares
específicos.
13
considerando metodologias para otimizar a visualização dos dados e seriam montados
painéis interativos, sempre com o foco em tornar a visualização dos elementos-chave
o mais simples possível, possibilitando a descoberta de novas oportunidades e
eventual correção em tempo-real de problemas para a organização, por exemplo.
Outro modelo de elaboração de visualizações é descrito por Ware (2013, p. 4).
Segundo ele, este processo é composto por quatro estágios básicos: coleta e
armazenamento de dados; pré-processamento para a manipulação destes dados,
normalmente como uma forma também de “separar o joio do trigo”, mantendo
somente as informações que são relevantes para o objetivo da criação daquela
visualização; a transformação dos dados coletados e manipulados em uma
apresentação visual, por meio, normalmente, de computação gráfica; e, finalmente, a
percepção da informação pelo sistema cognitivo do usuário.
Nos dois primeiros estágios descritos por esse processo, há um importante
apoio no conceito de data mining (XAVIER, 2009, p. 52), que é o processo de
descoberta de conhecimento a partir da extração de informações antes desconhecidas
de bancos de dados muito grandes, encontrando relações que antes se escondiam em
meio a essas informações. Estas relações acabam por fornecer informações relevantes
em relação àquilo que está sendo estudado (KOPANAKIS; THEODOULIDIS, 2003,
p. 543 e 544). Esse conceito é fundamental, falando sobre o contexto do Big Data.
Conforme dito nas sessões anteriores, uma das problemáticas do Big Data é a curação
dos dados que são extraídos e, assim, é fundamentação um pré-processamento dos
dados antes de seu armazenamento, garantindo dados mais limpos, transformados e
catalogados.
Sobre a percepção do usuário em relação ao que é apresentado a ele, existem
diversos estudos para tentar otimizar esse processo de recepção. Para embasar estes
estudos, foram feitas análises a partir da classificação das variáveis da retina (Figura
7), descritas por Bertin (1983), que faz uma diferenciação entre propriedades espaciais
e de objetos. E, segundo Card “[...] they are sorted according to whether the property
is good for expressing the extent of a scale (has a natural zero point), or whether its
principal use is for differentiating marks […]” (CARD, 2009).
14
Figura 7 – Variáveis da retina. Fonte: Card, 2009
15
parte fundamental da montagem da visualização de informações. Isso porque certas
comunidades possuem maior fluência para a percepção de certas visualizações do que
outras. Por exemplo, um radiologista possui facilidade para analisar uma chapa de
raio-x, já estatísticos possuem maior fluência para interpretar diferentes tipos de
gráficos (WARE, 2013, p.16).
Ainda segundo Ware (2013, p. 21), a percepção visual humana pode ser
dividida em três etapas, que são as seguintes:
Memória visual de trabalho: este estágio se caracteriza por atuar sob o estado
16
de atenção, onde são feitas buscas visuais conscientes. Poucos objetos são analisados
por vez e, posteriormente, são armazenados na memória visual de trabalho.
Se o estágio de pré-atenção é executado pelo sistema visual de baixo nível,
onde há uma percepção quase independente de cor, forma, orientação, com pouca ou
nenhuma ação da consciência (MAZZA, 2009, p.34; WARE, 2013, p.22), o estágio de
atenção, por sua vez, implica uma atividade consciente. Neste caso, todo o sistema
perceptivo visual será constantemente utilizado, de acordo com nossas expectativas e
com o que será mais útil para nós. (WARE, 2013, p.22).
Compreendendo essa teoria, podemos concluir que a forma com que é
visualizada a informação em questão é fundamental para a facilitação da obtenção do
conhecimento. Portanto, no contexto da gestão organizacional, é fundamental que haja
um cuidado especial na elaboração de visualizações, pois esse fator pode ser muito
importante na efetiva obtenção do conhecimento pelo gestor e, por consequência, na
qualidade de suas decisões. Diante do cenário competitivo que o mercado apresenta
hoje, é fundamental a correta compreensão, por parte das organizações, do que o
contexto de mercado, seja num viés do consumidor, ou até mesmo socioeconômico e
cultural, está pedindo. Os dados necessários para essa compreensão nós temos
disponíveis, cada vez mais. Porém, como lidamos com esses dados é peça-chave para
o sucesso competitivo.
Diante dessa necessidade que o cenário atual apresenta, onde a visualização de
dados tomou papel muito importante, além da figura do CDO (Chief Data Officer),
fundamental para orquestrar como os dados podem ser melhor geridos pela
organização, uma nova função tem sido discutida no mercado: o CDVO (Chief Data
Visualization Officer), que seria uma figura central que se dedicaria a uma abordagem
geral aos dados e ao BI da organização, com ênfase em oferecer uma visão estratégica
a como esses dados são consumidos dentro da organização. Ou seja, como a
visualização de dados oferece o conhecimento aos gerentes da empresa.
17
dificuldades de elaborar visualizações de dados efetivas, no contexto do Big Data e,
nesse sentido, existem exemplos de pesquisas para desenvolver tecnologias de modo
enfrentar esses desafios impostos. Dois exemplos serão abordados: Data Cube e
Nanocube; e imMens.
4.1.2 imMens
O imMens trata-se de uma plataforma online para interações em tempo
real com resumos visuais escaláveis de Big Data (LIU et al, 2013). Para
18
tornar as visualizações escaláveis e interativas, o sistema se utiliza da
estratégia de redução de dados chamada data binning, que resulta em
pontos mapeados agrupados por variáveis como: numérico, ordinal,
temporal e variáveis geográficas.
Na Figura 10, vemos o exemplo de duas visualizações distintas para a
base de dados de check-ins de usuários do Brighkite, uma rede social já
extinta, onde as pessoas compartilhavam suas localizações e interagiam
entre si: à esquerda, o Google Fusion Tables, mapeando os pontos no
mapa; à direita, o imMense, fazendo agrupamentos e gerando um mapa
de calor.
Comparando, o Fusion Tables gera diversas sobreposições no mapa e a
amostragem perde informações importantes, como as viagens pelas
rodovias interestaduais que o mapa de calor mostra. Além disso, o
imMens consegue interagir em tempo real com os dados gerados,
adaptando a visualização.
19
4.2 Ferramentas de Visualização de Dados
20
define aquelas ferramentas que são tidas como mais visionárias e líderes no mercado,
as plataformas da Microsoft (Power BI), o Tableau e o Qlik. As três possuem diversas
funcionalidades e servem como ótimo apoio para a criação de visualização de dados.
Veremos as funcionalidades disponíveis em cada uma.
4.2.1 Tableau
Tableau é um software de BI que possui ferramentas de visualização
interativa de dados. Este software se divide em vários produtos que são
capazes de processas grandes quantidades de dados, como Tableau
Desktop (um software que é instalado no sistema operacional), Tableau
Online e Tableau Server. O Tableau trabalha com o armazenamento de
cache das análises, ajudando a melhorar o tempo de espera de
processamento de informações (WANG et al, 2015). A ferramenta pode se
conectar às mais diversas fontes de dados, desde o Excel aos clusters
Hadoop.
A ferramenta se destaca como um dos líderes do segmento devido a uma
série de fatores. O ótimo desempenho da ferramenta em gerar visualizações
de dados intuitivas, podendo gerar painéis analíticos para quase toda fonte
de dados possível, é um dos pontos principais. A facilidade nesse sentido,
como em gerar visões de geolocalização com um clique, funções
avançadas apenas “arrastando e soltando” campos e o auxílio da própria
ferramenta em criar cálculos, oferecem grande apoio aos usuários.
Segundo o relatório Gartner, mais de 55% dos clientes do Tableau estão
utilizando a ferramenta para capacitar equipes que forneçam o conteúdo
para os usuários de maneira rápida e interativa, sendo 52% desses clientes
considerando o Tableau como o padrão da organização. Na organização
onde trabalho, uma grande empresa do setor de saúde, por exemplo, o
Tableau é a ferramenta de referência para todos os reports e dashboards da
empresa, seja em desempenho de vendas, análise de desempenho
comercial, logística, acompanhamento do preço médio de venda para o
varejo, entre outros, sempre a partir da criação de relatórios automáticos e
interativos, que agregam dados dos mais diversos sistemas, como Oracle e
SalesForce.
Embora a ferramenta possua grande destaque, o crescimento de players
21
com um custo menor e a aproximação das funcionalidades entre as
ferramentas tornam o ambiente muito mais competitivo. O custo de licença
de Tableau é muito alto, o que gera problemas quando há o comparativo
com as ferramentas menos custosas, como o Microsoft Power BI.
Algumas das empresas que utilizam a ferramenta, segundo a própria
empresa, são: Barclays, Citibank e a Coca-cola.
4.2.3 Qlik
O Qlik é outra companhia no quadrante de líderes do mercado, com suas
duas ferramentas: Qlik View, que é um produto tradicional de BI, e o Qlik
23
Sense, que se enquadra como uma ferramenta de BI self-service e já
superou 50% dos clientes da empresa. A ferramenta é capaz de se conectar
a quase toda fonte de dados e suporta modelagem de dados complexas e
cálculos complexos, além de apoiar na criação de visualizações.
Entretanto, não é tão simples de aprender as funcionalidades dos produtos
Qlik e criar visualizações interativas como no Tableau e no Microsoft
Power BI.
O Qlik Sense oferece fontes de dados públicos que vão desde informações
demográficas, até de clima e auxiliam no enriquecimento de análises na
ferramenta. Além disso, no início do ano passado, a Qlik adquiriu a Idevio
para trazer funcionalidades geoanalíticas para dentro da ferramenta.
Entretanto, o Qlik possui algumas dificuldades, como o autoatendimento
em análise e preparação de dados, visto que o Qlik Sense ainda é uma
ferramenta recente, o que gera dificuldade do próprio cliente acessar e
combinar diferentes fontes de dados para a criação de visualizações.
Além disso, a exemplo do Tableau, o Qlik é uma ferramenta de custo
elevado e 27% dos seus clientes citam o custo do software como uma
limitação para a implantação mais ampla da ferramenta.
24
5. Análise dos Resultados
5.1 Tableau
5.1.1 Vantagens
Tempo de mercado: o Tableau possui 15 anos de experiência e teve
tempo para adquirir experiência e evoluir nas funcionalidades da
ferramenta, se tornando a ferramenta com mais abrangência no
mercado. Somente na conferência anual de usuários do ano passado,
foram recebidos 14.000 participantes e que apoiam no desenvolvimento
da ferramenta com feedbacks e sugestões.
Visualização: o Tableau gera uma série de visualizações rápidas, que
vão desde gráfico de dispersão, visualizações de linhas e várias outras,
mas com um grande destaque para visões geográficas, ponto onde o
Tableau possui grande vantagem. Além disso, o Tableau não limita o
número de pontos de dados a serem visualizados na análise.
Flexibilidade: o Tableau pode ser implantado na nuvem, ou com um
servidor local e tem uma grande capacidade de integração com os
sistemas internos da organização. Minha experiência nesse sentido é
com a enorme integração que o Tableau faz, fazendo com que seja
25
possível gerar visualizações diárias para informações de todos os
sistemas da empresa onde atuo. As vendas vêm de mais diversas filiais
e são automaticamente transferidas, ficando disponíveis nas fontes de
dados da empresa. Entretanto, as informações não vêm em tempo real,
estando disponíveis sempre day-1.
5.1.2 Desvantagens
Custo: O Tableau pode ser, por exemplo, de 9 a 10 vezes mais caro do
que o Microsoft Power BI e, com as funcionalidades de visualização de
dados e análises se tornando mainstream nas ferramentas de BI, isso
pode gerar dificuldades para a ferramenta.
Cálculos para geração de análises: trata-se de uma ferramenta de mais
difícil manipulação do que o Microsoft PowerBI, por exemplo. Isso
tanto na criação de conexões entre bases, já que exige um maior
conhecimento do que no PBI, onde só é preciso arrastar com um clique
e conectar diferentes fontes de dados. Além disso, a linguagem de
cálculos do Tableau é menos intuitiva para o usuário médio, exigindo
uma equipe com foco exclusivo nos dashboards, que seja capaz de
alimentar os clientes internos com as análises interativas, auxiliando na
visualização das informações relevantes.
5.2.1 Vantagens:
Preço: O Microsoft Power BI é a ferramenta de mais baixo custo no
quadrante de líderes. A ferramenta Power BI Desktop é gratuita e
ainda oferece 60 dias grátis para o uso da versão PRO, com
possibilidade de gerar e compartilhar dashboards entre diferentes
usuários. A licença desse tipo para um usuário único é de US$ 9,99,
cerca de 9 a 10 vezes mais baratas do que o Tableau.
Facilidade de uso: Por se tratar de uma ferramenta da Microsoft, o
Power BI tem boa parte de sua linguagem (DAX) idêntica ao do
MS Excel, que é uma das ferramentas mais utilizadas no mundo.
26
Além disso, conexões entre fontes de dados podem ser feitas com
um clique, bem como diversas funções de cálculos.
5.2.2 Desvantagens:
Limitação para a criação de visualizações: O Power BI, apesar de
27
ter um visual muito impressionante, gerando dashboards
extramamente atrativos ao usuário, possui uma limitação de pontos
a serem visualizados geograficamente, por exemplo.
Previsibilidade: O MS Power BI está abaixo das outras ferramentas
quando falamos de modelos preditivos, quando é requerida
estabilidade e os requerimentos são compreendidos e podem ser
identificados com análises. O Power BI deixa a desejar em termos
de distribuição de relatórios agendados, dificuldando aplicação em
grande escala organizacional, tendo um foco maior no
autoatendimento do usuário.
5.3 Qlik
5.3.1 Vantagens
Escalabilidade: a Qlik oferece uma capacidade muito robusta de
realizar cálculos e modelagens complexas para grandes quantidades de
dados, possibilitando compartilhamento para muitos usuários e com
bom desempenho, levando vantagem em relação ao MS Power BI
nesse sentido.
Tempo de Mercado: a Qlik se encontra junto à Tableau nesse sentido,
por ser uma empresa de longa trajetória e uma ferramenta já
consolidada no mercado, com uma rede enorme de parceiros. Além
disso, a consistência no mercado propiciou a aquisição de novas
companhias que enriquecem as ferramentas da empresa, comoa Idevio,
que realiza as análises geolocalizadas.
5.1.2 Desvantagens
Serviços de autoatendimento: diferentemente do Tableau e do MS
Power BI, o Qlik não tem como uma grande força a facilidade no
autoatendimento do usuário. O processo de geração de conexões entre
diferentes fontes de dados e exploração visual das análises exige um
processo mais complexo do que as outras ferramentas descritas,
exigindo, muitas vezes, uma equipe dedicada à criação de dashboards
solicitados.
28
Alto custo: assim como o Tableau, a ferramenta está em desvantagem
em relação ao MS Power BI quando se fala de custo de implementação
da ferramenta.Segundo o Relatório Gartner, 27% dos clientes de
referência citaram o custo como uma limitação para implantação mais
ampla da plataforma.
6. Conclusão
29
Desktop, que podem ser publicados no Power BI Public e compartilhados com outros
usuários, também em versão mobile, incomodou o Tableau e o Qlik, que passaram a
oferecer ferramentas do tipo SaaS (Software as a service) e flexibilizar os preços por
usuário, devido ao baixo custo do PBI.
A ferramenta oficial de Business Intelligence na empresa em que atuo é o
Tableau e, para a criação de dashboards de acompanhamento de vendas para a área
comercial, foi necessário a ajuda de uma consultora externa, prestando serviços
durante 30 dias, até oferecer resultados. Com o PBI, conseguimos desenvolver uma
versão muito mais visual e interativa dos dashboards para a diretoria em 3 dias,
contando com o tempo de processamento dos dados no Data Warehouse da empresa,
que gerou um fluxo muito grande. Isto serve como ilustração para a facilidade que o
Power BI oferece para os usuários. Entretanto, ainda está atrás das outras ferramentas
quando a quantidade de dados chega a certo ponto.
De modo a ilustrar tudo que foi dito, foi preparado um comparativo gráfico
entre as ferramentas (Figura 16), onde 5 estrelas correspondem à pontuação máxima
que cada ferramenta pode atingir nos critérios que foram observados, que são:
autoatendimento, escalabilidade, visualização de dados, preço e análise de grandes
quantidades de dados.
30
mercado de plataformas de Business Intelligence para análise e visualização de
grandes quantidades de dados. O Tableau leva vantagem pelas visualizações serem
mais completas e mais simples de serem executadas do que no Qlik. Entretanto, o
Microsoft Power BI aparece como uma grande alternativa para dados em menos
escala, de poucos GBs, mas prevejo que a ferramenta se desenvolverá e, se mantiver o
atual ritmo de crescimento, deverá conseguir se tornar mais escalável e, com as
funcionalidades que já possuem, poderá se tornar a melhor opção no mercado também
para visualização de dados em Big data.
31
REFERÊNCIAS
AGRAWAL, R et al. Challenges and Opportunities with Big Data Visualization.
Proceedings of the 7th International Conference on Management of computational
and collective intElligence in Digital EcoSystems, p. 169-173, 2015.
CHEN, Min; MAO, Shiwen; LIU, Yunhao. Big data: A survey. Mobile networks and
applications, v. 19, n. 2, p. 171-209, 2014.
FEW, Stephen; Now You See It: Simple Visualization Techniques for Quantitative
Analysis. 1ª edição. Analytics Press, 2009.
HASHEM, I. A. T., YAQOOB, I., ANUAR, N. B., MOKHTAR, S., GANI, A., &
KHAN, S. U. The rise of “big data” on cloud computing: Review and open research
issues. Information Systems, v. 47, p. 98-115, 2015.
32
IBM. 10 Key Marketing Trends for 2017 and Ideas for Exceeding Customer
Expectations. Disponível em: <https://www-01.ibm.com/common/ssi/cgi-
bin/ssialias?htmlfid=WRL12345USEN>. Acesso em 15 de ago de 2018.
Inside Big Data. How Netflix Uses Big Data to Drive Success. Disponível em:
<https://insidebigdata.com/2018/01/20/netflix-uses-big-data-drive-success/>. Acesso
em 15 de ago 2018.
LIU, Zhicheng; JIANG, Biye; HEER, Jeffrey. imMens: Real‐time Visual Querying of
Big Data.Computer Graphics Forum. Blackwell Publishing Ltd, 2013. p. 421-430.
33
4PUK79W&ct=180130&st=sb&mkt_tok=eyJpIjoiTUdOa016VXdZV0V3WW1ZNCIsI
nQiOiJ5Umt0aFJDZEdxUjdSYjFzZ1MwaUtYRFVvN0JpbnlVZWprVkJobjJRenVSa0
ppQ2lvQ0IrTmE0UnJDT2hBcm9seDljMXlHTFBMOU5mbGxpUitlbzJJXC9oRXhzTF
pXdEp4QkpQazFjMEJocllWc1NDdkFvR3hTMUsrRko5V2tsd0kifQ%3D%3D>.
Acesso em 15 de ago de 2018.
STOREY, V C.; SONG, IY. Big data technologies and Management: What conceptual
modeling can do. Data & Knowledge Engineering, v. 108, p. 50-67, 2017.
34
Multidimensionais. Porto Alegre, 2008. 220f. Tese (Doutorado em Computação) –
Universidade Federal do Rio Grande do Sul. Programa de Pós-graduação em
Computação, Porto Alegre, BR-RS, 2008.
WARE, Colin. Information Visualization: Perception for design. 3. ed, Nova Iorque,
NY, EUA: Morgan Kaufmann Publishers, 2013.
WE ARE SOCIAL & HOOTSUITE. Digital in 2018: Essential Insights into Internet,
Social Media, Mobile and Ecommerce use Around the World. Disponível em:
<https://wearesocial.com/blog/2018/01/global-digital-report-2018>. Acesso em 15 de
ago de 2018
WANG, Lidong; WANG, Guanghui; ALEXANDER, Cheryl Ann. Big data and
visualization: methods, challenges and technology progress. Digital Technologies, v. 1,
n. 1, p. 33-38, 2015.
35