Você está na página 1de 46

UNIVERSIDADE FEDERAL FLUMINENSE

FACULDADE DE ADMINISTRAÇÃO, CIÊNCIAS CONTÁBEIS E TURISMO


DEPARTAMENTO DE ADMINISTRAÇÃO

ARTUR RODRIGUES DE SOUSA

VISUALIZAÇÃO DE DADOS NO CONTEXTO DO BIG DATA –


ESTUDO COMPARATIVO DAS FERRAMENTAS DE MERCADO

Niterói
2018
ARTUR RODRIGUES DE SOUSA

VISUALIZAÇÃO DE DADOS NO CONTEXTO DO BIG DATA –


ESTUDO COMPARATIVO DAS FERRAMENTAS DE MERCADO

Trabalho de conclusão de curso


apresentado ao curso de
Bacharelado em Administração,
como requisito parcial para
conclusão do curso. Área de
concentração: ADI – Administração
da Informação.

Orientador:
Prof. Dr. Eduardo Camilo da Silva

Niterói
2018
Ficha catalográfica automática - SDC/BAC

S725 Sousa, Artur Rodrigues de


VISUALIZAÇÃO DE DADOS NO CONTEXTO DO BIG DATA ? ESTUDO
COMPARATIVO DAS FERRAMENTAS DE MERCADO / Artur Rodrigues de
Sousa ; Eduardo Camilo da Silva, orientador. Niterói, 2018.
45 f. : il.

Trabalho de Conclusão de Curso (Graduação em


Administração)-Universidade Federal Fluminense, Faculdade de
Administração e Ciências Contábeis, Niterói, 2018.

1. Administração da Informação. 2. Produção


intelectual. I. Título II. Silva,Eduardo Camilo da,
orientador. III. Universidade Federal Fluminense. Faculdade de
Administração e Ciências Contábeis. Departamento de
Administração.

CDD -

Bibliotecária responsável: Sandra Filgueiras - CRB7/3861


ARTUR RODRIGUES DE SOUSA

VISUALIZAÇÃO DE DADOS NO CONTEXTO DO BIG DATA –


ESTUDO COMPARATIVO DAS FERRAMENTAS DE MERCADO

Trabalho de conclusão de curso


apresentado ao curso de
Bacharelado em Administração,
como requisito parcial para
conclusão do curso. Área de
concentração: ADI – Administração
da Informação.

Aprovada em 16 de julho de 2018.

BANCA EXAMINADORA

_____________________________________________
Prof. Dr. Eduardo Camilo da Silva

_____________________________________________
Prof. Dr. Ariel Levy

_____________________________________________
Prof. Dr. Joel de Lima Pereira Castro Junior

Niterói
2018
Dedico este trabalho a toda minha
família, namorada e amigos, que
estiveram ao meu lado e me apoiaram
em toda minha trajetória.
AGRADECIMENTOS

Agradeço a todos que me


apoiaram nesta jornada, em especial:

Aos meus pais e minha irmã, que


me deram a vida e fizeram todos os
sacrifícios para me dar a oportunidade de
crescer.

À Alexandra, que me ouviu, me


aconselhou, me abraçou e andou ao meu
lado nesta caminhada.

Aos meus amigos Bruno, Flor e


Yuri, que me apoiaram e me ouviram
nos mais diversos momentos.

Ao meu orientador Prof. Eduardo


Camilo, que teve papel fundamental
neste trabalho e no meu crescimento.

A todos os professores da
Universidade Federal Fluminense, que
tanto me ensinaram.

A todos os amigos que estiveram


presentes em corpo ou em mente.
RESUMO

Nos dias de hoje, possuímos uma avalanche de dados gerados pelas mais diversas
fontes, que se caracterizam por serem criados em grande velocidade, em volumes
antes impensáveis, com uma grande variedade de formatos, que são capazes de gerar
valor para as organizações, por meio de informações mais qualificadas, que
enriquecem o processo decisório, caracterizando o que chamamos de Big Data.
Entretanto, devido à quantidade exorbitante destes dados, torna-se difícil visualizá-los
de maneira eficaz e, tendo em vista que a visualização eficiente de informações é
ponto chave para a obtenção do conhecimento, esta discussão torna-se ainda mais
relevante no contexto do Big Data. Então, o presente trabalho busca discutir e
apresentar as ferramentas de Business Intelligence mais relevantes no mercado,
discutir suas vantagens e desvantagens, com destaque para a capacidade de gerar
visualizações interativas, intuitivas e eficientes, que facilitem a obtenção do
conhecimento gerado pelos dados, por parte dos gestores e, por consequência,
qualifiquem a tomada de decisão.

Palavras-chave: Big Data; Visualização de dados; Business Intelligence; Tecnologia.


ABSTRACT

The avalanche of data received nowadays deriving from a variety of sources and
generated in unthinkable speed and volume is called Big Data. The Big Data
incorporates a great variety of formats capable of generating value to organizations
through qualified information, enriching the decision-making process. However, due
to its exorbitant amount of data, it becomes difficult to visualize the gathered
information efficiently. Considering that an efficient visualization of information is
crucial to obtain knowledge, this discussion is extremely relevant in the context of
Big Data. Accordingly, the present work aims to discuss and present relevant
Bussiness Intelligence tools to the market, reflecting upon its advantages and
disadvantages, with emphasis on generating interactive, efficient and intuitive
visualizations. In consequence, this capacity would help managers obtain knowledge
from the data and therefore, improve the decision-making process.

Keywords: Big Data; Data visualization; Business Intelligence; Technology.


LISTA DE FIGURAS

Figura 1 – Quadrante Gartner de Ferramentas de BI........................................ 2


Figura 2 – Digital Around the World in 2018................................................... 5
Figura 3 – 5Vs do Big Data........................................................................ 6
Figura 4 – Processos do Big Data............................................................... 7
Figura 5 – Mortes por cólera em Londres….................................................. 12
Figura 6 – Processo de elaboração de visualizações.................................... 13
Figura 7 – Variáveis da retina.................................................................. 15
Figura 8 – Exemplo de informação obtida no estado de pré-atenção............. 16
Figura 9 – Geolocalização de Tweets.......................................................... 18
Figura 10 – Comparativo Google Fusion Tables e imMens......................... 19
Figura 11 – Interface e gráficos do Tableau................................................. 22
Figura 12 – Visualização de Relatório do Power BI..................................... 23
Figura 13 – Exemplo de Visualização no Qlik Sense.................................. 24
Figura 14 – Tela de pergunta ao PBI........................................................ 27
Figura 15 – Resultado após a pergunta..................................................... 27
Figura 16 – Comparativo de Ferramentas de BI........................................... 30
SUMÁRIO

1. Introdução …………………………………………………......…….... 1
1.2 Objetivos gerais .............................................................................. 2
1.2.1 Objetivos específicos .................................................................... 2
2. Problema de Pesquisa ..............…….………………………………..... 4
3. Fundamentação Teórica ..................…………………………….....… 4
3.1 Big Data ........................................................................................ 4
3.2 Sistema visual humano e importância da visualização de dados............10
4. Novas Tecnologias e Ferramentas de Visualização de Dados............17
4.1.1 Data Cube e Nano Cube ............................................................... 18
4.1.2 imMens ...................................................................................... 18
4.2 Ferramentas de Visualização de Dados.............................................. 20
4.2.1 Tableau ...................................................................................... 21
4.2.2 Microsoft Power BI ..................................................................... 22
4.2.3 Qlik ........................................................................................... 23
5. Análise dos Resultados .................................................................. 25
5.1 Tableau ......................................................................................... 25
5.1.1 Vantagens ................................................................................... 25
5.1.2 Desvantagens .............................................................................. 26
5.2 Microsoft Power BI ........................................................................ 26
5.2.1 Vantagens ................................................................................... 26
5.2.2 Desvantagens .............................................................................. 27
5.3 Qlik .............................................................................................. 28
5.3.1 Vantagens ................................................................................... 28
5.3.2 Desvantagens .............................................................................. 28
6. Conclusão ...................................................................................... 29
1. Introdução
Um dos principais fenômenos observados recentemente, em termos de
tecnologia, foi a grande crescente de dados gerados pela humanidade, devido à
difusão da internet que, no ano de 2018, chegou a 53% da população mundial (We
Are Social; Hootsuite, 2018). Estes dados são gerados nos mais diversos formatos,
desde imagem, texto, vídeo, áudio etc., também em função da grande propagação das
redes sociais. Este fenômeno, que tem ganhado um destaque cada vez maior, tanto no
meio acadêmico, quanto no empresarial, é chamado de Big Data.
Como a diversidade e quantidade dos dados é muito grande, naturalmente, a
análise destes, traz uma gama enorme de informações para as empresas. Com o
aumento da quantidade e acuracidade de informações disponíveis, gerando insights
novos a partir da descoberta de dados, temos uma tendência de melhoria de decisões
gerenciais, podendo gerar um diferencial competitivo. Entretanto, é ponto
fundamental neste contexto, a forma que o conhecimento que estas informações
trazem será transmitido. Então, chegamos à importância que a visualização de dados
tem, no cenário apresentado. De que modo podemos apresentar dados tão fartos,
garantindo a melhor obtenção de conhecimento possível para os gestores e
aumentando a qualidade das decisões estratégicas da empresa? Um caminho possível
é estudar as ferramentas de Business Intelligence do mercado atual.
A capacidade de gerar visualizações interativas e de fácil compreensão para os
dados disponíveis tornou-se ponto fundamental para as ferramentas de BI, que são
extremamente difundidas entre as grandes empresas. Então, selecionamos as
principais plataformas disponíveis no mercado, a fim de avaliar suas capacidades de
criar visualizações, sem esquecer dos processos anteriores a isso, como
processamento e modelagem de dados, tão importantes quando trabalhamos com
grandes quantidades de informações. Para selecionar as ferramentas, foi utilizado
como referência o Quadrante Gartner de ferramentas de BI (Figura 1). Analisamos a
ferramenta que estão na principal área do gráfico, que é o quadrante de líderes, que
são: Tableau, Qlik e Microsoft Power BI. Por fim, o presente trabalho busca
descrever pontos positivos e negativos de cada uma destas ferramentas e concluir qual
desempenha melhor as funções descritas, bem como traçar um cenário futuro para tal
tipo de plataforma, concluindo qual pode ser mais efetiva para criar visualizações de
dados interativas que apoiem os gestores e transmitam o conhecimento de maneira
mais eficiente.

1
Figura 1 – Quadrante Gartner de ferramentas de BI. Fevereiro de 2018. Fonte: Garnet
Report 2018

1.2 Objetivo Geral


No contexto da avalanche de dados, como gerar visualizações interativas e
funcionais para as informações disponíveis, apoiando os gestores na obtenção do
conhecimento, para melhor análise do cenário do mercado e qualificando suas
decisões.

1.2.1 Objetivos Específicos


Descrever e avaliar as principais ferramentas disponíveis no mercado que
possam auxiliar na criação da visualização de dados, entender como o ser humano
processa imagens, apresentar os conceitos de Big Data e explanar a importância da
visualização de dados na tomada de decisão.

2
2. Problema de Pesquisa
A visualização de dados é parte fundamental no apoio do processo decisório
organizacional, visto que se a transmissão do conhecimento contido nos dados for
efetiva, a decisão do gestor tende a ser mais qualificada. Porém, num cenário onde os
dados são muito vastos e em formatos diversos, como gerar visualizações de dados
interativas e de fácil compreensão para os usuários? De que forma o ser humano capta
essas informações de maneira mais veloz? Quais plataformas estão disponíveis no
mercado para desenvolver tais visualizações e qual se apresenta como mais efetiva? É
preciso responder tais questões para entender a importância da visualização de dados
no atual cenário.

3
3. Fundamentação Teórica

3.1 Big Data


Na última decada, foi observado um crescimento exponencial de dados
gerados pela humanidade. Os dados passaram a ser gerados em quantidades tão
grandes e de forma tão complexa, que os sistemas tradicionais de gerenciamento de
dados e as ferramentas para processá-los passaram a ser insuficientes
(ISHWARAPPA; ANURADHA, 2015). De acordo com relatório da IBM de 2017,
90% dos dados que o mundo possuía naquela data foram gerados nos dois anos
anteriores. Essa avalanche de dados, proporcionou o fenômeno conhecido como Big
Data, onde os dados digitais são extraídos pelas organizações em escalas de Terabytes
e Petabytes, podendo ser estruturados, semi-estruturados e não estruturados
(ISHWARAPPA; ANURADHA, 2015). Esse fenômeno, que é objeto de grande
estudo, investimento e discussão nos dias atuais possui diversas definições.
Uma das definições dadas ao Big Data, é que este é um termo utilizado para
definir enormes quantidades de dados, que possuem diversas formas estruturais e são
difíceis de armazenar, analisar e visualizar (SAGIROGLU; SINANC, 2013). Outra
possível definição, indica que o Big Data constitui um agrupado de tecnologias e
técnicas que precisam de novas formas de integração para descobrir valores
escondidos em dados que são diversos, complexos e são extraídos em enormes
quantidades (HASHEM et al., 2015). Entretanto, a definição mais presente em
diversos trabalhos, segue o modelo conhecido como os “3 Vs” para descrever o que é
Big Data: volume, velocidade e variedade de dados. (CHEN; MAO; LIU, 2014).
Volume se refere à quantidade massiva de dados de todos os tipos, extraídos
de diferentes fontes e que não param de crescer. A escala de dados hoje gerados
chega a petabytes (1.024 terabytes) e até exabytes (1.024 petabytes). Segundo
relatório da IBM, todos os dias criamos 2.5 quintilhões de bytes de dados todos os
dias. Parte importante disso se deve ao fato da presença por todos os lados de
dispositivos com captação de dados das mais diversas formas. Para se ter ideia, o
número de usuários ativos de dispositivos móveis com uso de redes sociais chegou a
2,9 bilhões de pessoas, em janeiro de 2018. Além disso, o número de pessoas com
acesso à Internet chegou a 53% da população mundial, segundo números do relatório
Digital in 2018, divulgados pelos serviços online Hootsuite e We Are Social, vistos
na figura 2.

4
Variedade é o termo que se refere aos diferentes tipos de dados que são
coletados, extraídos destes citados dispositivos móveis, sensores, redes sociais e afins.
Os formatos desses dados são obtidos em diversos formatos como fotos, texto, vídeo
e áudio e são, em sua maioria, não-estruturados. A variedade nesses formatos gera
diversas possibilidades às empresas, que podem captar as impressões dos usuários
sobre sua marca por análises textuais no Twitter, por exemplo, avaliar nível de
engajamento em redes sociais, compreender melhor seu público consumidor, etc.
Observamos isso quando, após realizarmos uma busca ou falarmos sobre algum
interesse de compra em redes sociais, pouco depois recebemos diversas ofertas
erecomendações daquele tipo de produto.

Figura 2 - “Digital around the world in 2018”. Fonte: adaptado de We Are Social e
Hootsuite, 2018.

Velocidade, por sua vez, se refere à rapidez cada vez maior com que esses
dados são gerados, processados, armazenados e analisados. Sobre a velocidade de
processamento, ainda se mantém a máxima da Lei de Moore, que diz que, a cada 18
meses, a capacidade dos processadores dobra. Além disso, esses dados são
transferidos digitalmente de maneira cada vez mais veloz, nos dias atuais, com o
aumento de banda de internet.
Entretanto, além desses conceitos, outros dois “Vs” tão fundamentais quanto
para o entendimento do Big Data foram adicionados ao conceito, que são a
Veracidade e o Valor.
Veracidade se refere ao aspecto da qualidade dos dados, porque já que eles

5
são extraídos em quantidades massivas e são extremamente diversos em seus
formatos, não há possibilidade de esses dados serem 100% corretos (ISHWARAPPA;
ANURADHA, 2015). Por exemplo, os dados podem ser extraídos com imprecisão
devido a variação de palavras, tradução de informações, incompletude, etc. O desafio
é conseguir garantir a confiabilidade dos dados de maneira automatizada, por meio de
Softwares.
Valor é o aspecto principal do Big Data. (ISHWARAPPA; ANURADHA,
2015). Este termo se refere ao conhecimento absorvido a partir de análises de Big
Data, que podem ser utilizados de maneira efetiva para determinado fim. Uma forma
de identificar o valor absorvido da análise do Big Data é focar nos seguintes pontos:
identificar o conhecimento extraído que será efetivamente utilizado; verificar o
retorno sobre o investimento feito no big data; compreender a relevância para os
consumidores, por meio de análise dos sentimentos expressados por estes em mídias
sociais, por exemplo; etc. E estes resultados podem ser apresentados de diferentes
formas, que terão sua importância abordada no contexto de visualização de
informações. (STOREY; SONG, 2017).

Figura 3 – Os 5 Vs do Big Data. Fonte: Reprodução (STOREY, SONG, 2017)

6
Compreendendo o fenômeno do Big Data por estes 5Vs, podemos descrever
como se realiza a obtenção do conhecimento oferecido por ele e que pode gerar, no
fim, o apoio na tomada de decisão nas organizações, pelos seguintes processos:
obtenção e armazenamento dos dados (volume, velocidade e variedade); limpeza e
integração dos dados (veracidade); análise dos dados agora filtrados; visualização e
interpretação das informações obtidas; tomada de decisão (valor). (CHEN; ZHANG,
2014).

Figura 4 – Processos do Big Data. Fonte: adaptado de (CHEN, ZHANG, 2014)

Novas oportunidades costumam vir repletas de novos desafios e, ainda


segundo Chen e Zhang, no caso do Big Data não é diferente. Cada um desses
processos apresentados possuem uma série de desafios a serem solucionados, para
que seja possível obter o enorme valor que se encontra “escondido” nesta avalanche
de dados. São esses:

 Em coleta e armazenamento de dados: os dados são gerados em


quantidades cada vez maiores, principalmente pela onipresença dos
dispositivos que captam informações de forma constante, como
câmeras, microfones, softwares de leitura de logs e por aí vai.
Entretanto, o alto custo de captação desses dados, a falta de espaço de
armazenamento e, inclusive, a velocidade de desenvolvimento do
desempenho de equipamentos de armazenamento sendo menor do que
o crescimento de dados gerados, se mostram como desafios
importantes nesse contexto.

7
Mesmo o armazenamento em “nuvem” desses tem apresentado
desafios importantes, principalmente em tamanho de banda para a
transmissão desses dados, principalmente em casos de dados muito
grandes, bem como problemas diversos de segurança que essa
modalidade de armazenamento apresenta.

 Em curadoria de dados: essa parte dos processos do Big Data se


refere à preparação dos dados para o momento seguinte, que é o da
análise. Então, nesta fase é necessário que haja uma investigação dos
dados obtidos, recuperação, avaliação da qualidade dos dados,
agregação de valor aos dados e preservação dos mesmos. De certa
forma, os dados extraídos passam por uma filtragem, de modo a
proporcionar uma análise mais efetiva destes.
O desafio, nesse contexto, se apresenta da seguinte forma: os dados
crescem exponencialmente, enquanto as ferramentas de gerenciamento
de base de dados ainda possuem dificuldades de processar dados tão
grandes e complexos. Uma das dificuldades se dá no pré-
processamento desses dados, de modo a relacionar dados com
estruturas tão distintas, para que bancos de dados relacionais possam
processá-los. Imagine a captação de dados de percepções de
consumidores sobre sua marca em redes sociais. Os dados extraídos
serão nos mais diversos formatos como texto, vídeo, áudio, imagem,
etc. Esses dados virão em quantidades enormes e será necessário
trabalhar para limpá-los, transformá-los e catalogá-los, para só então
aumentar o nível da mineiração desses dados em um programa de
análise de Big Data, como Apache Hadoop ou MapReduce.

 Em análise de dados: os desafios impostos pelo Big Data em relação


à analise de dados também estão relacionados ao seu tamanho, que
torna com que a tarefa mais importante nesse sentido é conseguir
escalabilidade. Para tal, nos últimos tempos tem havido muito esforço
no sentido de acelerar algoritmos de análises para lidar com o
crescente volume de dados e tornar processadores mais velozes,
seguindo a lei de Moore.
8
Sobre as análises em si, o objetivo tem sido desenvolver algoritmos
cada vez mais eficazes para poder atender às necessidades dos
usuários. Como exemplo, a Netflix, em 2009, ofereceu um prêmio de
US$ 1 milhão para quem desenvolvesse um melhor algoritmo de
recomendação de filmes para o usuário, a partir de suas avaliações
anteriores. Hoje, os algoritmos da Netflix ajudam a empresa a gerar
US$ 1 bilhão por ano, somente com retenção de clientes (INSIDE BIG
DATA, 2018).

 Visualização de dados: o principal objetivo da visualização de dados


é representar as informações da forma mais intuitiva e efetiva para a
compreensão do usuário, utilizando uma forma gráfica (SIMOFF;
BÖHLEN; MAZEIKA, 2008). Para obtenção do conhecimento
oculto trazido pelo Big Data, é fundamental a representação visual de
maneira esteticamente atrativa e funcional, principalmente pelo fato
de lidarmos com os dados com todo o tipo de estrutura supracitadas,
ainda mais em quantidades tão grandes. Chen e Zhang citam o caso do
site de compras online e-Bay, que possui um fluxo enorme de
produtos vendidos e milhões de usuários ativos e faz uso da
ferramenta Tableau para compreender de maneira intuitiva e visual
todos os dados gerados por estes usuários.
Outra grande dificuldade imposta pela visualização de dados nesse
contexto do Big Data se refere à questão da escalabilidade, devido às
dificuldades de percepção, às informações em tempo real e a
necessidade de interatividade.
O olho humano possui dificuldades em extrair as informações
relativas a grandes quantidades de dados, então torna difícil tornar
escalaveis as visualizações de dados em big data. Além disso, existe
um limite de tela para apresentar todos os dados visualmente, então
precisamos buscar técnicas abstratas para apresentar os dados
visualmente (AGRAWAL et al, 2015). O mesmo autor autor
exemplifica da seguinte forma: “Given the resolution of conventional
displays (1~3 million pixels), visualizing every data point can lead to
over-plotting, overlapping and may overwhelm users perception and

9
cognitive capacities”.
Como o Big Data gera muitos dados em tempo real, é importante
elaborar visualizações para esse tipo de informação, possibilitando
análises e tomadas de decisão constantes. Entretanto, há uma grande
dificuldade em tornar esse tipo de visualização escalável, por conta
das dificuldades de processamento e da grande quantidade de dados
gerados em tempo real, o que torna consultas lentas e excede à
capacidade de armazenamento (AGRAWAL et al, 2015). O Twitter,
por exemplo, segundo report de 2017 da plataforma Omnicore, gera
em média cerca de 500 milhões de tweets por dia, e esses possuem
informações geográficas, de horário, um perfil de usuário, um
contexto dos caracteres e uma série de informações úteis, porém
difíceis de serem visualizadas facilmente.
Já a interatividade amplifica os benefícios dados pela visualização de
dados, já que visualizações interativas podem ajudar a compreender as
informações de forma mais rápida e eficaz. Entretanto, devido às
quantidades muito grande de dados, mesmo com uma redução destes,
leva muito tempo para as visualizações serem geradas, podendo gerar
travamentos no sistema e até um crash durante o processamento,
enquanto o sistema tenta gerar as visualizações (AGRAWAL et al,
2015).
Então, conhecendo as dificuldades impostas pela visualização de
dados, bem como as oportunidades que isso oferece, no contexto do
Big Data, discutiremos como funciona a visualização de dados, bem
como os players atuantes nesse mercado e o apoio nessa área para as
empresas.

3.2 Sistema visual humano e importância da visualização de dados

A visão, sem dúvidas, representa a nossa fonte mais diversa fonte de obtenção
de informações em relação ao mundo ao nosso redor (SEKULER; BLAKE, 2005). A
visualização de dados por meio de tabelas, por exemplo, pode ser útil para enxergar
uma informação individual, porém, a partir da inclusão de outros fatores para um

10
cruzamento de dados, os gráficos já começam a se tornar necessários (FEW, 2009). A
visão, como o nosso principal sentido, pode ser muito mais efetivamente explorada em
uma visualização gráfica, do que em formato de números, já que, quando se enxerga
somente o número em forma de texto, o processamento é muito mais lento do que
quando visto em forma de gráfico (FEW, 2009), que potencializa nossa capacidade de
raciocinar em cima da informação. A visualização dos dados feita de forma
equivocada pode, no máximo, oferecer informações rasas e, no pior dos casos, dar
direcionamentos errôneos, gerando gastos mal efetuados, que é o que buscamos evitar,
ainda mais de forma observada sobre o prisma do Big Data, que oferece diversas
oportunidades, porém gera altos custos.
Recentemente, o auxílio de computadores como ferramenta de apoio para o
aumento da efetividade da obtenção de conhecimento tem sido um importante tema de
pesquisa e investimento (CARD; MACKINLAY, 1997). Ainda mais com a avalanche
de dados já citada, bem como com o desenvolvimento de ferramentas de
processamento de dados e difusão na internet, o tema de visualização de informações
acabou surfando essa onda de desenvolvimento.
Uma definição básica de visualização de informações diz que é a utilização
representações visuais computadorizadas de dados abstratos que amplificam a
cognição (OSTERGREN et al., 2011, p. 1). Outra definição, agora mais abrangente,
por não se referir somente às visualizações produzidas por computação gráfica, diz
que a visualização da informação é um processo de transformação de dados que os
torna algo mais fácil de ser assimilado pelo usuário, baseando-se em características do
sistema visual humano (OSTERGREN et al., 2011).
Exemplos acerca da importância da visualização de dados se fazem presentes
desde muito tempo. O Dr. John Snow, um médico inglês pioneiro em técnicas de
anestesia com éter e clofoórmio, em meio a uma epidemia de cólera em Londres, no
século XIX, plotou em um mapa da cidade pontos correspondente à localidade das
mortes pela doença. Então, a partir desta imagem, foram observados clusters em volta
da Broad Street, nas bombas d’água. A partir disso, ele conseguiu convencer as
autoridades londrinas a remover as bombas e, mesmo não havendo o conhecimento
que ligava a contaminação da água à doença, a epidemia foi superada (RIEBER,
1995). Veja a imagem da dispersão das mortes em Londres por cólera, que
possibilitou essa análise:

11
Figura 5 – Mortes por cólera em Londres. Fonte: Geo Independência, 2013.

Um exemplo mais recente da importância da visualização efetiva de dados é o


caso do Departamento de Desenvolvimento da Dartmouth University. Apesar de
possuírem um banco de dados com informações de milhares de alunos, os gestores
dependiam da área de TI para gerar relatórios que nem sequer respondiam seus
critérios primordiais, que eram relativos ao potencial de doação dos alunos para a
universidade. Então, a instituição investiu em ferramentas de visualização que foram
desenvolvidas de modo que os gestores conseguissem, facilmente, de maneira rápida e
independente do TI, visualizar as informações que eram relevantes, por meio da
geração prévia de Dashboards, considerando critérios-chave. Em decorrência disto, o
gargalo no processo, que era a relação com o departamento de TI, foi superado e
informações que levavam 3 semanas para serem obtidas, passaram a levar 3 minutos
(TURBAN; VOLONINO, 2013).
A visualização efetiva de informações, auxilia, por meio da computação
gráfica, os profissionais a resolverem problemas (PURCHASE, 2008). Isso é
alcançado por meio da potencialização da cognição do usuário dos dados, facilitando a
obtenção do conhecimento gerado pelas informações, graças à apresentação de
maneira visual e clara. Isso resulta na maximização do aprendizado e da captação de

12
informações pelo usuário e, por consequência, uma melhor qualidade no processo
decisório do gestor, afinal, o diagnóstico é fundamental para a resolução efetiva de
algum problema.
A formulação da visualização de dados pode ser elaborada a partir de alguns
modelos de referência. No processo apresentado na figura 6, por exemplo, propõe-se a
coleta dos dados brutos, seguido de sua organização, depois a escolha de uma
estrutura visual para, então, ser efetuada a montagem da visualização, possivelmente
no modelo de painéis interativos (Card et al. 1999; Ware 2013; Spence 2001).
Nesse modelo, é simples traçar um paralelo entre o processo de obtenção do
conhecimento oferecido pelo Big Data, apresentado na sessão anterior, com o
processo de elaboração da visualização de informações. Os dados brutos,
exemplificando por esse contexto, são os dados extraídos de dispositivos com sensores
que geram dados, de redes sociais, de dados de navegação na web, pesquisas em
ferramentas de busca, cookies gerados nos sites, conversas por dispositivos de
mensagem, vídeos postados em diversos servidores, hábitos de e-commerce e por aí
vai. Esses dados serão, então, mineirados e tratados, fazendo uso de softwares
específicos.

Figura 6 – Processo de elaboração de visualização de informações. Fonte: adaptado de


(Valiati, 2008).

A partir da definição de elementos-chave para a execução das análises


requeridas pelo contexto da organização, essas informações seriam trabalhadas

13
considerando metodologias para otimizar a visualização dos dados e seriam montados
painéis interativos, sempre com o foco em tornar a visualização dos elementos-chave
o mais simples possível, possibilitando a descoberta de novas oportunidades e
eventual correção em tempo-real de problemas para a organização, por exemplo.
Outro modelo de elaboração de visualizações é descrito por Ware (2013, p. 4).
Segundo ele, este processo é composto por quatro estágios básicos: coleta e
armazenamento de dados; pré-processamento para a manipulação destes dados,
normalmente como uma forma também de “separar o joio do trigo”, mantendo
somente as informações que são relevantes para o objetivo da criação daquela
visualização; a transformação dos dados coletados e manipulados em uma
apresentação visual, por meio, normalmente, de computação gráfica; e, finalmente, a
percepção da informação pelo sistema cognitivo do usuário.
Nos dois primeiros estágios descritos por esse processo, há um importante
apoio no conceito de data mining (XAVIER, 2009, p. 52), que é o processo de
descoberta de conhecimento a partir da extração de informações antes desconhecidas
de bancos de dados muito grandes, encontrando relações que antes se escondiam em
meio a essas informações. Estas relações acabam por fornecer informações relevantes
em relação àquilo que está sendo estudado (KOPANAKIS; THEODOULIDIS, 2003,
p. 543 e 544). Esse conceito é fundamental, falando sobre o contexto do Big Data.
Conforme dito nas sessões anteriores, uma das problemáticas do Big Data é a curação
dos dados que são extraídos e, assim, é fundamentação um pré-processamento dos
dados antes de seu armazenamento, garantindo dados mais limpos, transformados e
catalogados.
Sobre a percepção do usuário em relação ao que é apresentado a ele, existem
diversos estudos para tentar otimizar esse processo de recepção. Para embasar estes
estudos, foram feitas análises a partir da classificação das variáveis da retina (Figura
7), descritas por Bertin (1983), que faz uma diferenciação entre propriedades espaciais
e de objetos. E, segundo Card “[...] they are sorted according to whether the property
is good for expressing the extent of a scale (has a natural zero point), or whether its
principal use is for differentiating marks […]” (CARD, 2009).

14
Figura 7 – Variáveis da retina. Fonte: Card, 2009

Essas propriedades da retina descritas por Bertin estão atreladas ao


processamento de pré-atenção (CARD, 2009). A pré-atenção está ligada à acumulação
de informação do ambiente em que estamos inseridos no subconsciente (ATIENZA et
al, 2001). Nesse estado de pré-atenção, são processadas algumas propriedades visuais,
agrupados em quatro categorias: forma, cor, movimento e posição espacial (MAZZA,
2009). Ware (2013) e Mazza (2009) descrevem exemplos de manifestações destas
categorias, como:

Forma: orientação, comprimento, tamanho, curvatura, agrupamento espacial,


marcas espaciais, formato e quantidade;
Cor: matriz e intensidade;
Movimento: piscar e direção;
Posição espacial: profundidade, posição em duas dimensões.

As propriedades descritas podem auxiliar na orientação da elaboração de


estruturas de visualização de informações. Isso porque pode orientar sobre como
representar o conteúdo da visualização de maneira a facilitar a percepção do usuário.
Outro ponto relevante é que, a partir de estudos neurofisiológicos, Collin Ware
defende que grande parte da percepção humana é transcultural. Ele indica que,
independentemente de onde uma pessoa viva, há diversos elementos essenciais que
são onipresentes no planeta. Essa onipresença de certos elementos básicos como
formas, cores, texturas etc, faz com que todos nós desenvolvamos, essencialmente, o
mesmo sistema visual, independente da cultura onde estamos inseridos (WARE, 2013,
p.11). Isso faz com que a percepção visual tenda a ser a mesma.
Entretanto, reconhecer particularidades culturais de determinados grupos é

15
parte fundamental da montagem da visualização de informações. Isso porque certas
comunidades possuem maior fluência para a percepção de certas visualizações do que
outras. Por exemplo, um radiologista possui facilidade para analisar uma chapa de
raio-x, já estatísticos possuem maior fluência para interpretar diferentes tipos de
gráficos (WARE, 2013, p.16).
Ainda segundo Ware (2013, p. 21), a percepção visual humana pode ser
dividida em três etapas, que são as seguintes:

Processamento paralelo: é a primeira parte do processamento da percepção


visual, que se caracteriza pela forte independência do que escolhemos visualizar.
Trata-se de um processamento rápido, que deve ser aproveitado caso precisemos que o
usuário perceba rapidamente as informações que queremos transmitir. Nesse caso, a
visualização deve ser feita pensando em como ela possa ser absorvida por esse
processamento rápido. Na figura 8, temos um exemplo de uma visualização no estado
de pré-atenção, onde temos um círculo vermelho em meio a vários outro azuis. Como
a percepção de cor faz parte do nosso estado de pré-atenção, a visualização do círculo
vermelho torna-se imediata (KERREN et al., 2008).
Reconhecimento de padrões: estágio onde a grande quantidade de
informações que foi captada na fase anterior, começa a ser dividida por padrões como
cores, texturas, forma etc.

Figura 8 – Exemplo de informação obtida no estado de pré-atenção. Adaptado de:


Kerren et al., 2008.

Memória visual de trabalho: este estágio se caracteriza por atuar sob o estado

16
de atenção, onde são feitas buscas visuais conscientes. Poucos objetos são analisados
por vez e, posteriormente, são armazenados na memória visual de trabalho.
Se o estágio de pré-atenção é executado pelo sistema visual de baixo nível,
onde há uma percepção quase independente de cor, forma, orientação, com pouca ou
nenhuma ação da consciência (MAZZA, 2009, p.34; WARE, 2013, p.22), o estágio de
atenção, por sua vez, implica uma atividade consciente. Neste caso, todo o sistema
perceptivo visual será constantemente utilizado, de acordo com nossas expectativas e
com o que será mais útil para nós. (WARE, 2013, p.22).
Compreendendo essa teoria, podemos concluir que a forma com que é
visualizada a informação em questão é fundamental para a facilitação da obtenção do
conhecimento. Portanto, no contexto da gestão organizacional, é fundamental que haja
um cuidado especial na elaboração de visualizações, pois esse fator pode ser muito
importante na efetiva obtenção do conhecimento pelo gestor e, por consequência, na
qualidade de suas decisões. Diante do cenário competitivo que o mercado apresenta
hoje, é fundamental a correta compreensão, por parte das organizações, do que o
contexto de mercado, seja num viés do consumidor, ou até mesmo socioeconômico e
cultural, está pedindo. Os dados necessários para essa compreensão nós temos
disponíveis, cada vez mais. Porém, como lidamos com esses dados é peça-chave para
o sucesso competitivo.
Diante dessa necessidade que o cenário atual apresenta, onde a visualização de
dados tomou papel muito importante, além da figura do CDO (Chief Data Officer),
fundamental para orquestrar como os dados podem ser melhor geridos pela
organização, uma nova função tem sido discutida no mercado: o CDVO (Chief Data
Visualization Officer), que seria uma figura central que se dedicaria a uma abordagem
geral aos dados e ao BI da organização, com ênfase em oferecer uma visão estratégica
a como esses dados são consumidos dentro da organização. Ou seja, como a
visualização de dados oferece o conhecimento aos gerentes da empresa.

4. Novas Tecnologias e Ferramentas de Visualização de Dados

Conforme anteriormente exposto, a abordagem da visualização de dados se


relaciona às técnicas utilizadas para criar tabelas, imagens, diagramas e outras formas
de exibição inutitivas para facilitar a compreensão dos dados e obter o conhecimento
por eles transmitidos (CHEN; ZHANG, 2014). Também foram discutidas as

17
dificuldades de elaborar visualizações de dados efetivas, no contexto do Big Data e,
nesse sentido, existem exemplos de pesquisas para desenvolver tecnologias de modo
enfrentar esses desafios impostos. Dois exemplos serão abordados: Data Cube e
Nanocube; e imMens.

4.1.1 Data Cube e Nanocube


Data cubes são estruturas que realizam agregações em todas as
possíveis dimensões de uma tabela em um banco de dados,
possibilitando uma exploração rápida dos dados (LINS, KLOSOVSKI,
2013). Recentemente, pesquisadores começaram a desenvolver
algoritmos baseados nessa tecnologia com o objetivo de gerar
visualização de dados para o Big Data, principalmente por conta da
escalabilidade do tempo-real que esse tipo de abordagem oferece, para
explorar visualizações multimensionais e espaço-temporais, de forma
muito rápida. Um desses exemplos é o Nanocube. Para ilustrar, na
Figura 9 temos a distribuição geográfica de Tweets por dispositivo nos
Estados Unidos, gerada no Nanocube.

Figura 9 – Geolocalização de Tweets. Fonte: Cool Visualization, 2013

4.1.2 imMens
O imMens trata-se de uma plataforma online para interações em tempo
real com resumos visuais escaláveis de Big Data (LIU et al, 2013). Para

18
tornar as visualizações escaláveis e interativas, o sistema se utiliza da
estratégia de redução de dados chamada data binning, que resulta em
pontos mapeados agrupados por variáveis como: numérico, ordinal,
temporal e variáveis geográficas.
Na Figura 10, vemos o exemplo de duas visualizações distintas para a
base de dados de check-ins de usuários do Brighkite, uma rede social já
extinta, onde as pessoas compartilhavam suas localizações e interagiam
entre si: à esquerda, o Google Fusion Tables, mapeando os pontos no
mapa; à direita, o imMense, fazendo agrupamentos e gerando um mapa
de calor.
Comparando, o Fusion Tables gera diversas sobreposições no mapa e a
amostragem perde informações importantes, como as viagens pelas
rodovias interestaduais que o mapa de calor mostra. Além disso, o
imMens consegue interagir em tempo real com os dados gerados,
adaptando a visualização.

Figura 10 – Comparativo Google Fusion Tables e imMens.

Novas tecnologias mostram novas oportunidades para o enfrentamento dos


desafios impostos pelo Big Data. No contexto da visualização de dados, uma série de
outros estudos estão sendo feitos para solucionar os desafios que a avalanche de dados
impõe, e essas só são dois exemplos. Entretanto, para o apoio à gestão com a
visualização de dados, já existem uma série de ferramentas consolidadas no mercado,
que será a discussão na próxima sessão.

19
4.2 Ferramentas de Visualização de Dados

Conforme abordado, a visualização de dados é muito importante para o auxílio


na tomada de decisão, visto que facilitam a obtenção do conhecimento por meios
gráficos e, com isso, a absorção do conhecimento torna-se mais eficaz, o que qualifica
o processo decisório. Além disso, a visualização de dados permite a interação com os
dados, levando a análise para um nível além. Porém, como essas visualizações são
geradas? Existem ferramentas que auxiliam nessa criação de visualizações nos ajuda a
enxergas os dados em minutos.
Diversas ferramentas de visualização de dados se relacionam com a plataforma
Hadoop, que possui módulos que analisam muito bem a avalanche de dados, porém,
não é eficiente na elaboração de visualização dos dados (WANG et al, 2015). Essas
ferramentas, entretanto, desenvolvem visualizações para os dados que são
administrados nesse contexto. Ferramentas de Business Intelligence, nos dias atuais,
possuem funcionalidades importantes de visualização de dados, devido à importância
deste tópico. O relatório Gartner, inclusive, indica que a descoberta de dados por meio
de métodos gráficos é um recurso fundamental nas plataformas modernas de
Bussiness Intelligence. Portanto, o Quadrante Gartner – que é uma representação
gráfica que define forças, dentro de determinados segmentos de tecnologia, de players
atuantes na área, por um determinado período – de ferramentas de BI, atualizado em
fevereiro de 2018, pode ser um meio de entendermos quais são as ferramentas mais
importantes atuando no mercado.
O Quadrante Mágico de Gartner para ferramentas de BI define 15 recursos
críticos para esse tipo de plataforma, que são avaliados em 5 casos de uso distintos,
que são: provisionamento de BI centralizado e ágil; análise descentralizada, que inclui
a capacidade da ferramenta de haver um autoatendimento do usuário para visualizar as
informações que precisa; detecção de dados regulamentada; OEM ou BI incorporado,
que indica a capacidade da ferramenta de trabalhar com conteúdo incorporado em um
processo ou aplicativo; Implantação de Extranet, que indica a capacidade de
apresentar os dados para clientes externos das empresas que contratam a ferramenta,
ou, no caso do setor público, no acesso da população aos dados. Os 15 recursos
críticos citados estão agrupados em infraestrutura, gestão de dados, análise e criação
de conteúdo, compartilhamento e, por fim, capacidades gerais da ferramenta.
Dentre as ferramentas descritas no gráfico, vemos, no quadrante superior, que

20
define aquelas ferramentas que são tidas como mais visionárias e líderes no mercado,
as plataformas da Microsoft (Power BI), o Tableau e o Qlik. As três possuem diversas
funcionalidades e servem como ótimo apoio para a criação de visualização de dados.
Veremos as funcionalidades disponíveis em cada uma.

4.2.1 Tableau
Tableau é um software de BI que possui ferramentas de visualização
interativa de dados. Este software se divide em vários produtos que são
capazes de processas grandes quantidades de dados, como Tableau
Desktop (um software que é instalado no sistema operacional), Tableau
Online e Tableau Server. O Tableau trabalha com o armazenamento de
cache das análises, ajudando a melhorar o tempo de espera de
processamento de informações (WANG et al, 2015). A ferramenta pode se
conectar às mais diversas fontes de dados, desde o Excel aos clusters
Hadoop.
A ferramenta se destaca como um dos líderes do segmento devido a uma
série de fatores. O ótimo desempenho da ferramenta em gerar visualizações
de dados intuitivas, podendo gerar painéis analíticos para quase toda fonte
de dados possível, é um dos pontos principais. A facilidade nesse sentido,
como em gerar visões de geolocalização com um clique, funções
avançadas apenas “arrastando e soltando” campos e o auxílio da própria
ferramenta em criar cálculos, oferecem grande apoio aos usuários.
Segundo o relatório Gartner, mais de 55% dos clientes do Tableau estão
utilizando a ferramenta para capacitar equipes que forneçam o conteúdo
para os usuários de maneira rápida e interativa, sendo 52% desses clientes
considerando o Tableau como o padrão da organização. Na organização
onde trabalho, uma grande empresa do setor de saúde, por exemplo, o
Tableau é a ferramenta de referência para todos os reports e dashboards da
empresa, seja em desempenho de vendas, análise de desempenho
comercial, logística, acompanhamento do preço médio de venda para o
varejo, entre outros, sempre a partir da criação de relatórios automáticos e
interativos, que agregam dados dos mais diversos sistemas, como Oracle e
SalesForce.
Embora a ferramenta possua grande destaque, o crescimento de players

21
com um custo menor e a aproximação das funcionalidades entre as
ferramentas tornam o ambiente muito mais competitivo. O custo de licença
de Tableau é muito alto, o que gera problemas quando há o comparativo
com as ferramentas menos custosas, como o Microsoft Power BI.
Algumas das empresas que utilizam a ferramenta, segundo a própria
empresa, são: Barclays, Citibank e a Coca-cola.

Figura 11 – Interface e gráficos do Tableau

4.2.2 Microsoft Power BI


O Power BI é a ferramenta de Bussiness Intelligence da Microsoft, que
surgiu a partir da união de diferentes ferramentas contidas no Excel,
oferecendo soluções mais fáceis para analisar e apresentar dados de
maneira visual. A plataforma se divide em diferentes versões: Power BI
Desktop, que é a ferramenta instalada no sistema operacional e utilizada
para desenvolver e publicar painéis e relatórios; Power BI Service, que é a
versão online da plataforma; Power BI Mobile, que é a versão para
Smartphones, que possibilita a visualização de Dashboards e painéis pelo
celular; Power BI Premium, que é a versão empresarial da ferramenta, que
foi lançada no ano de 2017.
O Power BI segue a estratégia “cinco por cinco” da Microsoft, que são
“cinco segundos para assinar e cinco minutos para impressionar o cliente”
e a ferramenta cumpre bem esse papel, com a facilidade de inscrição até
22
mesmo após o download, exigindo somente um e-mail corporativo, e com
a aparência da ferramenta, que chama a atenção positivamente de forma
rápida. Após a assinatura, o usuário individual ganha um login grátis pelo
período de 60 dias e, posteriormente, é necessário que seja realizado a
assinatura da plataforma. Porém, isto não é problema, visto que o Power BI
tem como um de seus destaques o baixo preço: US$ 9,99 por mês para
usuários individuais, o mais baixo dentro do mercado.
A facilidade do uso é outro destaque da ferramenta e é apontado como
fator determinante para a compra por 14% dos usuários, segundo o
Relatório Gartner. Um grande destaque nesse sentido é a possibilidade de
um usuário conseguir gerar análises a partir de uma pergunta, dentro da
ferramenta. O P&R contido na ferramenta permite que o usuário escreva,
por exemplo “total de vendas por fabricante”, o Power BI compreende a
pergunta e, automaticamente, gera a visualização. Outro ponto interessante
é o fórum de usuários do Power BI, onde os usuários sugerem melhorias
para ferramenta e as sugestões mais votadas são desenvolvidas pela
Microsoft. Veja, na Figura 12, um exemplo de relatório no PBI.

Fig. 12 – Visualização de Relatório do Power BI

4.2.3 Qlik
O Qlik é outra companhia no quadrante de líderes do mercado, com suas
duas ferramentas: Qlik View, que é um produto tradicional de BI, e o Qlik

23
Sense, que se enquadra como uma ferramenta de BI self-service e já
superou 50% dos clientes da empresa. A ferramenta é capaz de se conectar
a quase toda fonte de dados e suporta modelagem de dados complexas e
cálculos complexos, além de apoiar na criação de visualizações.
Entretanto, não é tão simples de aprender as funcionalidades dos produtos
Qlik e criar visualizações interativas como no Tableau e no Microsoft
Power BI.
O Qlik Sense oferece fontes de dados públicos que vão desde informações
demográficas, até de clima e auxiliam no enriquecimento de análises na
ferramenta. Além disso, no início do ano passado, a Qlik adquiriu a Idevio
para trazer funcionalidades geoanalíticas para dentro da ferramenta.
Entretanto, o Qlik possui algumas dificuldades, como o autoatendimento
em análise e preparação de dados, visto que o Qlik Sense ainda é uma
ferramenta recente, o que gera dificuldade do próprio cliente acessar e
combinar diferentes fontes de dados para a criação de visualizações.
Além disso, a exemplo do Tableau, o Qlik é uma ferramenta de custo
elevado e 27% dos seus clientes citam o custo do software como uma
limitação para a implantação mais ampla da ferramenta.

Figura 13 – Exemplo de Visualização no Qlik Sense

24
5. Análise dos Resultados

A pesquisa foi realizada por meio de pesquisa bibliográfica para compreensão


do cenário em que estamos inseridos tecnologicamente e a importância que a
visualização de dados tem no contexto da avalanche de dados, bem como a
compreensão de como o ser humano capta informações visualmente e como uma
visualização eficaz pode auxiliá-lo no processo decisório para, no fim, trazer uma
avaliação das principais ferramentas de Business Intelligence que apoiam à
visualização de dados no mercado, utilizando o quadrante de líderes no Quadrante
Mágico de Gartner de ferramentas de BI de 2018.
As três ferramentas apontatas (Tableau, Microsoft Power BI e Qlik) podem
oferecer grande apoio à criação de visualizações nas organizações. As três
ferramentas, entretanto, possuem pontos de vantagem e desvantagem, em relação ao
mercado, que auxiliam na diferenciação entre elas. Por isso, vamos descrever alguns
desses pontos para compreender quais os destaques de cada ferramenta e tentar
oferecer uma previsão de qual ferramenta tende a se destacar mais no futuro breve.

5.1 Tableau
5.1.1 Vantagens
 Tempo de mercado: o Tableau possui 15 anos de experiência e teve
tempo para adquirir experiência e evoluir nas funcionalidades da
ferramenta, se tornando a ferramenta com mais abrangência no
mercado. Somente na conferência anual de usuários do ano passado,
foram recebidos 14.000 participantes e que apoiam no desenvolvimento
da ferramenta com feedbacks e sugestões.
 Visualização: o Tableau gera uma série de visualizações rápidas, que
vão desde gráfico de dispersão, visualizações de linhas e várias outras,
mas com um grande destaque para visões geográficas, ponto onde o
Tableau possui grande vantagem. Além disso, o Tableau não limita o
número de pontos de dados a serem visualizados na análise.
 Flexibilidade: o Tableau pode ser implantado na nuvem, ou com um
servidor local e tem uma grande capacidade de integração com os
sistemas internos da organização. Minha experiência nesse sentido é
com a enorme integração que o Tableau faz, fazendo com que seja
25
possível gerar visualizações diárias para informações de todos os
sistemas da empresa onde atuo. As vendas vêm de mais diversas filiais
e são automaticamente transferidas, ficando disponíveis nas fontes de
dados da empresa. Entretanto, as informações não vêm em tempo real,
estando disponíveis sempre day-1.

5.1.2 Desvantagens
 Custo: O Tableau pode ser, por exemplo, de 9 a 10 vezes mais caro do
que o Microsoft Power BI e, com as funcionalidades de visualização de
dados e análises se tornando mainstream nas ferramentas de BI, isso
pode gerar dificuldades para a ferramenta.
 Cálculos para geração de análises: trata-se de uma ferramenta de mais
difícil manipulação do que o Microsoft PowerBI, por exemplo. Isso
tanto na criação de conexões entre bases, já que exige um maior
conhecimento do que no PBI, onde só é preciso arrastar com um clique
e conectar diferentes fontes de dados. Além disso, a linguagem de
cálculos do Tableau é menos intuitiva para o usuário médio, exigindo
uma equipe com foco exclusivo nos dashboards, que seja capaz de
alimentar os clientes internos com as análises interativas, auxiliando na
visualização das informações relevantes.

5.2 Microsoft Power BI

5.2.1 Vantagens:
 Preço: O Microsoft Power BI é a ferramenta de mais baixo custo no
quadrante de líderes. A ferramenta Power BI Desktop é gratuita e
ainda oferece 60 dias grátis para o uso da versão PRO, com
possibilidade de gerar e compartilhar dashboards entre diferentes
usuários. A licença desse tipo para um usuário único é de US$ 9,99,
cerca de 9 a 10 vezes mais baratas do que o Tableau.
 Facilidade de uso: Por se tratar de uma ferramenta da Microsoft, o
Power BI tem boa parte de sua linguagem (DAX) idêntica ao do
MS Excel, que é uma das ferramentas mais utilizadas no mundo.

26
Além disso, conexões entre fontes de dados podem ser feitas com
um clique, bem como diversas funções de cálculos.

 Função Q&A: Outra funcionalidade que gera muita facilidade ao


usuário é a função Q&A (perguntas e respostas), onde o usuário
pode fazer uma pergunta sobre seus dados à ferramenta e é gerada
uma visualização automática. Nas figuras 14 e 15 vemos,
respectivamente, a tela anterior à realização da pergunta e o
resultado dado pela ferramenta.

Figura 14 – Tela de pergunta ao PBI

Figura 15 – Resultado após a pergunta

5.2.2 Desvantagens:
 Limitação para a criação de visualizações: O Power BI, apesar de

27
ter um visual muito impressionante, gerando dashboards
extramamente atrativos ao usuário, possui uma limitação de pontos
a serem visualizados geograficamente, por exemplo.
 Previsibilidade: O MS Power BI está abaixo das outras ferramentas
quando falamos de modelos preditivos, quando é requerida
estabilidade e os requerimentos são compreendidos e podem ser
identificados com análises. O Power BI deixa a desejar em termos
de distribuição de relatórios agendados, dificuldando aplicação em
grande escala organizacional, tendo um foco maior no
autoatendimento do usuário.

5.3 Qlik
5.3.1 Vantagens
 Escalabilidade: a Qlik oferece uma capacidade muito robusta de
realizar cálculos e modelagens complexas para grandes quantidades de
dados, possibilitando compartilhamento para muitos usuários e com
bom desempenho, levando vantagem em relação ao MS Power BI
nesse sentido.
 Tempo de Mercado: a Qlik se encontra junto à Tableau nesse sentido,
por ser uma empresa de longa trajetória e uma ferramenta já
consolidada no mercado, com uma rede enorme de parceiros. Além
disso, a consistência no mercado propiciou a aquisição de novas
companhias que enriquecem as ferramentas da empresa, comoa Idevio,
que realiza as análises geolocalizadas.

5.1.2 Desvantagens
 Serviços de autoatendimento: diferentemente do Tableau e do MS
Power BI, o Qlik não tem como uma grande força a facilidade no
autoatendimento do usuário. O processo de geração de conexões entre
diferentes fontes de dados e exploração visual das análises exige um
processo mais complexo do que as outras ferramentas descritas,
exigindo, muitas vezes, uma equipe dedicada à criação de dashboards
solicitados.

28
 Alto custo: assim como o Tableau, a ferramenta está em desvantagem
em relação ao MS Power BI quando se fala de custo de implementação
da ferramenta.Segundo o Relatório Gartner, 27% dos clientes de
referência citaram o custo como uma limitação para implantação mais
ampla da plataforma.

6. Conclusão

Conforme apresentado ao longo do presente trabalho, a visualização de dados é


parte central da gestão organizacional, apoiando e qualificando decisões, por meio do
enriquecimento da transmissão de informações, principalmente no atual contexto,
onde precisamos lidar com uma quantidade imensa de dados, impossíveis de serem
compreendidos se não for de maneira visual. Posto isto, expusemos que a
implantantação de uma ferramenta de Business Intelligence é peça-chave na
efetividade da visualização de dados em uma organização, visto que esse tipo de
funcionalidade tem sido ponto essencial nessas plataformas. Na sessão anterior,
expusemos algumas vantagens e desvantagens das três principais ferramentas dessa
natureza e há uma compreensão de que todas se aplicam a diferentes necessidades.
O Tableau e o Qlik são muito mais efetivos que o Microsoft Power BI para
aplicações de grande escala, com distribuição de relatórios para muitos usuários.
Porém, o Power BI, mesmo sendo uma ferramenta extremamente recente, graças à
expertise da Microsoft e ao engajamento dos usuários da ferramenta, consegue ser
mais efetivo que as duas ferramentas quando for necessário gerar visualizações de
dados de menor escala, sendo muito mais simples conectar diferentes fontes de dados
e gerar novos insights. Ambos permitem consultas sem limites, a depender da
capacidade de processamento da máquina e do espaço em tela.
Em compensação, enxergo o Microsoft Power BI como uma ferramenta que
parte de uma modelagem muito mais moderna. Como a modelagem dos dados para o
PBI é tabular, a construção dos modelos é feita de maneira relacional, entre tabelas e
colunas, enquanto que nas outras ferramentas ainda se enxergam cubos, dimensões e
medidas, visões típicas do início do século. A modelagem tabular do PBI torna o
desempenho da ferramenta melhor e as bases mais leves, tornando o autoatendimento
ainda mais eficaz. O poder do Power BI em termos de autoatendimento na ferramenta,
que gera enorme facilidade de criação de Dashboards interativos no Power BI

29
Desktop, que podem ser publicados no Power BI Public e compartilhados com outros
usuários, também em versão mobile, incomodou o Tableau e o Qlik, que passaram a
oferecer ferramentas do tipo SaaS (Software as a service) e flexibilizar os preços por
usuário, devido ao baixo custo do PBI.
A ferramenta oficial de Business Intelligence na empresa em que atuo é o
Tableau e, para a criação de dashboards de acompanhamento de vendas para a área
comercial, foi necessário a ajuda de uma consultora externa, prestando serviços
durante 30 dias, até oferecer resultados. Com o PBI, conseguimos desenvolver uma
versão muito mais visual e interativa dos dashboards para a diretoria em 3 dias,
contando com o tempo de processamento dos dados no Data Warehouse da empresa,
que gerou um fluxo muito grande. Isto serve como ilustração para a facilidade que o
Power BI oferece para os usuários. Entretanto, ainda está atrás das outras ferramentas
quando a quantidade de dados chega a certo ponto.
De modo a ilustrar tudo que foi dito, foi preparado um comparativo gráfico
entre as ferramentas (Figura 16), onde 5 estrelas correspondem à pontuação máxima
que cada ferramenta pode atingir nos critérios que foram observados, que são:
autoatendimento, escalabilidade, visualização de dados, preço e análise de grandes
quantidades de dados.

Figura 16 – Comprativo de Ferramentas de BI

Portanto, compreendemos que o Tableau e o Qlik são as principais opções no

30
mercado de plataformas de Business Intelligence para análise e visualização de
grandes quantidades de dados. O Tableau leva vantagem pelas visualizações serem
mais completas e mais simples de serem executadas do que no Qlik. Entretanto, o
Microsoft Power BI aparece como uma grande alternativa para dados em menos
escala, de poucos GBs, mas prevejo que a ferramenta se desenvolverá e, se mantiver o
atual ritmo de crescimento, deverá conseguir se tornar mais escalável e, com as
funcionalidades que já possuem, poderá se tornar a melhor opção no mercado também
para visualização de dados em Big data.

31
REFERÊNCIAS
AGRAWAL, R et al. Challenges and Opportunities with Big Data Visualization.
Proceedings of the 7th International Conference on Management of computational
and collective intElligence in Digital EcoSystems, p. 169-173, 2015.

ATIENZA, M.; CANTERO, J.L; ESCERA, C. Auditory information processing during


human sleep as revealed by event-related brain potentials. Clinical Neurophysiology,
v. 112, n. 11, 2031-2045, 2001.

BUSINESS WIRE. Qlik Introduces Next-Generation Data Visualization and Discovery


Application – Qlik Sense. Disponível em:
<https://www.businesswire.com/news/home/20140724005065/en/Qlik-Introduces-
Next-Generation-Data-Visualization-Discovery-Application>. Acesso em 15 de ago de
2018.

CARD, S. K. Information Visualization. Em: SEARS, A; JACKO, J.A. Human-


Computer Interaction: Design Issues, Solutions, and Applications. Florida, EUA: CRC
Press, 2009. 382 p. Cap. 10. p. 181-216.

CARD, S. K.; MACKINLAY, J. D.; SHNEIDERMAN, B. Readings in Information


Visualization: Using Vision to Think. Morgan Kaufman Publishers, 1999.

CHEN, Min; MAO, Shiwen; LIU, Yunhao. Big data: A survey. Mobile networks and
applications, v. 19, n. 2, p. 171-209, 2014.

CHEN, CL P; ZHANG, CY. Data-intensive applications, challenges, techniques and


technologies: A survey on Big Data. Information Sciences, v. 275, p. 314-347, 2014.

FEW, Stephen; Now You See It: Simple Visualization Techniques for Quantitative
Analysis. 1ª edição. Analytics Press, 2009.

HASHEM, I. A. T., YAQOOB, I., ANUAR, N. B., MOKHTAR, S., GANI, A., &
KHAN, S. U. The rise of “big data” on cloud computing: Review and open research
issues. Information Systems, v. 47, p. 98-115, 2015.

32
IBM. 10 Key Marketing Trends for 2017 and Ideas for Exceeding Customer
Expectations. Disponível em: <https://www-01.ibm.com/common/ssi/cgi-
bin/ssialias?htmlfid=WRL12345USEN>. Acesso em 15 de ago de 2018.

INTEL. 50 Years of Moore's Law. Disponível em:


<https://www.intel.com/content/www/us/en/silicon-innovations/moores-law-
technology.html>. Acesso em 15 de ago de 2018.

Inside Big Data. How Netflix Uses Big Data to Drive Success. Disponível em:
<https://insidebigdata.com/2018/01/20/netflix-uses-big-data-drive-success/>. Acesso
em 15 de ago 2018.

ISHWARAPPA, ANURADHA, J.; A Brief Introduction on Big Data 5Vs


Characteristics and Hadoop Technology. Procedia Computer Science, v.48, p. 319-
324, 2015.

KERREN, A. et al. Information Visualization: Human-centered Issues and Perspectives.


Berlim, Alemanha: Springer-Verlag Berlin Heidelberg, 2008.

KOPANAKIS, I.; THEODOULIDIS, B. Visual data mining modeling techniques for


the visualization of mining outcomes. Journal of Visual Languages and Computing,
v.14, n.6, p. 543-589, 2003.

LINS, L, KLOSOWSKI, J T., SCHEIDEGGER, C. Nanocubes for Real-Time


Exploration of Spatiotemporal Datasets. Visualization and Computer Graphics,
IEEE Transactions on 19, no. 12, 2456-2465, 2013.

LIU, Zhicheng; JIANG, Biye; HEER, Jeffrey. imMens: Real‐time Visual Querying of
Big Data.Computer Graphics Forum. Blackwell Publishing Ltd, 2013. p. 421-430.

HOWSON, C; SALLAM, R; RICHARDSON, J.L; TAPADINHAS, J; IDOINE, C.J;


WOODWARD, A. Magic Quadrant for Analytics and Business Intelligence Platforms.
Disponível em: <https://www.gartner.com/doc/reprints?id=1-

33
4PUK79W&ct=180130&st=sb&mkt_tok=eyJpIjoiTUdOa016VXdZV0V3WW1ZNCIsI
nQiOiJ5Umt0aFJDZEdxUjdSYjFzZ1MwaUtYRFVvN0JpbnlVZWprVkJobjJRenVSa0
ppQ2lvQ0IrTmE0UnJDT2hBcm9seDljMXlHTFBMOU5mbGxpUitlbzJJXC9oRXhzTF
pXdEp4QkpQazFjMEJocllWc1NDdkFvR3hTMUsrRko5V2tsd0kifQ%3D%3D>.
Acesso em 15 de ago de 2018.

MAZZA, Riccardo. Introduction to Information Visualization. Londres: Springer


Science & Business Media, 2009.

OSTERGREN, M. et al. A vision for Information Visualization in Information Science.


Em: Proceedings of the 2011 iConference, ACM, 2011, p. 531-537, 2011.

PURCHASE, H C. et al. Theoretical Foundations of Information Visualization. Em:


Information Visualization. Springer, Berlin, Heidelberg, p. 46-64, 2008.

RIEBER, Lloyd P. A Historical Review of Visualization in Human Cognition.


Educational Technology Research and Development, v. 43, n. 1, p. 45-56, 1995.

SAGIROGLU, S., SINANC, D.; Big Data: A Review. Collaboration Technologies


and Systems (CTS), 2013. International Conference on IEEE, p. 42-47, 2013.

SEKULER, R., BLAKE, R.; Perception. 5ª edição. McGraw-Hill Higher Education,


2005.

SIMOFF, S; BÖHLEN, M H.; MAZEIKA, A. Visual data mining: theory, techniques


and tools for visual analytics. Springer Science & Business Media, 2008.

STOREY, V C.; SONG, IY. Big data technologies and Management: What conceptual
modeling can do. Data & Knowledge Engineering, v. 108, p. 50-67, 2017.

TURBAN, E; VOLONINO, L; Tecnologia da Informação Para Gestão. 8ª ed. Bookman


Editora, 2013.

VALIATI, E. Avaliação de Usabilidade de Técnicas de Visualização de Informações

34
Multidimensionais. Porto Alegre, 2008. 220f. Tese (Doutorado em Computação) –
Universidade Federal do Rio Grande do Sul. Programa de Pós-graduação em
Computação, Porto Alegre, BR-RS, 2008.

WARE, Colin. Information Visualization: Perception for design. 3. ed, Nova Iorque,
NY, EUA: Morgan Kaufmann Publishers, 2013.

WE ARE SOCIAL & HOOTSUITE. Digital in 2018: Essential Insights into Internet,
Social Media, Mobile and Ecommerce use Around the World. Disponível em:
<https://wearesocial.com/blog/2018/01/global-digital-report-2018>. Acesso em 15 de
ago de 2018

WANG, Lidong; WANG, Guanghui; ALEXANDER, Cheryl Ann. Big data and
visualization: methods, challenges and technology progress. Digital Technologies, v. 1,
n. 1, p. 33-38, 2015.

XAVIER, R. Análise de Métodos de Produção de Interfaces Visuais para Recuperação


da Informação. 2009. 78f. Dissertação (Mestrado) – Pós-Graduação em Ciência da
Informação, Faculdade de Filosofia e Ciências, Universidade Estadual Paulista,
UNESP, Marília, 2009.

35

Você também pode gostar