Escolar Documentos
Profissional Documentos
Cultura Documentos
Veja discussões, estatísticas e perfis de autor para esta publicação em: https://www.researchgate.net/publication/334262532
Compreendendo o Big Data por meio de uma revisão sistemática da literatura: o ITMI
Modelo
Artigo no International Journal of Information Technology and Decision Making · Julho de 2019
DOI: 10.1142/S0219622019300040
CITAÇÕES LER
21 783
3 autores:
Universidade de Roma Tor Vergata Università degli studi di Cassino e del Lazio Meridionale
Michele Grimaldi
VER PERFIL
Alguns dos autores desta publicação também estão trabalhando nos seguintes projetos relacionados:
COST Action Ecossistema Europeu de Aprendizagem Baseada em Jogos Ativos da Próxima Geração, ENGAGE. Ver projeto
Call for Papers: In (Big) Data we trust: Value Creation in Knowledge Organizations View project
Todo o conteúdo desta página foi carregado por Andrea De Mauro em 20 de setembro de 2020.
Resumo: O conceito de Big Data na literatura acadêmica e profissional tem se desenvolvido de forma eufórica, caótica e
desestruturada. A tomada de decisão depende cada vez mais de Big Data, recorrendo a novas metodologias analíticas
que são aplicadas em diversos setores. O presente estudo visa fornecer clareza sobre o fenômeno Big Data por meio de
uma revisão abrangente e sistemática da literatura, capaz de produzir uma descrição clara do que é Big Data hoje, uma
classificação estruturada dos vários fluxos de pesquisa atuais e uma lista de promissores tendências emergentes. Este estudo
analisa um corpus de 4327 artigos por meio de uma nova combinação de algoritmos não supervisionados que produz uma
estrutura hierárquica de tópicos que valida empiricamente e aprimora o modelo conceitual de 'Informação', 'Tecnologia',
'Métodos' e 'Impacto' (ITMI) de Big Dados, identificando 17 tópicos fundamentais e fornecendo aos pesquisadores e
profissionais uma visão geral significativa do corpo de conhecimento e uma agenda de pesquisa proposta.
Palavras-chave: Big Data; Inteligência de Negócios; Análise; Sistemas de informação; Revisão Sistemática da Literatura;
Mineração de texto.
1. Introdução
'Big Data' incorpora os fluxos de inovação mais promissores na moderna Tecnologia da Informação,
impactando os negócios e a sociedade de uma forma sem precedentes1 . Como observado por Gandomi,
e Haider2, o súbito aumento do Big Data fomentado pela aceitação eufórica do conceito pelos setores
público e privado deixou muitos despreparados. A pesquisa acadêmica falhou em sistematizar
prontamente o fenômeno quando ele foi detectado pela primeira vez. Como consequência, a pesquisa
ficou para trás das implementações corporativas que evoluíram tumultuosamente em várias direções.
Sem fundamentos teóricos e nomenclatura desenvolvidos, nem métodos de pesquisa disciplinados, a
evolução do conceito de Big Data resultou na ausência de um corpo de conhecimento estruturado dentro
da estrutura mais ampla de Gestão do Conhecimento3 . Além disso, o alto nível de entusiasmo dos
pesquisadores e profissionais da computação também baixou a atenção para os riscos morais e legais
associados a uma expansão errática de aplicações reais de Big Data4 . A consequência geral de tal
desenvolvimento incoerente é uma profunda ininteligibilidade da noção de Big Data que prejudica seu
progresso sustentável.
Para permitir um desenvolvimento mais sistemático do campo, é necessária mais clareza. Apesar da
quantidade substancial de estudos com o objetivo de descrever o fenômeno Big Data e as razões por
trás de seu sucesso, poucas tentativas foram feitas para revisar analiticamente a natureza de seu
desenvolvimento.
As revisões anteriores da literatura sobre Big Data trouxeram clareza sobre aspectos específicos do
fenômeno. Fosso Wamba et al. realizou uma revisão sistemática5 que identificou cinco impulsionadores
da criação de valor comercial a partir do Big Data, a saber: (i) criação de transparência; (ii) possibilitar a
experimentação; (iii) segmentar populações para diferenciar ativações de insights; (iv) substituir ou apoiar
a tomada de decisão humana; e, por fim, (v) inovar novos modelos de negócios, produtos e serviços.
Mishra et ai. avaliou 286 artigos que lidam com aplicações de gerenciamento da cadeia de suprimentos
de Big Data6 e propôs um agrupamento de áreas de pesquisa significativas dentro do campo. Van Altena
et ai. concentraram suas investigações na pesquisa biomédica7 e adotaram técnicas de modelagem de
tópicos para detectar tópicos recorrentes na interseção de Big Data e ciências biomédicas. Diferentemente,
nosso estudo tenta uma revisão holística de todo o domínio dos fatores facilitadores, inibidores e consequências
Machine Translated by Google
De Mauro, Andrea, Marco Greco e Michele Grimaldi. "Entendendo o Big Data por meio de uma revisão sistemática da literatura: o modelo
ITMI." Jornal Internacional de Tecnologia da Informação e Tomada de Decisões 18.04 (2019): 1433-1461.
percebido por pesquisadores e profissionais como conectado com Big Data e fornece uma visão agnóstica da
indústria do fenômeno.
O objetivo final deste artigo é descrever de forma coerente a estrutura essencial do tópico Big Data e suas
linhas de pesquisa mais promissoras. Dada a ampla gama de aplicações, realizamos uma pesquisa sistemática
e abrangente da literatura, incluindo o amplo espectro de artigos de conferências e periódicos que se referiam
diretamente a 'Big Data' em seus títulos. Nossa análise abrangente é baseada em uma combinação original de
algoritmos de Machine Learning não supervisionados, como Latent Dirichlet Allocation (LDA) e Hierarchical
Clustering.
Portanto, a novidade deste estudo está em sua análise abrangente e geral da literatura recente de Big Data,
em comparação com o foco mais restrito de outras revisões de literatura sobre o tema, e na combinação de
dois algoritmos não supervisionados que nos permitiram atingir tal objetivo.
A classificação de 4 categorias resultante valida e aprimora o modelo ITMI ('Informação', 'Tecnologia', 'Métodos'
e 'Impacto') de Big Data8 : esta classificação é discutida em profundidade no artigo para fornecer aos
pesquisadores e profissionais com informações úteis sobre Big Data.
O artigo está organizado da seguinte forma: primeiramente, apresentamos o conceito de Big Data, analisando
a evolução histórica de seu significado; em segundo lugar, explicamos a metodologia analítica adotada para
realizar esta revisão sistemática da literatura e apresentamos a saída resultante; em terceiro lugar, descrevemos
em detalhes os principais temas que identificamos na literatura, listando as direções significativas da pesquisa
e destacando as implicações para as organizações empresariais; finalmente concluímos o estudo resumindo os
componentes essenciais do Big Data e as áreas mais promissoras que precisam ser mais exploradas.
Big Data é um termo relativamente recente que conheceu um aumento dramático na popularidade de artigos
acadêmicos e na web desde o início do ano de 2011. A noção de Big Data extrai suas origens de uma infinidade
de conceitos mais consolidados, como “ Analytics”, “Data Mining” e “Business Intelligence” e está
progressivamente abrindo caminho como um novo termo genérico que abrange vários aspectos de Tecnologia
da Informação, Sociologia, Negócios e Modelagem Estatística. A Tabela 1 mostra uma lista das múltiplas
gerações parcialmente sobrepostas de terminologia que caracterizaram o uso sistemático de dados para
melhorar a tomada de decisão, começando com os clássicos Sistemas de Apoio à Decisão e terminando com
Big Data9,10 .
9.
Tabela 1: Terminologia para uso e análise de dados. Adaptado da ref.
Sistemas de Suporte à Decisão 1970-1985 Uso de análise de dados para apoiar a tomada de decisão
Suporte Executivo 1980-1990 Foco em apoiar as decisões dos executivos seniores por meio da
análise de dados
Processamento Analítico Online 1990-2000 Ferramentas para analisar tabelas de dados multidimensionais interativamente
Inteligência de Negócios 1989-2005 Ferramentas para apoiar decisões baseadas em dados, com ênfase
em relatórios
Mineração de dados 1990-2010 Descobrindo padrões em grandes conjuntos de dados por meio de processos
computacionais
Big Data 2011-presente Concentre-se em dados muito grandes, não estruturados e que mudam rapidamente
A mineração de dados e o Analytics foram os predecessores conceituais mais recentes do Big Data e foram
superados em popularidade por este último por volta do ano de 2011. Em particular, a Fig. 1 mostra como o Big
Data progressivamente ultrapassou o conceito de Analytics na literatura acadêmica, enquanto a Fig. 2 demonstra
como o rápido crescimento de sua popularidade afetou também os usuários da Pesquisa Google de maneira
semelhante.
Como consequência de seu desenvolvimento rápido e caótico, não existe uma definição universalmente aceita,
embora muitas tentativas tenham sido feitas no passado. Big Data tem sido frequentemente descrito
Versão pré-impressa do artigo publicado em 17 de julho de 2019 no International Journal of Information Technology & Decision Making, vol.
18, nº 04, pp. 1433-1461 (2019), DOI: https:// doi.org/ 10.1142/ S0219622019300040 © copyright World Scientific Publishing Company
Machine Translated by Google
De Mauro, Andrea, Marco Greco e Michele Grimaldi. "Entendendo o Big Data por meio de uma revisão sistemática da literatura: o modelo
ITMI." Jornal Internacional de Tecnologia da Informação e Tomada de Decisões 18.04 (2019): 1433-1461.
“implicitamente” através de histórias de sucesso ou anedotas, características, recursos tecnológicos, tendências emergentes
ou seu impacto na sociedade, organizações e processos de negócios.
Figura 1. Ocorrências de 'Big Data' e 'Analytics' na Literatura Acadêmica entre 2007 e 2016. Fonte: Scopus.
Fig. 2. Popularidade de 'Big Data' e 'Data Mining' entre os usuários da web entre 2007 e 2016. Os valores são proporcionais ao número
de consultas realizadas pelos usuários da Pesquisa Google, normalizados para o ponto mais alto do gráfico. Fonte: Google Trends.
Um estudo anterior observou que as principais definições de Big Data seguem quatro abordagens não mutuamente exclusivas8 :
• relatar atributos específicos
de dados que os tornam “grandes”, como “Volume”, “Velocidade” e
“Variedade”11,12;
• destacar algumas necessidades de tecnologia relacionadas à utilização de dados, por exemplo, poder de computação ou
capacidade de armazenamento13;
• aludindo à superação de algum tipo de limite, como a capacidade do banco de dados convencional
sistemas14
• descrevendo o impacto social resultante15,16 .
Para este estudo, adotamos uma definição que está encontrando um nível crescente de concordância na literatura e que “é
apoiada pelo entendimento atual expresso pelos autores quando eles usam o termo Big Data”
7 . Tal definição diz:
“Big Data representam os ativos de Informação caracterizados por um Volume, Velocidade e Variedade tão Altos que requerem
Tecnologia e Métodos Analíticos específicos para sua transformação em Valor.”8
3. Metodologia
A realização de uma revisão de literatura é uma atividade fundamental da pesquisa acadêmica. Uma análise bibliográfica
precisa leva a múltiplos benefícios. Em primeiro lugar, permite identificar os contributos seminais para o progresso científico
da matéria, aqueles que mais claramente inspiraram as investigações posteriores. Em segundo lugar, através da classificação
de trabalhos anteriores, os estudiosos podem entender a estrutura tópica do assunto e fazer uma escolha consciente da área
onde focar seus estudos.
Versão pré-impressa do artigo publicado em 17 de julho de 2019 no International Journal of Information Technology & Decision Making, vol.
18, nº 04, pp. 1433-1461 (2019), DOI: https:// doi.org/ 10.1142/ S0219622019300040 © copyright World Scientific Publishing Company
Machine Translated by Google
De Mauro, Andrea, Marco Greco e Michele Grimaldi. "Entendendo o Big Data por meio de uma revisão sistemática da literatura: o modelo
ITMI." Jornal Internacional de Tecnologia da Informação e Tomada de Decisões 18.04 (2019): 1433-1461.
esforço de pesquisa. Em terceiro lugar, uma revisão sistêmica de trabalhos anteriores abrangendo um longo período
de tempo permite a detecção de tendências históricas de tópicos específicos. Finalmente, permite que os
pesquisadores reconheçam as tendências emergentes mais promissoras e antecipem a importância futura de cada
linha de pesquisa.
Graças à natureza eletrônica da maioria das publicações científicas atuais, o número de documentos disponíveis
na Web tornou-se enorme. Além da relativa facilidade de acesso a artigos específicos, a criação de uma estrutura
que descreva toda a essência de um tema sem deixar de lado nenhuma contribuição importante é uma atividade
complexa e demorada. As revisões sistemáticas da literatura científica prometem dar sentido a um assunto
específico, considerando muitos artigos relevantes. Um procedimento popular para revisões sistemáticas é baseado
em técnicas de mineração de texto. Esses métodos usam um conjunto de dados não estruturados (como o corpo
do texto dos artigos, ou seus resumos ou apenas os títulos) para extrair uma descrição mais estruturada dos
tópicos tratados no conjunto de dados. Uma abordagem tradicional para revisões de literatura baseadas em
mineração de texto aplica algoritmos de agrupamento sobre uma matriz que descreve a presença relativa de
palavras-chave populares em um corpus de documentos (matriz de termos de documento), cuja saída será um
conjunto de N agrupamentos de documentos , cada um representando um tema tratado na literatura7,17–20. Essa
abordagem tem a vantagem de ser relativamente simples e dotada de mecanismos estabelecidos para a escolha
do número ótimo de clusters a serem utilizados, como os descritos por Milligan e Cooper21. A principal desvantagem
de usar clustering para extrair tópicos é que cada documento pode ser associado apenas a um único cluster (ou
seja, um único tópico).
No entanto, talvez o elemento mais inovador e estimulante de um trabalho científico seja estabelecer conexões –
muitas vezes inesperadas – entre diferentes domínios. Um modelo de tópico que não supõe que os artigos tratam
de vários tópicos ao mesmo tempo é parcial e incapaz de mostrar a complexidade estrutural de um domínio
científico. Por esse motivo, é necessário contar com modelos de associação mista22 onde a suposição de que uma
unidade pertence a um único cluster é violada23. De fato, os modelos de associação mista assumem que as
unidades individuais podem pertencer apenas parcialmente a categorias populacionais.
Para cada elemento, o grau de pertencimento a cada grupo pode ser representado por um vetor de variáveis
positivas somando 1 (proporção de pertencimento): esses valores podem ser lidos como uma descrição da mistura
de categorias às quais um elemento específico está associado. . Um dos modelos de associação mista mais
populares usados na mineração de texto é o LDA24 .
O LDA se baseia em Técnicas de Estimação Bayesiana para inferir vários parâmetros, incluindo o vetor que
representa o grau de pertinência (proporção de tópico) de cada elemento (documento) a cada grupo (tópico). Cada
tópico também pode ser caracterizado por uma distribuição de palavras e a lista das palavras mais prováveis em
um tópico (palavras-chave ou principais termos) pode dar uma indicação do significado central desse tópico.
Olhando para as palavras-chave do tópico e considerando os documentos que tratam do tópico no mais alto grau,
um usuário humano pode deduzir uma descrição significativa do tópico. É importante notar que a interpretabilidade
semântica das palavras-chave (coerência de tópico) pode ser aumentada com o uso de técnicas alternativas ao
LDA, como a fatoração de matriz não negativa, conforme observado por O'Callaghan et al . 25. A descrição dos
temas e das relações entre eles será o produto fundamental da revisão da literatura: de fato, esses elementos
podem oferecer uma imagem limpa e estruturada do conteúdo tópico do assunto em estudo.
As entradas do LDA são o corpus de documentos a serem analisados e o número de tópicos k a serem extraídos.
Decidimos usar como documentos os resumos de cada artigo. Diferentemente do que fizeram Vo e Ock26,
preferimos o uso de resumos ao invés de títulos, pois títulos de artigos científicos geralmente não possuem texto
suficiente para descrever completamente o conteúdo conceitual do trabalho. Não há um acordo consensual quanto
ao processo de seleção de um valor ótimo para o número de tópicos k. Ponweiser27 propôs uma revisão das
técnicas para encontrar o número ótimo de tópicos: uma delas é localizar o máximo da média harmônica de
verossimilhança em um conjunto de amostras geradas pelo amostrador de Gibbs como feito na Ref. 28. Uma
abordagem alternativa seria calcular a Verossimilhança Marginal do modelo de tópico, conforme proposto pela Ref.
29
e implementado no pacote R maptpx. No entanto, Chang et al. executar experimentos para validar como tais
30
técnicas de otimização de modelo se encaixam com o objetivo de produzir decomposição de corpora “interpretável
por humanos”. O resultado do estudo foi
Versão pré-impressa do artigo publicado em 17 de julho de 2019 no International Journal of Information Technology & Decision Making, vol.
18, nº 04, pp. 1433-1461 (2019), DOI: https:// doi.org/ 10.1142/ S0219622019300040 © copyright World Scientific Publishing Company
Machine Translated by Google
De Mauro, Andrea, Marco Greco e Michele Grimaldi. "Entendendo o Big Data por meio de uma revisão sistemática da literatura: o modelo
ITMI." Jornal Internacional de Tecnologia da Informação e Tomada de Decisões 18.04 (2019): 1433-1461.
que “modelos de tópicos que funcionam melhor em verossimilhança mantida podem inferir tópicos menos
significativos semanticamente” (p. 1). Os autores sugerem que os desenvolvedores de modelos de tópicos
devem adotar práticas de avaliação que dependam mais da tarefa do “mundo real” que o trabalho visa em
última análise, em vez de maximizar medidas baseadas em probabilidade. Esta opinião é também confirmada
por Blei24 que afirma não haver qualquer razão técnica para supor que a precisão do modelo corresponderia
a uma melhor organização ou a uma interpretação mais fácil do mesmo. Portanto, decidimos seguir o
julgamento humano para a seleção do modelo, em linha com nosso principal objetivo de pesquisa que era
produzir uma descrição clara e significativa do corpo de conhecimento relacionado ao Big Data.
Assim, evitamos o uso de uma medida de desempenho quantitativa que poderia ter falhado em identificar o
modelo mais compreensível por humanos.
Em nosso caso, o objetivo de obter uma descrição concisa dos tópicos mais relevantes da literatura pode
colidir com a escolha de um valor muito alto de k (por exemplo , k>>30), pois descrever a essência de uma
estrutura alistando um número alto de elementos pode ser impraticável. No entanto, um baixo valor de k
impediria o modelo de compreender a mistura variada de tópicos fundamentais que têm sido tratados na
literatura.
A análise das proporções dos tópicos para todos os artigos do corpus permite inferir a posteriori a relação
conceitual entre os tópicos. Para isso, calculamos o coeficiente de correlação de Pearson r entre proporções
de tópicos: a tendência de dois tópicos aparecerem com maior proporção nos mesmos documentos (ou seja,
maior r) é um sinal razoável da “conexão” intrínseca entre os dois tópicos. Em outras palavras, usamos o
coeficiente de correlação entre as proporções de tópicos r como uma medida de similaridade conceitual entre
os tópicos. A matriz de “semelhança” triangular R é construída calculando r para cada combinação de tópicos
(i,j):i,j ÿ [1,k], i<j.
Então, a fim de obter uma estrutura tópica que possa ser facilmente descrita e memorizada, agrupamos
tópicos semelhantes em “temas” usando um algoritmo de agrupamento hierárquico tradicional. Nesse caso, o
uso de agrupamento tradicional é aceitável, pois podemos assumir, para simplificar, que cada tópico
identificado pelo LDA pertence a um único tema “pai”. A matriz de dissimilaridade D dada como entrada da
função de agrupamento é calculada invertendo a medida de similaridade calculada na etapa anterior, conforme
sugerido por Glynn31, usando a fórmula D=1-R. O número de clusters t é escolhido minimizando o C-index,
conforme aconselhado por Milligan e Cooper21. O índice C tem a vantagem de ser computável usando
apenas a matriz de dissimilaridade, pois é baseado nas distâncias entre clusters acima dos elementos de
acordo com a Eq. 3.1:
(3.1)
onde:
• Smin/max é a soma das menores/maiores distâncias entre todos os pares de tópicos;
O valor do C-index, situado por definição dentro do intervalo (0,1), é calculado usando o pacote R NbClust As
32
relações entre .
tópicos e temas são então exibidas através de uma estrutura hierárquica que descreve a “taxonomia” do
domínio científico . As distâncias entre os tópicos são representadas por meio de um diagrama de rede, cujos
nós eram os tópicos e as arestas eram ponderadas em sua correlação.
A lista de entrada de documentos foi obtida da Elsevier Scopus, um banco de dados contendo mais de 60
milhões de registros de quase 5.000 editoras internacionais. Exportamos uma lista dos 5.412 artigos de
conferências e periódicos publicados entre 2011 (primeiro ano de aumento dramático na popularidade do Big
Data em artigos acadêmicos e na web, conforme mencionado na introdução) e 2016 (último ano completo
disponível quando iniciamos nosso análise em 2017) contendo o termo completo 'Big Data' no
Versão pré-impressa do artigo publicado em 17 de julho de 2019 no International Journal of Information Technology & Decision Making, vol.
18, nº 04, pp. 1433-1461 (2019), DOI: https:// doi.org/ 10.1142/ S0219622019300040 © copyright World Scientific Publishing Company
Machine Translated by Google
De Mauro, Andrea, Marco Greco e Michele Grimaldi. "Entendendo o Big Data por meio de uma revisão sistemática da literatura: o modelo
ITMI." Jornal Internacional de Tecnologia da Informação e Tomada de Decisões 18.04 (2019): 1433-1461.
título1 . Removemos as entradas para as quais o texto do resumo não foi fornecido e isso nos deixou com um corpus
de 4.327 documentos.
Antes de aplicar o modelo LDA ao corpus completo, executamos as seguintes etapas de preparação para os resumos
de entrada: •
Todos os espaços em branco e pontuação foram removidos. Assim, os tokens considerados para as etapas seguintes
foram palavras únicas, com exceção de palavras compostas com travessões intrapalavras, que foram preservadas.
• Todos os caps
foram convertidos em caps inferiores.
O corpus foi sintetizado por meio do algoritmo de Porter33, que retornava o radical de cada palavra com seus sufixos
removidos.
Palavras de parada comuns em inglês (como artigos e conjunções) e outras palavras não relevantes (como informações
de direitos autorais e anos) foram removidas dos resumos. Também removemos as palavras “big” e “data”, pois foram
incluídas por definição em todos os documentos.
Posteriormente, executamos o LDA no corpus de 4327 artigos. Como parte de nossas tentativas preliminares ao
executar o LDA, descobrimos que, usando k <<15, teríamos negligenciado vertentes significativas da pesquisa de Big
Data, como o conceito crescente de cidades inteligentes ou a crescente importância de ferramentas para permitir o
acesso e visualização de grandes conjuntos de dados. Na verdade, esses tópicos são cobertos por um número menor
de artigos e, para valores menores de k, eles não seriam identificados como clusters autônomos, mesmo que tenham
uma importância crescente dentro da pesquisa de Big Data. Assim, escolhemos o número de tópicos selecionando o
modelo que forneceu a saída mais legível aos olhos dos autores, como já feito na literatura 17, fazendo várias tentativas
com variação de k dentro do intervalo [15,30]. Fizemos a seleção por meio do nosso julgamento humano: revisamos
múltiplos modelos com k variável e discutimos o nível de interpretabilidade de cada modelo conceitual, convergindo
para a decisão sobre o mais inteligível.
Para apoiar essa decisão, também realizamos verificações pontuais em todos os tópicos, lendo individualmente uma
amostra de artigos com alto nível de presença do tópico e validando se esses artigos realmente tratavam dele.
Como resultado, escolhemos o modelo com k=17, que garantiu a saída mais legível.
Procedemos ao cálculo da matriz de correlação 17x17 R e aplicamos agrupamento hierárquico “ward” nas distâncias
especificadas na matriz de dissimilaridade resultante D=1-R. Usando o pacote R NbClust32, calculamos o índice C em
vários clusters entre o intervalo [2, 6]. Conforme aconselhado por Milligan e Cooper21, escolhemos o número de
clusters com o C-index mínimo, que em nosso caso correspondeu a t=4. Assim, os 17 tópicos identificados por meio
da LDA são agrupados em quatro temas. O dendrograma resultante mostra os quatro temas e os 17 tópicos nomeados
após as 3 principais palavras-chave que caracterizam cada um (Fig. 3). Adotamos a seguinte convenção de
nomenclatura padrão para tópicos. Por exemplo, “algorithm-method-clustering” refere-se ao tópico cujas principais
palavras-chave (as mais frequentes em seu dicionário) são “algoritmo”, “métodos” e “clustering”. Notavelmente, as 3
principais palavras-chave podem não conter necessariamente o significado conceitual completo de um tópico, mas as
consideramos uma convenção de nomenclatura aceitável a ser mantida ao longo do artigo. Os quatro clusters
resultantes do agrupamento Hierárquico podem ser convenientemente associados aos quatro temas do modelo ITMI:
Informação (cluster 4), Tecnologia (cluster 2), Métodos (cluster 1) e Impacto (cluster 3)8 .
1
Usamos a seguinte consulta de pesquisa no Scopus: ( TITLE ( "big data" ) ) AND ( LIMIT-TO ( SRCTYPE , "p") OR
LIMIT-TO ( SRCTYPE , "j" ) ) E ( LIMIT-TO ( PUBYEAR , 2016) OU LIMIT-TO (PUBYEAR , 2015) OU LIMITE
ATÉ ( ANO PÚBLICO , 2014) OU LIMIT-TO (PUBYEAR , 2013) OU LIMIT-TO (PUBYEAR , 2012 ) OU LIMIT-TO (
PUBYEAR , 2011)).
Versão pré-impressa do artigo publicado em 17 de julho de 2019 no International Journal of Information Technology & Decision Making, vol.
18, nº 04, pp. 1433-1461 (2019), DOI: https:// doi.org/ 10.1142/ S0219622019300040 © copyright World Scientific Publishing Company
Machine Translated by Google
De Mauro, Andrea, Marco Greco e Michele Grimaldi. "Entendendo o Big Data por meio de uma revisão sistemática da literatura: o modelo
ITMI." Jornal Internacional de Tecnologia da Informação e Tomada de Decisões 18.04 (2019): 1433-1461.
Fig. 3 Dendrograma resultante do agrupamento hierárquico de tópicos com K=17 em t=4 temas. Cada tópico é representado por suas palavras-
chave.
Fig. 4 Representação em rede da correlação intertópico. Cada nó é um tópico com o rótulo mostrando suas três principais palavras-chave. A linha
a largura de cada aresta é proporcional ao nível relativo de correlação. Linhas sólidas ligam tópicos mais correlacionados (quintil superior de
correlações) enquanto as linhas tracejadas ligam tópicos menos correlacionados (50º a 80º percentis).
Ao analisar a correlação entre os tópicos, construímos uma rede ponderada e não direcionada onde os nós
representam os tópicos enquanto as arestas mostram o nível de correlações mútuas entre os tópicos, por meio
da largura e do tipo da linha de borda (Fig. 4). Portanto, a Fig. 4 oferece uma visão sinóptica das conexões
conceituais entre os tópicos. Quando um determinado tópico é correlacionado com outros tópicos pertencentes
a um tema diferente (por exemplo, operações de alimentação de sensor versus banco de dados de design de
sistema e desempenho de armazenamento de rede), existe uma familiaridade do tópico com o tema diferente.
Versão pré-impressa do artigo publicado em 17 de julho de 2019 no International Journal of Information Technology & Decision Making, vol.
18, nº 04, pp. 1433-1461 (2019), DOI: https:// doi.org/ 10.1142/ S0219622019300040 © copyright World Scientific Publishing Company
Machine Translated by Google
De Mauro, Andrea, Marco Greco e Michele Grimaldi. "Entendendo o Big Data por meio de uma revisão sistemática da literatura: o modelo
ITMI." Jornal Internacional de Tecnologia da Informação e Tomada de Decisões 18.04 (2019): 1433-1461.
4. Resultados
O surgimento dos quatro temas Informação, Tecnologia, Métodos e Impacto confirma a adequação do modelo
ITMI para descrever a variedade de tópicos que se enquadram na literatura relacionada a Big Data. Os autores
perceberam que: • Tópicos de 'informação'
são aqueles que enfocam a aquisição, geração, manutenção e governança de conjuntos de dados, tratando das
diferentes origens e naturezas dos ativos informacionais. • Os tópicos de 'Tecnologia' tratam dos
dispositivos, das infra-estruturas e dos quadros que resultam da aplicação prática da ciência e da engenharia com
o propósito de lidar com a informação digital.
• 'Métodos' incluem os tópicos que enfocam as metodologias para transformar dados. Tais metodologias
normalmente estão dentro das disciplinas mais amplas de ciência da computação e matemática aplicada.
• Tópicos de 'Impacto' lidam com as consequências da aplicação de Big Data para negócios, sociedade e ciência,
e incluem a análise de aplicações práticas, desafios relacionados e benefícios percebidos.
Conforme ilustrado na Figura 4, cada tópico está claramente vinculado a muitos outros, em vários níveis.
Portanto, alguns tópicos podem estar conceitualmente na fronteira entre dois temas diferentes e sua alocação
final é certamente discutível. Ainda assim, os autores constataram que a grande maioria dos tópicos está
claramente associada a apenas um tema e que a saída do agrupamento hierárquico pode ser explicada, mesmo
no caso de temas parcialmente sobrepostos. Cada artigo em nossa amostra é caracterizado por 17 valores que
descrevem seu grau de pertinência para cada um dos 17 tópicos. Ao considerar o maior grau de valor de
associação como um sinal do tópico predominante do artigo, podemos entender a presença relativa de cada
tópico na literatura atual. A Tabela 2 apresenta o número de artigos que se enquadram em cada tema e tópico e
relata o grau médio de presença de cada tópico no período 2011-2016: notamos que os temas Informação,
Tecnologia e Métodos têm uma participação relativamente homogênea na literatura (~20 % cada) enquanto o
Impact tem uma presença mais prevalente (40%). A Tabela 2 também mostra sinopticamente as tendências2
quanto à presença relativa de temas e tópicos. Observamos tendências positivas para vários tópicos, como
método de predição de modelos, fatores de tráfego de eventos e saúde-pacientes-saúde, que estão cada vez
mais substituindo outros tópicos cuja presença na literatura está diminuindo, como processamento em nuvem de
computação, sistema -banco de dados de design e ferramentas de visualização grandes.
A próxima seção fornece uma breve descrição de cada um dos quatro temas do modelo ITMI conforme eles
surgiram da revisão sistemática da literatura e de cada um dos 17 tópicos.
2
Conforme mostrado na Figura 1 e na Tabela 2, o corpus da literatura indexada no Scopus sobre Big Data em 2011 compreendia muito
poucos artigos, em comparação com os anos subsequentes. Portanto, nossa descrição das tendências, conforme proposta na Tabela 2,
desconsidera a presença relativa dos temas para o ano de 2011.
Versão pré-impressa do artigo publicado em 17 de julho de 2019 no International Journal of Information Technology & Decision Making, vol.
18, nº 04, pp. 1433-1461 (2019), DOI: https:// doi.org/ 10.1142/ S0219622019300040 © copyright World Scientific Publishing Company
Machine Translated by Google
De Mauro, Andrea, Marco Greco e Michele Grimaldi. "Entendendo o Big Data por meio de uma revisão sistemática da literatura: o modelo ITMI." Jornal Internacional de Tecnologia da Informação e Tomada de Decisões 18.04 (2019): 1433-1461.
Tabela 2: Presença relativa dos temas e tópicos do ITMI no corpus analisado de estudos de Big Data.
Tendência
Presença relativa ao longo dos Presença total
Tema/Tópico 2011 2012 anos 2013 2015 2014 2016 # Papéis Peso
Informação 14% 15% 20% 22% 23% 27% 976 23%
sensores-poder-operações 5% 4% 5% 7% 7% 7% 274 6%
segurança-acesso-informações 0% 1% 4% 5% 6% 4% 219 5%
eventos-tráfego-fatores 0% 1% 3% 4% 5% 7% 190 4%
algoritmo-método-clustering 0% 7% 5% 6% 8% 8% 307 7%
aprendizagem-problema-máquina 0% 4% 4% 5% 4% 5% 196 5%
modelo-predição-método 0% 1% 5% 3% 4% 5% 173 4%
abordagem-mine-set 0% 1% 4% 3% 3% 3% 136 3%
Número total de papéis 21 137 562 1068 1948 591 4327 100%
Versão pré-impressa do artigo publicado em 17 de julho de 2019 no International Journal of Information Technology & Decision Making, vol. 18, nº 04, pp. 1433-1461 (2019), DOI: https:// doi.org/ 10.1142/ S0219622019300040 © copyright World Scientific
Publishing Company
Machine Translated by Google
5. Discussão
Nos parágrafos seguintes, revisaremos todos os tópicos e destacaremos as tendências notáveis em sua
presença.
5.1. Informação
O fator vital na ascensão do Big Data tem sido a crescente disponibilidade de informações e a relativa
facilidade com que elas podem ser transferidas e armazenadas. Conforme observado por Hilbert34, nas ,
últimas duas décadas o mundo experimentou aumentos exponenciais tanto do fluxo quanto do estoque de
informações. A introdução de software de reconhecimento óptico de caracteres com o objetivo de minimizar
a intervenção humana35 permitiu a digitalização de enormes repositórios de informações analógicas.
Mayer-Schönberger e Cukier36 propuseram uma sutil diferenciação entre digitalização e seu próximo passo
natural, a datificação (isto é, colocar um fenômeno em um formato quantificado para que possa ser tabulado
e analisado). A diferença fundamental é que a digitalização permite que informações analógicas sejam
transferidas e armazenadas em um formato digital mais conveniente, enquanto a datificação visa organizar
uma versão digitalizada de sinais analógicos para gerar insights que não seriam inferidos enquanto os
sinais estivessem em sua forma original . Outra tendência fundamental é o nível crescente de
heterogeneidade dos ativos de informação atuais. Aos dados estruturados tradicionais (tipos de texto/
numéricos) juntam-se agora dados multimédia não estruturados (áudio, vídeo, imagens, texto e linguagem
humana) e dados semiestruturados, como XML e feeds RSS37 .
Os quatro tópicos que identificamos dentro do tema geral da Informação tratam das formas atuais mais
promissoras de aquisição de dados e seus desafios relacionados. O tópico mobile-social-users lida com a
recente disponibilidade generalizada de dispositivos pessoais conectados e equipados com sensores
digitais, como smartphones, tablets e wearables, todos contribuindo para a geração de dados pessoais.
Tais dispositivos permitem que seus usuários criem, transfiram e utilizem informações a um custo
relativamente baixo. Uma consequência da difusão de dispositivos pessoais é o crescente interesse em
como as pessoas interagem online por meio das mídias sociais. Plataformas como Facebook e Twitter são
capazes de registrar a interação dos usuários, bem como seus hábitos e interesses. A disponibilidade
dessas informações estimulou o desenvolvimento da Análise de Redes Sociais, que se mostra uma
metodologia eficaz para análise de Big Data Outra repercussão da crescente disponibilidade de dados
38–40 .
pessoais é o crescente desafio relacionado à sua proteção e, em
última instância, à privacidade dos indivíduos41 .
A Segurança da Informação é, de fato, uma área de interesse crescente dentro da pesquisa de Big Data e,
como parte de nossa classificação, é tratada dentro do tópico segurança-acesso à informação. Documentos
relacionados a este tópico tratam da configuração do estabelecimento de camadas de segurança da
informação dentro da infraestrutura de dados de uma empresa, esquemas para criptografar a
confidencialidade ou permitir o anonimato, implementação de leis e regulamentos relevantes42–44 .
Além disso, os dispositivos não pessoais têm um papel vital na abundante disponibilidade de dados de
hoje. A presença generalizada de objetos que são capazes de interagir uns com os outros e cooperar com
seus vizinhos para atingir objetivos comuns recebe o nome de Internet das Coisas, IoT45,46, conforme
tratado no tópico sensores- potência - operações. O aumento
Machine Translated by Google
5.2. Tecnologia
A tecnologia é, sem dúvida, um dos grandes temas relacionados ao Big Data. Ele representou um
facilitador claro do sucesso do Big Data e continua sendo um de seus ingredientes fundamentais. A
disponibilidade de ferramentas de TI com desempenho cada vez maior a um preço cada vez menor
catalisou o crescimento dos aplicativos de Big Data. Sem tais avanços tecnológicos, a exploração de
conjuntos de dados granulares teria ficado confinada em centros de supercomputação e não teria
impactado a sociedade e os negócios tanto quanto o atual fenômeno do Big Data.
68
5.3. Métodos
O advento do Big Data foi acompanhado pela crescente demanda por novos métodos e técnicas para fazer
uso de dados. A ampla disponibilidade de informações forçou os profissionais de dados a irem além das
estatísticas tradicionais, em busca de métodos capazes de identificar padrões a partir de uma infinidade de
traços deixados pelo comportamento dos indivíduos. O conhecimento de tais métodos, de seus procedimentos
de aplicação e, principalmente, de suas limitações exige habilidades específicas e difíceis de encontrar no
mercado de trabalho atual.
Muitos métodos analíticos de Big Data foram discutidos na literatura2,69–71 e associados aos tópicos algoritmo-
método-clustering e modelo-predição-método, que são parcialmente sobrepostos, conforme mostrado na Fig.
4. Uma lista mesclada de tais métodos Versão pré -impressa do artigo publicado em 17 de julho de 2019 no
International Journal of Information Technology & Decision Making, vol. 18, nº 04, pp. 1433-1461 (2019), DOI:
https:// doi.org/ 10.1142/ S0219622019300040 © copyright World Scientific Publishing Company
Machine Translated by Google
incluem (em ordem alfabética): teste A/B, detecção de anomalias, aprendizado de regras de
associação, classificação, análise de cluster, aprendizado profundo, aprendizado conjunto, teoria de
extensão, algoritmos genéticos, processamento de linguagem natural, redes neurais, reconhecimento
de padrões, modelagem preditiva, regressão , análise de sentimento, processamento de sinais,
análise de redes sociais, análise espacial, aprendizado supervisionado e não supervisionado,
simulação e análise de séries temporais.
Chen et ai. 70 relatam a crescente necessidade de as empresas investirem em inteligência de
negócios e educação analítica que seria “interdisciplinar e abrangeria habilidades analíticas e de TI
críticas, conhecimento de negócios e domínio e habilidades de comunicação necessárias em um
ambiente de negócios centrado em dados complexos” (p. 1183) . O investimento no conhecimento
analítico deveria vir acompanhado de uma mudança cultural que abrangesse todos os funcionários e
os estimulasse a gerenciar adequadamente os dados e incorporá-los ao processo decisório72,73.
Mayer-Schönberger e Cukier36 prevêem o surgimento de novas entidades profissionais específicas,
chamadas algoritmistas, que dominariam as áreas de ciência da computação, matemática e estatística
e seriam auditores imparciais ao revisar a precisão ou validade das previsões de Big Data. Também
Davenport e Patil74 descrevem o cientista de dados como um híbrido de “hacker de dados, analista,
comunicador e conselheiro de confiança”, tendo também as habilidades fundamentais para escrever
programas de computador e conduzir, quando necessário, pesquisas de estilo acadêmico. No entanto,
os cientistas de dados sozinhos não são suficientes para permitir que as organizações tenham uma
vantagem competitiva real usando o Big Data75. Várias famílias de funções foram identificadas como
relacionadas a uma exploração efetiva de Big Data, a saber: analistas de negócios, cientistas de
dados, desenvolvedores de big data e engenheiros de big data76 . A análise das lacunas de
competência e a criação de métodos de ensino eficazes para preenchê-las, tanto para os gerentes e
profissionais futuros quanto para os atuais, é uma área de pesquisa promissora que ainda tem muitas
oportunidades de crescer.
Além disso, a capacidade de tomar decisões baseadas em dados está mudando drasticamente. De
fato, Big Data pode forçar a mudança do pensamento lógico baseado em causalidade para o
reconhecimento de links de correlação entre eventos. Aproveitar os insights gerados pelo Big Data
Analytics em empresas, universidades e instituições implica a adaptação a novos quadros de tomada
de decisão77 e uma evolução do método científico tradicional78 oferecendo oportunidades claras ,
para pesquisas futuras.
Conhecer as possíveis limitações do uso de Big Data Methods e limitar a euforia relacionada ao seu
rápido avanço é vital para as organizações que desejam conduzir uma tomada de decisão eficaz
baseada em dados. Por exemplo, as previsões podem vir com um senso de precisão artificial e errado
que a aparente sofisticação de alguns aplicativos de Big Data ou a extensa quantidade de pontos de
dados de treinamento (“o mito do grande n”) podem evocar. Assim, as previsões devem ser sempre
acompanhadas de uma indicação do seu nível de confiança79. Os praticantes de Big Data também
devem saber evitar o overfitting de modelos, levando naturalmente à apofenia, ou seja, a tendência
do ser humano de ver “padrões onde na verdade não existem, simplesmente porque enormes
quantidades de dados podem oferecer conexões que irradiam em todas as direções”16 .
O tópico learning-problem-machine é destaque dentro deste tema e inclui todos os trabalhos que
tratam de aprendizado de máquina e metodologias de inteligência artificial para
Versão pré-impressa do artigo publicado em 17 de julho de 2019 no International Journal of Information Technology &
Decision Making, vol. 18, nº 04, pp. 1433-1461 (2019), DOI: https:// doi.org/ 10.1142/ S0219622019300040 © copyright
World Scientific Publishing Company
Machine Translated by Google
O tópico abordagem-mina-conjunto inclui aqueles estudos focados em métodos para lidar com a complexidade
de conjuntos de Big Data, como compressão e redução de dimensionalidade81,82 e visualização de dados83 . ,
5.4. Impacto
A exploração de Big Data encontrou uso generalizado em uma miríade de campos para diversas aplicações,
abrangendo todas as facetas da ciência, economia e sociedade humana. O tema 'Impacto' engloba todos os
estudos que descrevem exemplos concretos de exploração de Big Data, muitas vezes acompanhados de
propostas de novos princípios metodológicos que implicam novos desenvolvimentos. Além disso, o tema inclui
reflexões sobre o impacto adverso que um desenvolvimento desenfreado de aplicações de Big Data pode ter
em nossas vidas.
O tópico saúde-pacientes-saúde inclui exemplos de aplicações biomédicas para Big Data92. As principais
razões por trás do interesse em Big Data na indústria da saúde foram a disponibilidade de dados de diagnóstico
granulares, provenientes de tecnologias como tomografia axial computadorizada e ressonância magnética
nuclear, juntamente com a versão Preprint do artigo publicado em 17 de julho de 2019 no International Journal
de Tecnologia da Informação e Tomada de Decisão, vol. 18, nº 04, pp. 1433-1461 (2019), DOI: https:// doi.org/
10.1142/ S0219622019300040 © copyright World Scientific Publishing Company
Machine Translated by Google
Por outras palavras, a exploração efetiva do Big Data para a criação de valor requer competências
intrinsecamente multidisciplinares. A oportunidade subjacente é que as universidades implementem
currículos de estudo relevantes e que as empresas desenvolvam carreiras significativas e caminhos
de aprendizado para gerentes com conhecimento de dados.
O setor público é outro terreno fértil para Big Data. Os governos podem neutralizar seu desempenho
altamente variável, aproveitando a enorme quantidade de dados transacionais e censitários coletados
dos cidadãos101 . A transparência, em particular, pode ser um facilitador crítico de maior eficiência e
produtividade para instituições públicas69. Ao abrir e compartilhar dados com os cidadãos, os governos
podem resistir à falta de pressão competitiva no setor e conter os gastos públicos, evitar fraudes e
aumentar o senso de propriedade dos cidadãos em relação aos bens e fundos de bem comum.
Big Data também é percebido como uma fonte potencial de impacto adverso em nossas ,
sociedades4,16,102 conforme descrito no tópico pesquisa-tecnologia-desafio. A tese mais popular
apresentada pelos detratores do Big Data é que ele é uma ameaça à privacidade do indivíduo: alguns
até levantaram a hipótese de que seu crescimento levará ao que pode ser chamado de 'fim da
privacidade' como o conhecemos atualmente103 . De fato, um conjunto de dados pode conter um
rastro de traços granulares deixados pelo comportamento de um indivíduo, incluindo sua posição no
espaço, a proximidade de lugares ou outras pessoas e os sinais de áudio/vídeo capturados naquele
Versão pré-impressa do artigo publicado em 17 de julho de 2019 no International Journal of Information Technology &
Decision Making, vol. 18, nº 04, pp. 1433-1461 (2019), DOI: https:// doi.org/ 10.1142/ S0219622019300040 © copyright
World Scientific Publishing Company
Machine Translated by Google
ambiente. Embora o indivíduo concorde em compartilhar cada sinal individual, seu uso coletivo pode
revelar padrões inesperados que a pessoa pode não gostar de liberar. Além disso, o processo de
anonimização do conjunto de dados pode não impedir totalmente a identificabilidade do indivíduo pelo
processo inverso104. As ações de uma pessoa também podem se tornar previsíveis por aqueles que
possuem o nível correto de dados históricos e isso coloca a questão ética de proteger o livre arbítrio
dos seres humanos.
O tópico informações-conhecimento-fontes enfatiza a importância da mineração de dados para
descobrir conhecimento105 De
. fato, os pesquisadores identificaram vários desafios para uma exploração
de Big Data com criação de valor, como a harmonização de fontes de informação que evoluem de
forma autônoma e a natureza esparsa, incerta e incompleta da maioria dos dados106 . O tema também
aponta para o surgimento de uma nova divisão digital em função do acesso às fontes de conhecimento,
que divide as empresas entre ricas em informações e pobres em dados16 . A criação de perfil, a
segmentação, mas também a vigilância, estão se tornando excessivamente acessíveis para aquelas
poucas empresas de mídia social que atingiram uma base de usuários considerável e possuem dados
transacionais suficientes107,108. Esse risco está sendo alertado por pesquisadores que propõem
considerar os dados como uma nova dimensão dentro da regulamentação antitruste.
6. conclusões
A crescente exploração do Big Data como um ativo estratégico assumiu recentemente um papel
fundamental no desenvolvimento dos negócios e da sociedade. O Big Data rapidamente se moveu
para o centro de uma infinidade de domínios díspares, desde tecnologia da informação até
gerenciamento de negócios e ciências médicas, resultando em um desenvolvimento florescente, mas
muitas vezes desorganizado, de conhecimento metodológico, ferramentas técnicas e aplicações
práticas. Este artigo apresenta os resultados de uma revisão sistemática da literatura, obtida por meio
de uma combinação de técnicas de mineração de texto e modelagem estatística. A metodologia
analítica original adotada neste estudo produziu uma estrutura hierárquica de dois níveis que descreve
os componentes da pesquisa atual sobre este assunto de uma forma que é inteligível e explicativa.
Como resultado, pudemos classificar os artigos da comunidade epistêmica de Big Data, identificando
17 tópicos fundamentais e quatro grandes temas, que intuitivamente descrevem como a massa caótica
de estudos abordava o assunto. Essa abordagem nos permitiu superar alguns dos limites de outras
revisões recentes da literatura sobre Big Data, que se concentravam em subconjuntos mais restritos
da literatura de Big Data. Embora alguns artigos possam apresentar características de temas cruzados,
descobrimos que a maioria deles se encaixa bem em um dos quatro temas pertencentes ao modelo
ITMI de Big Data. Além disso, o presente estudo confirma o valor geral do modelo ITMI, também
observado por outros pesquisadores em áreas específicas (como a literatura biomédica7 ), e o aprimora
ao introduzir os 17 tópicos subjacentes nos 4 temas. O modelo de dois níveis resultante pode ser
descrito através dos seguintes fatos fundamentais que são ilustrados na literatura atual: • Tema da
informação (inclui 4 tópicos): Os dados são gerados em uma taxa exponencialmente crescente de
todos os tipos de
dados pessoais (móveis-sociais-usuários ) e dispositivos não pessoais (sensores-power-operações,
eventos-fatores de tráfego) e é caracterizado por um
Versão pré-impressa do artigo publicado em 17 de julho de 2019 no International Journal of Information Technology &
Decision Making, vol. 18, nº 04, pp. 1433-1461 (2019), DOI: https:// doi.org/ 10.1142/ S0219622019300040 © copyright
World Scientific Publishing Company
Machine Translated by Google
maior grau de heterogeneidade em sua forma e conteúdo. A maior disponibilidade de dados acarreta
maiores riscos de segurança (segurança-acesso à informação).
• Tema de tecnologia (inclui 3 tópicos): processar e armazenar grandes volumes de dados dentro de
um prazo razoável implica em requisitos de desempenho rigorosos. Assim, algumas das questões
fundamentais que acompanham o Big Data estão relacionadas à tecnologia e incluem o design de
arquiteturas distribuídas (computação-nuvem-processamento), mecanismos eficientes para
armazenamento de dados (rede-armazenamento-desempenho) e modelos de dados não
convencionais (sistema-desempenho) . banco de dados de design).
• Tema de métodos (inclui 4 tópicos): a capacidade de transformar Big Data em insights significativos e
previsões de valor agregado pressupõe o conhecimento de métodos e técnicas apropriadas
(algoritmo-método-clustering, modelo-predição-método), muitas vezes com base em aprendizado de
máquina algoritmos (learning-problem-machine), capazes de lidar com as dimensões do Big Data
(approach-mine-set). • Tema de impacto (inclui 6 tópicos): o
advento do Big Data está afetando toda a sociedade, incluindo empresas (analytics-business-
management, large-visualization tools), comunidades científicas (pesquisa-projeto-humano),
governos e provedores de saúde (saúde-pacientes-saúde). Algumas implicações do uso generalizado
de dados também são percebidas como adversas: Big Data às vezes é visto como uma ameaça à
privacidade pessoal (desafios de tecnologia de pesquisa) e como uma barreira à livre concorrência
de mercado (fontes de conhecimento de informação).
O modelo ITMI proposto corrobora e amplia as estruturas de tópicos de Big Data já apresentadas na
literatura. Por exemplo, a classificação oferecida por Mishra et al. com foco no campo de gerenciamento
da cadeia de suprimentos6 confirma que a pesquisa de Big Data lida com: desafios relacionados a
dados, como qualidade de dados e acesso a feeds de mídia social (Informações), ferramentas para
gerenciar grandes conjuntos de dados e arquiteturas (Tecnologia), algoritmos e dados técnicas de
mineração (Métodos) e aplicações (Impacto).
Além disso, Van Altena et al.7 identificam 25 tópicos dentro de pesquisas biomédicas mais amplas e
concluem que os temas Informação, Tecnologia, Métodos e Impacto são os mais frequentemente
encontrados em tais tópicos.
O modelo conceitual hierárquico baseado em tópicos apresentado neste estudo pode apoiar pesquisas
futuras de três maneiras. Em primeiro lugar, os autores de Big Data entenderão claramente o
posicionamento de seus futuros artigos em relação a um ou mais tópicos dentro de um ou mais temas,
aprimorando sua capacidade de identificar seu embasamento teórico relevante. Em segundo lugar, a
classificação de dois níveis do ITMI ajudará a projetar pesquisas deliberadamente voltadas para o estudo
de Big Data em uma perspectiva multitemática, abrangendo a natureza multidisciplinar fisiológica do
assunto. Em terceiro lugar, a classificação do ITMI permitirá avaliar a evolução dos quatro temas,
incluindo a identificação de tópicos emergentes promissores. Mais precisamente, o presente estudo
identificou três direções de pesquisa que demonstraram um nível de interesse desenfreado nos últimos
anos e que devem continuar no futuro próximo: • a aplicação de Big Data no setor de saúde,
especialmente como suporte para
as crescentes necessidades da população idosa cada vez mais relevante para a demografia; • a
crescente utilização de dados captados por sensores dispersos, como consequência do
surgimento da Internet das Coisas;
Versão pré-impressa do artigo publicado em 17 de julho de 2019 no International Journal of Information Technology &
Decision Making, vol. 18, nº 04, pp. 1433-1461 (2019), DOI: https:// doi.org/ 10.1142/ S0219622019300040 © copyright
World Scientific Publishing Company
Machine Translated by Google
Estabelecimento de Big Data Como os dados podem ser precificados, negociados e protegidos
mercado para permitir um mercado de dados próspero e justo111?
Tecnologia Evolução das técnicas de armazenamento Como os bancos de dados relacionais tradicionais podem coexistir
com o NoSQL DB112?
Quais metodologias de design podem ser usadas para garantir
integridade e consistência aos bancos de dados NoSQL113?
Potência de computação como um serviço Como a potência de computação para aprendizado de máquina pode
ser fornecida de maneira escalável, em tempo real e orientada a
serviços114 ?
Métodos Novas técnicas para analisar dados As abordagens estatísticas significativas tradicionais (como valores-
p) ainda são formas válidas de avaliar a robustez dos
modelos de Big Data115?
Como lidar com o risco crescente de encontrar algum significado
em quase tudo16,36,115?
Como lidar efetivamente com o viés de amostragem e seleção em
fontes de Big Data, gerenciando o chamado “mito do grande n”
116?
Integração de pequenos e grandes Qual é o novo papel do Small Data no contexto da utilização massiva
Dados do Big Data Analytics e como as empresas devem se organizar
para integrar abordagens quantitativas e qualitativas para geração
efetiva de vantagem competitiva 117?
Versão pré-impressa do artigo publicado em 17 de julho de 2019 no International Journal of Information Technology &
Decision Making, vol. 18, nº 04, pp. 1433-1461 (2019), DOI: https:// doi.org/ 10.1142/ S0219622019300040 © copyright
World Scientific Publishing Company
Machine Translated by Google
aspirações e autenticidade121?
Como a governança da informação pode apoiar e aumentar
o impacto das iniciativas de Big Data122,123?
Acreditamos que o modelo conceitual ITMI apresentado neste artigo, baseado nas vertentes de
pesquisa observadas na literatura, pode servir como um sólido framework para uma agenda de
pesquisa em Big Data. De fato, descobrimos que muitos dos desafios abertos reconhecidos na presente
revisão da literatura foram destacados por propostas recentes de agenda de pesquisa73,124,125. Na
Tabela 3, oferecemos uma cobertura ilustrativa das atuais áreas de investigação que acreditamos que
deveriam fazer parte da agenda de pesquisa sobre Big Data.
A classificação ITMI também é útil para os profissionais, que podem identificar intuitivamente os
aspectos fundamentais do Big Data que devem ser levados em consideração por qualquer empresa
que queira extrair informações do Big Data e melhorar seu desempenho. Além disso, as empresas
podem usar o modelo ITMI como uma estrutura conceitual para avaliar pontos fortes e oportunidades
em todas as dimensões relevantes e decidir as melhores estratégias de melhoria. Embora o desenho
de um modelo de maturidade rigoroso baseado na estrutura ITMI não esteja incluído no trabalho atual
de pesquisa, os gerentes já podem alavancar o modelo hierárquico resultante para organizar seu
planejamento estratégico. De fato, trabalhos existentes já apontaram como a disponibilidade de dados,
tecnologia e know-how metodológico dentro da organização são pré-requisitos para a criação de valor
com base em Big Data73,126,127
.
Este artigo propôs uma metodologia de revisão sistemática da literatura que pode ser aplicada
virtualmente a qualquer campo científico. A metodologia é baseada em uma combinação original de
dois algoritmos de aprendizado de máquina estabelecidos (LDA e agrupamento hierárquico) e pode
permitir o design de estruturas de tópicos que os especialistas podem usar para descrever de forma
abrangente uma área de assunto. A generalização dessa abordagem analítica tem o potencial de
simplificar enormemente a maneira como o conhecimento escrito pode ser ilustrado e é deixada para pesquisas futuras.
A investigação atual é afetada por várias limitações conhecidas que fornecem oportunidades
estimulantes para pesquisas futuras. Em primeiro lugar, o corpus de documentos utilizados para
a revisão da literatura é proveniente exclusivamente do Scopus, que é um repositório parcial,
embora extenso, de artigos de pesquisa. Essa limitação sugere a oportunidade de realizar novas
pesquisas utilizando fontes adicionais para a constituição do corpus de artigos a serem
analisados. Em segundo lugar, a análise foi baseada exclusivamente em documentos em inglês
e pode excluir alguns tópicos relevantes em países que não falam inglês. Em terceiro lugar,
estamos cientes de que futuras inovações tecnológicas disruptivas podem afetar muito os
principais tópicos da literatura de Big Data e até exigir um repensar abrangente dos temas ITMI.
Em quarto lugar, como a pesquisa começou em 2017, nosso conjunto de dados pode incluir
apenas estudos até 2016, futuros estudos de replicação poderão assumir a liderança deste artigo
e atualizar o entendimento da literatura de Big Data. Por fim, a escolha da hierarquia de tópicos
e a avaliação da precisão do modelo foram baseadas no julgamento humano de um número
limitado de especialistas e podem ser estendidas a uma versão Preprint baseada em consenso
do artigo publicado em 17 de julho de 2019 na International Jornal de Tecnologia da Informação
e Tomada de Decisões, vol. 18, nº 04, pp. 1433-1461 (2019), DOI: https:// doi.org/ 10.1142/
S0219622019300040 © copyright World Scientific Publishing Company
Machine Translated by Google
Agradecimentos
Referências
1. V. Mayer-Schönberger e K. Cukier, Big Data: A Revolution That Will Transform How We Live, Work
and Think (John Murray, Londres, 2013).
2. A. Gandomi e M. Haider, Além do exagero: Conceitos, métodos e análises de big data, Int. J. Inf.
Gerenciar. 35 (2015) 137–144.
3. X. Tian, Big data e gestão do conhecimento: um caso de déjà vu ou de volta ao futuro?, J.
Knowl. Gerenciar 21 (2017) 113–131.
4. R. Clarke, Big data, grandes riscos, Inf. Sist. J. 26 (2016) 77–90.
5. S. Fosso Wamba, S. Akter, A. Edwards, G. Chopin e D. Gnanzou, Como 'big data' pode causar
grande impacto: Descobertas de uma revisão sistemática e um estudo de caso longitudinal, Int . j.
Prod. Econ. 165 (2015) 234–246.
6. D. Mishra, A. Gunasekaran, T. Papadopoulos e SJ Childe, Big Data e gerenciamento da cadeia de
suprimentos: uma revisão e análise bibliométrica, Ann. Operador Res. (2016) 1–24.
7. AJ van Altena, PD Moerland, AH Zwinderman e SD Olabarriaga, Compreendendo temas de big
data da literatura biomédica científica por meio da modelagem de tópicos, J. Big Data 3 (2016) 23.
8. A. De Mauro, M. Greco e M. Grimaldi, Uma definição formal de Big Data baseada em suas
características essenciais, Libr. Rev. 65 (2016) 122–135.
9. TH Davenport, Big Data no trabalho: dissipando os mitos, descobrindo as oportunidades (Harvard
Business Review Press, 2014).
10. DJ Power, Uma Breve História dos Sistemas de Apoio à Decisão, 2007. . Disponível em: http://
dssresources.com/history/dsshistory.html. [Acesso: 20-nov-2017].
11. MA Beyer e D. Laney, The Importance of “Big Data”: A Definition (Stamford, CT, 2012).
12. A. Zaslavsky, C. Perera e D. Georgakopoulos, Sensing as a service and big data, in Proc. Int. conf.
Adv. Computação em Nuvem. (Bangalore, 2012), pp. 21–29.
13. Grupo de Trabalho Público de Big Data do NIST, Estrutura de Interoperabilidade de Big Data:
Definições (rascunho) (Instituto Nacional de Padrões e Tecnologia, Gaithersburg, MD, 2014).
14. E. Dumbill, Making Sense of Big Data, Big Data 1 (2013) 1–2.
15. V. Mayer-Schönberger e K. Cukier, Big Data: A Revolution That Will Transform How We Live (2013).
16. D. Boyd e K. Crawford, Questões críticas para big data: Provocações para um fenômeno cultural,
tecnológico e acadêmico, Information, Commun. Sociedade 15 (2012) 662–679.
17. D. Delen e MD Crossland, Semeando a pesquisa e análise da literatura de pesquisa com mineração
de texto, Expert Syst. Appl. 34 (2008) 1707–1720.
18. BCM Fung, K. Wangy e M. Esterz, agrupamento hierárquico de documentos usando a versão pré-impressa
frequente do artigo publicado em 17 de julho de 2019 no International Journal of Information Technology & Decision
Making, vol. 18, nº 04, pp. 1433-1461 (2019), DOI: https:// doi.org/ 10.1142/ S0219622019300040 © copyright World
Scientific Publishing Company
Machine Translated by Google
conjuntos de itens, em Int. conf. Dados mín. (San Francisco, CA, 2003), pp. 59–70.
19. SMC Moro, PAR Cortez e PMRF Rita, Inteligência de negócios em bancos: uma análise da literatura de
2002 a 2013 usando mineração de texto e alocação latente de Dirichlet, Expert Syst. Appl. 42 (2014)
1314–1324.
20. A. Sunikka e J. Bragge, Aplicando a mineração de texto à literatura de pesquisa de personalização e
personalização – Quem, o quê e onde?, Expert Syst. Appl. 39 (2012) 10049–10058.
21. GW Milligan e MC Cooper, Um exame de procedimentos para determinar o número de grupos em um
conjunto de dados, Psychometrika 50 (1985) 159–179.
22. EM Airoldi, DM Blei, SE Fienberg e EP Xing, Modelos de blocos estocásticos de associação mista, J.
Mach. Aprender. Res. 9 (2008) 1981–2014.
23. EM Airoldi, DM Blei, EA Erosheva e SE Fienberg, Handbook of Mixed Membership Models and Their
Applications (CRC Press, 2014).
24. DM Blei, Introdução aos Modelos de Tópicos Probabilísticos, Commun. ACM 55 (2012) 77–84.
25. D. O'Callaghan, D. Greene, J. Carthy e P. Cunningham, Uma análise da coerência dos descritores na
modelagem de tópicos, Expert Syst. Appl. 42 (2015) 5645–5657.
26. D.-T. Vo e C.-Y. Ock, Aprendendo a classificar textos curtos de documentos científicos usando modelos
de tópicos com vários tipos de conhecimento, Expert Syst. Appl. 42 (2015) 1684-1698.
27. M. Ponweiser, Latent Dirichlet Allocation in R (Universidade de Economia e Negócios, Viena, 2012).
28. TL Griffiths e M. Steyvers, Encontrando tópicos científicos, em Proc. Nacional Acad. ciência EUA (2004),
pp. 5228–5235.
29. M. a Taddy, Sobre Estimativa e Seleção de Modelos de Tópicos, Proc. Décima Quinta Int. conf.
artif. Intel. Estado. (AISTATS 2012) (2012) 1184–1193.
30. J. Chang, S. Gerrish, C. Wang e DM Blei, Reading Tea Leaves: How Humans Interpret Topic Models,
Adv. Informação Neural Processo. Sist. 22 (2009) 288--296.
31. EF Glynn, “Distâncias” de correlação e agrupamento hierárquico, notas de pesquisa de efg, 2005. .
Disponível em: http://research.stowers-institute.org/mcm/efg/R/Visualization/cor cluster/index.htm.
[Acesso: 11-nov-2017].
32. M. Charrad, N. Ghazzali, V. Boiteau e A. Niknafs, NbClust: Um pacote R para determinar o número
relevante de clusters em um conjunto de dados, J. Stat. Softw. 61 (2014) 1–36.
39. M. Elshendy e AF Colladon, análise de big data de notícias econômicas: dicas para prever indicadores
macroeconômicos, Int. J. Eng. Ônibus. Gerenciar 9 (2017) 1–12.
40. A. La Bella, A. Fronzetti Colladon, E. Battistoni, S. Castellan e M. Francucci, Avaliação de estilos de
liderança organizacional percebidos por meio da mineração de texto no Twitter, J. Assoc. Inf. ciência
Tecnol. (2017).
41. DJ Pauleen, Davenport e Prusak sobre KM e big data/analytics: entrevista com David J. Pauleen, J.
Knowl. Gerenciar 21 (2017) 7–11.
42. DS Terzi, R. Terzi e S. Sagiroglu, Uma pesquisa sobre questões de segurança e privacidade em big data,
Versão pré-impressa do artigo publicado em 17 de julho de 2019 no International Journal of Information Technology &
Decision Making, vol. 18, nº 04, pp. 1433-1461 (2019), DOI: https:// doi.org/ 10.1142/ S0219622019300040 © copyright
World Scientific Publishing Company
Machine Translated by Google
em 2015 10º Int. conf. Tecnologia da Internet. Seguro. Trans. (IEEE, 2015), pp. 202–207.
43. Y. Mengke, Z. Xiaoguang, Z. Jianqiu e X. Jianjian, Desafios e soluções de questões de segurança da
informação na era do big data, China Commun. 13 (2016) 193–202.
44. KE Greenaway, YE Chan e RE Crossler, Orientação para a privacidade das informações da empresa: uma
estrutura conceitual, Inf. Sist. J. 25 (2015) 579–606.
45. D. Estrin, D. Culler, K. Pister e G. Sukhatme, Conectando o mundo físico com redes pervasivas, IEEE
Pervasive Comput. 1 (2002) 59–69.
46. L. Atzori, A. Iera e G. Morabito, The Internet of Things: A survey, Comput. Redes 54 (2010) 2787–2805.
47. M. Chui, M. Löffler e R. Roberts, The Internet of Things, McKinsey Q. (2010) 1–9.
48. L. Uden e W. He, Como a Internet das Coisas pode ajudar a gestão do conhecimento: um estudo de caso
do domínio automotivo, J. Knowl. Gerenciar 21 (2017) 57–70.
49. J. Bughin, M. Chui e J. Manyika, Clouds, big data, and smart assets: Ten tech-enabled business trends to
watch, McKinsey Q. 56 (2010) 75–86.
50. J. Zhan, J. Huang, L. Niu, X. Peng, D. Deng e S. Cheng, Estudo das principais tecnologias de big data de
energia elétrica e suas perspectivas de aplicação em smart grid, em 2014 IEEE PES Asia-Pacific Power
Eng. de Energia conf. (2014), pp. 1–4.
51. E. Al Nuaimi, H. Al Neyadi, N. Mohamed e J. Al-Jaroodi, Applications of big data to smart cities, J. Internet
Serv. Appl. 6 (2015) 1–15.
52. GE Moore, Cramming mais componentes em circuitos integrados, Reprinted from Electronics, volume 38,
número 8, 19 de abril de 1965, pp.114 ff., IEEE Solid-State Circuits Newsl. 11 (2006) 33–35.
53. M. Hilbert e P. López, A capacidade tecnológica do mundo para armazenar, comunicar e computar
informações., Ciência (80-. ). 332 (2011) 60–65.
54. TC Xu e V. Leppanen, analisando tecnologias emergentes de memória para big data e aplicativos de
processamento de sinal, em 2015 Fifth Int. conf. Dígito Inf. Processo. Comum.
(IEEE, 2015), pp. 104–109.
55. S. Venkataraman, N. Tolia, P. Ranganathan e RH Campbell, Estruturas de dados consistentes e duráveis
para memória endereçável por byte não volátil, em Proc. 9ª USENIX Conf.
Tecnologia de armazenamento de arquivos. - FAST (2011), pp. 61–75.
56. M. Sathiamoorthy, M. Asteris, D. Papailiopoulos, AG Dimakis, R. Vadali, S. Chen e D. Borthakur, XORing
Elephants: Novel Erasure Codes for Big Data, in 39th Int. conf.
Bancos de Dados Muito Grandes, VLDB (2013), pp. 325–336.
57. L. Zhou, D2D Communication Meets Big Data: From Theory to Application, Mob.
Aplicativo de Redes 20 (2015) 783-792.
58. R. Castro Fernandez, M. Migliavacca, E. Kalyvianaki e P. Pietzuch, Integrando expansão e tolerância a
falhas no processamento de fluxo usando gerenciamento de estado do operador, em Proc.
2013 ACM SIGMOD Int. conf. Gerenciar Dados (2013), pp. 725–736.
59. C. Ji, Y. Li, W. Qiu, U. Awada e K. Li, Big Data Processing in Cloud Computing Environments, in 12th Int.
Simp. Sistema Pervasivo Algorithms Networks (San Marcos, TX, 2012), pp. 17–23.
60. L. Gu, D. Zeng, S. Guo, Y. Xiang e J. Hu, Uma Estrutura Geral de Otimização de Custos de Comunicação
para Processamento de Fluxo de Big Data em Data Centers Geo-Distribuídos, IEEE Trans . Comput. 65
(2016) 19–29.
61. K. Shvachko, H. Kuang, S. Radia e R. Chansler, O sistema de arquivos distribuído Hadoop, em IEEE 26º
Symp. Sistema de armazenamento em massa Tecnol. MSST2010 (IEEE, 2010), pp. 1–10.
J. Dean e S. Ghemawat, MapReduce: Processamento de Dados Simplificado em Grandes Clusters, 62.
Versão pré-impressa do artigo publicado em 17 de julho de 2019 no International Journal of Information Technology &
Decision Making, vol. 18, nº 04, pp. 1433-1461 (2019), DOI: https:// doi.org/ 10.1142/ S0219622019300040 © copyright
World Scientific Publishing Company
Machine Translated by Google
65. D. Argawal, S. Das e A. El Abbadi, Big Data e Computação em Nuvem: Estado Atual e Oportunidades
Futuras, em Proc. Int. conf. Estendendo a tecnologia de banco de dados. (ACM Press, Uppsala, 2011), pp.
530–533.
66. Jing Han, Haihong E, Guan Le e Jian Du, Pesquisa sobre banco de dados NoSQL, em 2011 6º Int.
conf. Computação Pervasiva. Appl. (IEEE, 2011), pp. 363–366.
67. J. Bhogal e I. Choksi, Handling Big Data Using NoSQL, em 2015 IEEE 29th Int. conf.
Adv. Inf. Netw. Appl. Trabalhar. (IEEE, 2015), pp. 393–398.
68. CJ Tauro, S. Aravindh e AB Shreeharsha, Estudo Comparativo da Nova Geração, Ágil, Escalável, Bancos
de Dados NOSQL de Alto Desempenho, Int. J. Comput. Appl. 48 (2012) 1–4.
69. J. Manyika, M. Chui, B. Brown, J. Bughin, R. Dobbs, C. Roxburgh e A. Hung Byers, Big data: A próxima
fronteira para inovação, competição e produtividade (2011).
70. H. Chen, R. Chiang e V. Storey, Business Intelligence and Analytics: From Big Data to Big Impact, MIS Q.
36 (2012) 1165–1188.
71. X. Li, Y. Tian, F. Smarandache e R. Alex, Um Modelo de Inovação Colaborativa de Extensão no Contexto
de Big Data, Int. J. Inf. Tecnol. Decis. Mak. 14 (2015) 69–91.
72. HU Buhl, M. Röglinger, F. Moser e J. Heidemann, Big Data, Bus. Inf. Sist. Eng. 5 (2013) 65–69.
73. P. Mikalef, IO Pappas, J. Krogstie e M. Giannakos, Capacidades de análise de big data: uma revisão
sistemática da literatura e agenda de pesquisa, Inf. Sist. E-Bus. Gerenciar (2017) 1–32.
74. TH Davenport e DJ Patil, cientista de dados: o trabalho mais sexy do século 21, Harv.
Ônibus. Rev. 90 (2012) 70–76.
75. S. Miller, Abordagens colaborativas necessárias para fechar a lacuna de habilidades de big data, J. Organ.
Des. 3 (2014) 26–30.
76. A. De Mauro, M. Greco, M. Grimaldi e P. Ritala, Recursos humanos para profissões de Big Data: uma
classificação sistemática de funções de trabalho e conjuntos de habilidades necessárias, Inf. Processo.
Gerenciar 0 (2017) 1–11.
77. A. McAfee e E. Brynjolfsson, Big data: a revolução do gerenciamento, Harv. Ônibus. Rev. 90 (2012) 61–67.
78. C. Anderson, O Fim da Teoria: O Dilúvio de Dados Torna o Método Científico Obsoleto, Wired 16 (2007).
79. K. Seely-Gant e LM Frehill, Explorando Viés e Erro na Pesquisa de Big Data, Washingt. Acad. ciência J.
Washingt. Acad. ciência 101 (2015) 29.
80. CM Bishop, Reconhecimento de padrões e aprendizado de máquina (Springer, Nova York, NY, 2006).
81. D. Feldman, M. Schmidt e C. Sohler, Transformando dados grandes em dados minúsculos: conjuntos de
núcleos de tamanho constante para k-means, PCA e clustering projetivo, em Proc. Vigésimo quarto ano.
ACM SIAM Symp. Discreto. Algorithms (Society for Industrial and Applied Mathematics, Filadélfia, PA,
2013), pp. 1434–1453.
82. M. Song, H. Yang, SH Siadat e M. Pechenizkiy, Um estudo comparativo de técnicas de redução de
dimensionalidade para aprimorar desempenhos de agrupamento de traços, Expert Syst.
Versão pré-impressa do artigo publicado em 17 de julho de 2019 no International Journal of Information Technology &
Decision Making, vol. 18, nº 04, pp. 1433-1461 (2019), DOI: https:// doi.org/ 10.1142/ S0219622019300040 © copyright
World Scientific Publishing Company
Machine Translated by Google
92. S. Bahri, N. Zoghlami, M. Abed e JMRS Tavares, Big Data for Healthcare: A Survey, IEEE Access
7 (2019) 7397–7408.
93. TB Murdoch e AS Detsky, A aplicação inevitável de big data aos cuidados de saúde, JAMA 309
(2013) 1351–1352.
94. CG Chute, M. Ullman-Cullere, GM Wood, SM Lin, M. He e J. Pathak, Algumas experiências e
oportunidades para big data em pesquisa translacional, Genet. Med. 15 (2013) 802-809.
97. J. Cao, Z. Heng, JM Yang e J. Zhu, Status de modelos SUSY de baixa energia confrontados com
os dados LHC 125 GeV Higgs, J. High Energy Phys. 2012 (2012) 79.
98. R. Conte, N. Gilbert, G. Bonelli, C. Cioffi-Revilla, G. Deffuant, J. Kertesz, V. Loreto, S.
Moat, JP Nadal, A. Sanchez, A. Nowak, A. Flache, M. San Miguel e D. Helbing, Manifesto de
ciência social computacional, Eur. Física J. Spec. Principal. 214 (2012) 325–346.
99. C. Cioffi-Revilla, Ciências sociais computacionais, Wiley Interdiscip. Rev. Comput. Estado. 2
(2010) 259–271.
100. D. Lazer, D. Brewer, N. Christakis, J. Fowler e G. King, Life in the network: the coming age of
computational social, Science (80-. ). 323 (2009) 721–723.
Versão pré-impressa do artigo publicado em 17 de julho de 2019 no International Journal of Information Technology &
Decision Making, vol. 18, nº 04, pp. 1433-1461 (2019), DOI: https:// doi.org/ 10.1142/ S0219622019300040 © copyright
World Scientific Publishing Company
Machine Translated by Google
101. B. Brown, M. Chui e J. Manyika, Você está pronto para a era do 'big data'?, McKinsey Q. 4 (2011)
24–35.
102. M. Hilbert, Big Data para Desenvolvimento: Uma Revisão de Promessas e Desafios, Dev.
Política Rev. 34 (2016) 135–174.
103. P. Tubaro, A. a Casilli e Y. Sarabi, Contra a hipótese do fim da privacidade (2014).
104. A. Narayanan e V. Shmatikov, Robust de-anonimização de grandes conjuntos de dados esparsos,
em Proc. - IEEE Symp. Seguro. Priv. (2008), pp. 111–125.
105. Y. Peng, G. Kou, Y. Shi e Z. Chen, Uma estrutura descritiva para o campo de mineração de dados e
descoberta de conhecimento, Int. J. Inf. Tecnol. Decis. Mak. 07 (2008) 639–682.
106. Xindong Wu, Xingquan Zhu, Gong-Qing Wu e Wei Ding, mineração de dados com big data,
IEEE Trans. Knowl. Eng. de dados 26 (2014) 97–107.
107. A. Oboler, K. Welsh e L. Cruz, O perigo do big data: mídia social como ciência social computacional,
primeira segunda-feira, 17 (2012).
108. L. Manovich, Trending: The Promises and the Challenges of Big Social Data, in Debates Digit.
Humanit., ed. MK Gold (University of Minnesota Press, Minneapolis, MN, 2012), pp. 460–475.
Versão pré-impressa do artigo publicado em 17 de julho de 2019 no International Journal of Information Technology &
Decision Making, vol. 18, nº 04, pp. 1433-1461 (2019), DOI: https:// doi.org/ 10.1142/ S0219622019300040 © copyright
World Scientific Publishing Company