Você está na página 1de 8

Big data

Origem: Wikipédia, a enciclopédia livre.


Big Data é a área do conhecimento que estuda como tratar, analisar e obter
informações a partir de conjuntos de dados grandes demais para serem
analisados por sistemas tradicionais. Ao longo das últimas décadas, a quantidade
de dados gerados tem crescido de forma exponencial.O surgimento da Internet
aumentou de forma abrupta a quantidade de dados produzidos, e a popularização
da Internet das coisas fez sairmos da era do terabyte para o petabyte[1][2]. Em
2015, entramos na era do zetabytes[3], e atualmente geramos mais de 2,5
quintilhões de bytes diariamente[4]. O termo Big Data surgiu em 1997[5] e seu
uso foi utilizado para nomear essa quantidade cada vez mais crescente e não O Big Data abrange conjuntos de
estruturada de dados sendo gerados a cada segundo. Atualmente o big data é dados de grande volume, variedade
e velocidade.
essencial nas relações econômicas e sociais e representou uma evolução nos
sistemas de negócio e na ciência[2]. As ferramentas de big data são de grande
importância na definição de estratégias de marketing, aumentar a produtividade, reduzir custos e tomar decisões mais
inteligentes[6]. A essência do conceito está em gerar valor para negócios[7]. No que tange a ciência, o surgimento do big data
representou a criação de um novo paradigma (4° paradigma) sendo concebido um novo método de avançar as fronteiras do
conhecimento, por meio de novas tecnologias para coletar, manipular, analisar e exibir dados, construindo valor agregado com as
análises geradas[8].

Índice
Definição
Histórico
Tipos de Dados
Mercado de trabalho
Aplicações na atualidade
Críticas
Ver Também
Referências
Bibliografia
Ligações externas

Definição
Big data é um termo recente e por isso não existente na maior parte de dicionários de estatística. São dados multivariados e de
elevada dimensão, geralmente criados em tempo real e apresentam um crescimento exponencial (na escala temporal), nomeados
de megadados[9].
Quanto mais dados são gerados, maior é o esforço para extrair informações[7], e os centros de dados tiveram que aprender a lidar
com o crescimento exponencial de dados gerados e tiveram que desenvolver ferramentas que fossem para além de bancos de
dados relacionais e sistemas paralelos de bancos de dados[2]. Sendo assim, a velocidade para obter a informação faz parte do
sucesso que o big data pode proporcionar em sua empresa[7]. O conceito de big data foi definido inicialmente por 3'V[7] mas a
literatura mostrou que seu conceito pode ser expandido para 5'V[10], representados pelos seguintes conceitos[7]:

Volume: relacionado a grande quantidade de dados gerados;


Variedade: as fontes de dados são muito variadas, o que aumenta a complexidade das análises;
Velocidade: Devido ao grande volume e variedade de dados, todo o processamento deve ser ágil para gerar as
informações necessárias;
Veracidade: A veracidade está ligada diretamente ao quanto uma informação é verdadeira.
Valor: Este conceito está relacionado com o valor obtido desses dados, ou seja, com a “informação útil”.

Histórico
Construção do Conceito

O termo big data tem um conceito relativo, já que seu tamanho depende de quem está usando os dados[11]. Neste contexto, o
primeiro relato sobre uso de estatísticas para obter informações de grandes quantidades de dados data de 1663. Nesse ano, John
Graunt utilizou uma grande quantidade de informações, de diferentes fontes, para estudar a epidemia da peste bulbônica na
Europa. Para Graunt, sua quantidade de dados poderia ser considerado big data[12].

O uso dos primeiros equipamentos para processar dados datam de 1890, durante a realização do Censo dos Estados Unidos,
conduzido pelo U.S. Census Bureau[13]. Na ocasião, a Máquina de Tabulação diminuiu o tempo de processamento dos dados para
apenas 6 semanas[14]. Entretanto, somente em no século XX que começaram a surgir os primeiros sistemas para armazenamento
de informações. Em 1927, o engenheiro Fritz Pfleumer criou um método para guardar informações em fitas magnéticas[11].

Durante a Segunda Guerra Mundial, foi criada a primeira máquina digital de processamento de dados. Foi em 1943, quando os
Britânicos desenvolveram um sistema para decifrar códigos nazistas durante a Segunda Guerra Mundial. O nome da máquina era
Colossus, que podia interceptar mensagens a uma taxa de 5000 caracteres por segundo[15]. A primeiro órgão público criado
especificamente para o processamento de dados, a Agência Nacional de Segurança (NSA) dos EUA, foi fundado em 1952, com o
objetivo de processar dados automaticamente para obter informações relativas a inteligência durante a Guerra Fria[16].

Um dos primeiros Centro de Dados foi criado em 1965, também pelo governo americano, com o objetivo de controlar o
pagamento de impostos e as impressões digitais dos americanos[15]. Este Centro de Dados possuía o mesmo padrão dos bancos
de dados criados até a década de 1970. Eram bancos de dados centralizados, onde uma mesma máquina era responsável pelo uso,
armazenamento e análise dos dados[2]. Com o aumento da quantidade de dados, começaram a surgir novas arquiteturas de dados
que permitissem processar e analisar esses dados. Nas década de 80 começaram a surgir os Sistemas de Bancos de Dados
Paralelos[17]. Nesse caso, ao invés de um banco de dados centralizado, cada processador se comunica com os outros apenas
enviando mensagens através de uma rede interconectada. Os primeiros bancos de dados paralelos possibilitaram a criação do
primeiro banco de dados com capacidade em terabytes, pela KMART, em 1986[2].

Em 1989, o cientista britânico Tim Berners-Lee criou o World Wide Web, para facilitar a troca de informações entre as pessoas. O
que Tim Berners-Lee não sabia era que sua invenção iria revolucionar a forma como os dados eram gerados e a quantidade de
dados criados[18]. A criação da Web 2.0 ajudou no aumento dos dados[15]. O termo big data foi usado pela primeira vez em
1997[5], entretanto o nome começou a ser usado oficialmente em 2005, quando Roger Mougalas, da O’Reilly Media publicou um
artigo mencionando o tema[19].

Evolução Tecnológica de Armazenamento e Processamento


Os dados que agregam o conjunto do big data são provenientes de várias fontes. Desta maneira, normalmente não apresenta uma
estrutura bem definida, ou seja, não pode ser armazenada nos sistemas padrões de banco de dados, como o Sistema Gerenciador
de Banco de Dados Relacional (SGBDR), onde os dados são representados por meio de tabelas, com diversas linhas e
colunas[20]. Os cientistas de dados começaram a verificar que bancos de dados relacionais não conseguiriam suportar essa grande
quantidade de dados não estruturados. Desta maneira, novas tecnologias e processos tiveram que ser desenvolvidos para permitir
que esses dados não estruturados fossem analisados, já que os mesmos podem representar até 80% do total de dados[21]. Foi
quando a Google criou o MapReduce, em 2004[22], que é um modelo de programação que permite processar grandes quantidades
de dados em paralelo, dividindo o trabalho em um conjunto de tarefas independentes, geralmente executado em um cluster de
computadores[23].

Posteriormente, foi desenvolvido o Hadoop, que é uma implementação em código aberto do MapReduce[24]. O Hadoop foi criado
pelo Yahoo em 2005 e pode ser considerado uma das maiores invenções de data management desde o modelo relacional[25].
Entretanto, o Hadoop não é considerado uma base dados como o SGBDR. Ele é um sistema de distribuição de arquivos utilizado
para processar e armazenas grande quantidade de dados (big data) por meio de clusters[20], onde os mesmos são processados
paralelamente e podendo ser executados em servidores sem muito esforço[24]. Atualmente, esse tipo de processamento é o mais
utilizado por empresas que trabalham com big data e diversas empresas vêm contribuindo com código para seu desenvolvimento,
como a Yahoo, Facebook, Cloudera, IBM e outras[25].

Segundo a IBM em 2008 foram produzidos cerca de 2,5 quintilhões de bytes todos os dias e surpreendentemente 90% dos dados
no mundo foram criados nos últimos dois anos, decorrente a adesão das grandes empresas à internet, como exemplo as redes
sociais, dados dos GPS, dispositivos embutidos e móveis[26]. Atualmente, a Internet das Coisas mudou a forma como os dados
são gerados, aumentando de forma abrupta a quantidade de dados gerados[2]. Todos esses objetos físicos da Internet das Coisas
são capazes de coletar e transmitir dados, gerando dados não estruturados que não podem ser armazenados e processados por
banco de dados comuns.

Tipos de Dados
Existem tipos básicos de dados que são estudados pelos especialistas em big data, os conceitos mais utilizados geralmente
envolvem:

Social Data: Dados coletados de redes sociais ou ambientes de interação entre usuários, geralmente
demográficos e comportamentais, ou seja, ditam um padrão de um determinado grupo com as mesmas
característica. O Social Data é muito utilizado na análise de campanhas de marketing, de maneira a oferecer um
serviço ou produto mais personalizado de acordo com diferentes segmentos.
Enterprise Data: Na tradução literal Dados Empresariais, coletados pelo RH de empresas, setores de vendas,
finanças, logística e produção, esses dados são atributos sobre funcionários e setores diferentes dentro de um
ambiente empresarial, podem ser utilizados para otimizar processos e identificar falhas ou fraudes dentro de
uma determinada seção, esse tipo de dado é um marco de investimento estratégico de grandes empresas, que
visam minimizar gastos e otimizar lucros.
Personal Data: Dados pessoais, facilmente relacionados ao conceito da Internet das coisas, são dados obtidos
através de aparelhos de uso pessoal ou coletivo, tais como smartphones, geladeiras, televisões, carros, etc.
Esse tipo de dado mostra as preferências pessoais de um determinado indivíduo através do estudo de padrões,
por meio do uso do Personal Data é possível desenvolver metodologias personalizadas de interação com o
cliente, de maneira a tornar a relação com o produto menos mecanizada e robotizada.

Mercado de trabalho
As oportunidades de trabalho na área de estatística estão aumentando graças à proliferação de programas para análise de dados e
seu uso, especialmente, na tomada de decisão com objetivos estratégicos como: políticas de governo, seleção de investimentos,
gestão de empresas e negócios, etc. O big data permite trabalhar com grandes volumes de dados, por vezes, não aceitos pelos
grandes programas estatísticos. No Brasil existe a profissão de Estatístico, regulamentada pelo Decreto Federal nº 62497 de
1968[27]. Este profissional é treinado para trabalhar com estruturas de dados, em seu manuseio para extração de informação
estratégica, nos métodos estatísticos de análise e em programação para sua análise estatística, de modo a se obter conclusões com
margens de erro controladas para a tomada de decisões com base nos dados disponíveis. A IBM criou a Big Data University, que
fornece certo conhecimento do big data. Existem na Internet, sites que oferecem plataformas de ensino à distância, comumente
conhecidas como MOOCs, com cursos nas áreas de big data e de ciência de dados (Data Science, no original em inglês), nos
quais pode-se estudar o seu conteúdo de forma gratuita ou pagar pelo certificado do curso. Os mais conhecidos são os sites do
Coursera, Udacity e o EDX.org, este último, fruto de parceria entre as universidades americanas de Harvard e do MIT e empresas
do Vale do Silício. No Brasil, o mercado para a área é promissor, sendo que muitas renomadas Universidades passaram a oferecer
cursos de pós-graduação e MBAs ligados à área de big data, variando em sua maioria no tamanho da carga horária destinada à
parte de negócios, componente importante na formação deste profissional, que precisará ter além das habilidades técnicas, a
capacidade de apresentar as conclusões de suas análises e insights para um público leigo de forma simples, de forma a gerar valor
para o negócio da empresa.

Aplicações na atualidade
Um estudo do Instituto IDC mostrou que diversos setores da sociedade estão investindo em big data[28], indicando que foram
investidos mais de US$ 16,6 bilhões em 2014 para atividades do setor. Este mesmo estudo afirma que a expectativa é que este
valor atinja, em 2018, o valor de US$ 41,5 bilhões. As instituições estão investindo em big data por observarem da interferência
dos custos, das consequências que pode haver para o futuro do negócio. O objetivo por trás do big data é melhorar a prestação de
informações aos gestores, fazendo com que haja um suporte na tomada de decisões – com dados reais e precisos[29]. A seguir
serão apresentadas algumas aplicações de big data, em diferentes setores:

O filme “Moneyball” (O homem que mudou o jogo) com o ator Brad Pitt, no qual o gerente de um time de
beisebol usa o big data para reunir um time de primeira linha sem gastar muito;
A empresa UPS, após análise das rotas de seus motoristas, proibiu os mesmos de virar à esquerda[30]. De
acordo com a empresa, isto permitiu economizar por ano cerca de 38 milhões de litros de combustível, deixando
de emitir 20 mil toneladas de dióxido de carbono. Além disso, entregam 350 mil pacotes a mais;
No terremoto do Haiti, pesquisadores americanos fizeram uso da geolocalização de 2 milhões de chips SIM,
para auxiliar nas missões humanitárias[31];
Para melhorar os laboratórios de física nuclear, a empresa CERN (Organização Europeia para a Pesquisa
Nuclear), criou o maior acelerador de partículas do mundo, chamado Large Hadron Collider. Com ele, é gerada
uma quantidade enorme de dados. Para a utilização dessa máquina é necessário muita memória - cerca de 30
petabytes de dados - e, para analisar esses dados são necessários 65 mil processadores, e usa também o
recurso de vários computadores pelo mundo inteiro.
A utilização dos dados de censos e outros recolhidos pelos governos, facilita na análise dos Datas Censes,
melhorando a nossa saúde e também ciência social.[32]

Em busca dos melhores lugares para instalar turbinas eólicas, uma empresa dinamarquesa analisou petabytes
de dados climáticos do nível das marés, mapas de desmatamentos, entre outros. No fim o que costumava
demorar semanas durou apenas algumas horas[33];
Big data foi de grande importância para o descobrimento do pré-sal, devido a sua velocidade, que agilizava os
processamentos de dados sísmicos captados pelas sondas que procuram petróleo no fundo do mar. Como são
milhões as variáveis, o trabalho exige intermináveis simulações de imagens, e só o big data é capaz de dar
conta do trabalho em um tempo melhor[34];
Alguns times de diversos esportes utilizam o big data na performance dos atletas, com câmeras e outros
aparelhos. Desta maneira, conseguem observar o desempenho dos atletas e, ao analisar os dados, tomar
decisões mais precisas, melhorando o desempenho e corrigindo os erros, criando também estatísticas para os
próximos jogos[35];
Empresas de tecnologia como a Netflix e a Spotify utilizam de big data para definir as preferências dos seus
usuários, e fornecer para eles conteúdos mais individualizados[36];
As ferramentas de propaganda do Facebook e do Instagram são baseadas em big data, pois correlacionam
dados dos usuários das redes sociais com suas preferências de consumos e serviços[37].
Um interessante estudo de caso sobre sucessos e erros do uso do big data é o Google Flu Trends (GTF), que
foi lançado pela Google em 2008[38]. Este serviço foi divulgado pela primeira vez por meio de um artigo na
revista Nature[39], e prometia detectar com algumas semanas de antecedência a ocorrência de epidemias de
gripe. Anteriormente ao GFT, os sistemas tradicionais dos EUA faziam estimativas de casos e epidemias de
gripe a cada duas semanas, usando dados dos Centros de Controle e Prevenção de Doenças dos EUA (U.S.
Centers for Disease Control and Prevention - CDC). Essas estimativas eram baseadas em dados virológicos e
clínicos, relacionados a visitas de pacientes aos hospitais e consultórios. Com o aumento do acesso à internet,
verificou-se que mais de 90 milhões de americanos procuravam todos os anos por informações sobre uma
doença específica ou problema médico. Nesse contexto, os pesquisadores da Google verificaram que era
possível correlacionar essas buscas com casos efetivos de gripe[39]. Para validar a metodologia, foram
processadas centenas de bilhões de pesquisas no Google pelo período de 5 anos (2003 a 2007) para os EUA,
correlacionando palavras de busca específicas com casos efetivos da doença. Os dados foram validados por
meio dos relatórios da CDC para o período, com um correlação média de 90%[39]. O modelo foi testado em
tempo real nos anos de 2007 e 2008 e os resultados foram divulgados com o CDC para avaliar a resposta e a
acurácia, mostraram a possibilidade de prever casos de gripe em uma a duas semanas antes do CDC[39]. A
partir desses resultados, o serviço começou a ser utilizado operacionalmente para outros países, realizando
estimativas de epidemias de gripe para mais de 25 nações[38]. Entretanto, atualmente o serviço não está mais
ativo, mas estimativas históricas ainda estão disponíveis para download[38]. Isso aconteceu pelos erros
subsequentes nas previsões realizadas pelo serviço nos anos posteriores. Isso aconteceu em 2013, quando o
sistema não previu uma epidemia de gripe[40], ou como a epidemia da gripe H1N1, em 2009[41]. Em um artigo
publicado na revista Science[42], pesquisadores indicaram os seguintes fatores como os causadores dos
problemas e das falhas com o serviço GFT:

A "arrogância do big data" (Big data hubris). Este termo é utilizado para descrever a máxima
normalmente utilizada pelos cientistas de dados, que consideram o big data como um substituto aos
dados e análises tradicionais, ao invés de considerá-lo uma análise complementar e conjunta;
A dinâmica do algoritmo de busca da Google, que mudou ao longo dos anos e pode ter afetado o
resultado das tendências
A falta de transparência e impossibilidade de replicabilidade dos resultados. Apesar da Google ter
divulgado a metodologia, os dados utilizados não são públicos, o que não permite replicar os resultados
obtidos e avaliar melhores formas de ajustar os algoritmos utilizados no programa.

Críticas
A massificação de dados, no entanto, ainda enfrenta obstáculos. O maior deles seria a privacidade, ou seja, a ameaça à
privacidade representada pelo aumento de armazenamento e integração de informações pessoalmente identificáveis. Se a
recomendação de links patrocinados pelo Google já parece invasiva à maioria das pessoas, o mundo e a legislação atual não estão
preparadas para as possibilidades que o big data oferece de agregar, analisar e tirar conclusões a partir de dados até então
esparsos. Painéis de especialistas lançaram várias recomendações de políticas para adequar a prática às expectativas de
privacidade. [43][44][45]

Outro problema é a escassez de profissionais, que terão de se adaptar a tal tecnologia, com a previsão que em 2018 só os Estados
Unidos podem enfrentar a falta de 140mil a 190mil com profundas capacidades analíticas.

O big data já foi relacionado[46] como ferramenta essencial em manipulação de eleições e disseminação de fake news, isso se dá
pela capacidade inerente da tecnologia de reunir e segmentar um determinado público alvo, fazendo com que campanhas de
marketing sejam muito mais efetivas e impactantes, isso faz do big data uma metodologia questionável do ponto de vista ético,
uma vez que pode ser usado para manipular massas e obter resultados parciais de acordo com a motivação dos especialistas.

Ver Também
Ciência de dados
Visualização de dados
Dataísmo
Internet das coisas

Referências
1. Cognizant Insights (01 de junho de 2011). «Making Sense of Big Data in the Petabyte Age» (https://www.cogniza
nt.com/InsightsWhitepapers/Making-Sense-of-Big-Data-in-the-Petabyte-Age.pdf) (PDF). Cognizant. Consultado
em 15 de outubro de 2018 Verifique data em: |data= (ajuda)
2. Chen, Min; Mao, Shiwen; Liu, Yunhao (22 de janeiro de 2014). «Big Data: A Survey» (https://doi.org/10.1007/s11
036-013-0489-0). Mobile Networks and Applications (em inglês). 19 (2): 171–209. ISSN 1383-469X (https://www.
worldcat.org/issn/1383-469X). doi:10.1007/s11036-013-0489-0 (https://dx.doi.org/10.1007%2Fs11036-013-0489-
0)
3. Arthur, Charles (29 de junho de 2011). «What's a zettabyte? By 2015, the internet will know, says Cisco» (https://
www.theguardian.com/technology/blog/2011/jun/29/zettabyte-data-internet-cisco). the Guardian (em inglês).
Consultado em 25 de outubro de 2018
4. «Big Data: tudo que você sempre quis saber sobre o tema!» (http://www.bigdatabusiness.com.br/tudo-sobre-big-
data/). Big Data Business. 28 de setembro de 2016
5. Cox & Ellsworth (01 de Julho de 1997). «Application-controlled demand paging for out-of-core visualization» (http
s://www.nas.nasa.gov/assets/pdf/techreports/1997/nas-97-010.pdf) (PDF). NASA. Consultado em 20 de outubro
de 2018 Verifique data em: |data= (ajuda)
6. «O que é Big Data? - Big Data» (https://canaltech.com.br/big-data/o-que-e-big-data/). Canaltech. 6 de abril de
2015
7. «O que é Big Data e para que ele serve? | Marketing por Dados» (http://marketingpordados.com/analise-de-dado
s/o-que-e-big-data-%F0%9F%A4%96/). Marketing por Dados. 27 de março de 2017
8. Hey, Tony; Tansley, Stewart; Tolle, Kristin (1 de outubro de 2009). «The Fourth Paradigm: Data-Intensive
Scientific Discovery» (https://www.microsoft.com/en-us/research/publication/fourth-paradigm-data-intensive-scient
ific-discovery/). Microsoft Research (em inglês)
9. «Glossário Inglês-Português de Estatística» (http://glossario.spestatistica.pt/). 16 de março de 2019. Consultado
em 19 de julho de 2019 |nome1= sem |sobrenome1= em Authors list (ajuda)
10. Ge, Mouzhi; Bangui, Hind; Buhnova, Barbora (2018-10). «Big Data for Internet of Things: A Survey» (https://doi.o
rg/10.1016/j.future.2018.04.053). Future Generation Computer Systems. 87: 601–614. ISSN 0167-739X (https://w
ww.worldcat.org/issn/0167-739X). doi:10.1016/j.future.2018.04.053 (https://dx.doi.org/10.1016%2Fj.future.2018.0
4.053) Verifique data em: |data= (ajuda)
11. «A Brief History of Big Data - DATAVERSITY» (http://www.dataversity.net/brief-history-big-data/). DATAVERSITY
(em inglês). 14 de dezembro de 2017
12. «Nace en 1620 John Graunt, primer demógrafo y el fundador de la bioestadística | Todo Ciencia» (http://www.tod
ociencia.com.ar/nace-en-londres-en-1620-john-graunt-el-primer-demografo-y-el-fundador-de-la-bioestadistica-ad
emas-de-precursor-de-la-epidemiologia/). www.todociencia.com.ar (em espanhol). Consultado em 28 de outubro
de 2018
13. Census., United States. Bureau of the (1965). The development of punch card tabulation in the Bureau of the
Census 1890-1940 with outlines of actual tabulation programs. (http://worldcat.org/oclc/83682512) [S.l.: s.n.]
OCLC 83682512 (https://www.worldcat.org/oclc/83682512)
14. «Population and Area (Historical Censuses)» (https://www2.census.gov/prod2/statcomp/documents/1991-02.pdf)
(PDF). United States Census Bureau. June 20, 2008. Consultado em August 24, 2018 Verifique data em:
|acessodata=, |data= (ajuda)
15. «A Short History of Big Data» (https://datafloq.com/read/big-data-history/239). DataFloq. 06 de Janeiro de 2018.
Consultado em 10 de outubro de 2018 Verifique data em: |data= (ajuda)
16. «O que é a NSA? - Espionagem» (https://canaltech.com.br/espionagem/O-que-e-a-NSA/). Canaltech. 20 de
junho de 2014
17. DeWitt, David; Gray, Jim (1 de junho de 1992). «Parallel database systems: the future of high performance
database systems» (http://dl.acm.org/citation.cfm?id=129888.129894). Communications of the ACM. 35 (6): 85–
98. ISSN 0001-0782 (https://www.worldcat.org/issn/0001-0782). doi:10.1145/129888.129894 (https://dx.doi.org/1
0.1145%2F129888.129894)
18. Coffman, K. G.; Odlyzko, Andrew (1 de dezembro de 1998). «The size and growth rate of the internet» (https://ex
perts.umn.edu/en/publications/the-size-and-growth-rate-of-the-internet). First Monday (em inglês). 3 (10).
ISSN 1396-0466 (https://www.worldcat.org/issn/1396-0466)
19. Ross, Joshua-Michéle (15 de janeiro de 2010). «Roger Magoulas on Big Data» (http://radar.oreilly.com/2010/01/r
oger-magoulas-on-big-data.html). O'Reilly Radar (em inglês)
20. «Difference between Big Data Hadoop and Traditional RDBMS» (https://www.w3trainingschool.com/difference-big
-data-hadoop-traditional-rdbms). W3training School (em inglês). 26 de agosto de 2017
21. Savitz, Eric. «Big Data: Big Hype?» (https://www.forbes.com/sites/ciocentral/2013/02/04/big-data-big-hype/#2c05
8af43666). Forbes (em inglês)
22. Dean, Jeffrey; Ghemawat, Sanjay (1 de janeiro de 2008). «MapReduce: simplified data processing on large
clusters» (http://dl.acm.org/citation.cfm?id=1327452.1327492). Communications of the ACM. 51 (1): 107–113.
ISSN 0001-0782 (https://www.worldcat.org/issn/0001-0782). doi:10.1145/1327452.1327492 (https://dx.doi.org/10.
1145%2F1327452.1327492)
23. «O que é MapReduce, um modelo de programação criado pelo Google» (https://br.udacity.com/blog/post/o-que-e
-mapreduce). br.udacity.com. Consultado em 28 de outubro de 2018
24. «Big Data e Hadoop – o que é tudo isso? - iMasters - We are Developers» (https://imasters.com.br/banco-de-dad
os/big-data-e-hadoop-o-que-e-tudo-isso). iMasters - We are Developers. 17 de fevereiro de 2014
25. ctaurion (3 de junho de 2009). «Conhecendo o Hadoop - Software, Open Source, SOA, Innovation, Open
Standards, Trends Blog» (https://www.ibm.com/developerworks/community/blogs/ctaurion/entry/conhecendo_had
oop?lang=en). www.ibm.com (em inglês). Consultado em 3 de dezembro de 2018
26. SPIEGEL ONLINE: Big Data Enables Companies and Researchers to Look into the Future - SPIEGEL ONLINE
(http://www.spiegel.de/international/business/big-data-enables-companies-and-researchers-to-look-into-the-future
-a-899964.html)
27. «Decreto nº 62.497, de 1 de Abril de 1968 que aprova o regulamento para o exercício da profissão de
estatístico.» (http://www.lexml.gov.br/urn/urn:lex:br:federal:decreto:1968-04-01;62497). Consultado em 18 de
maio de 2013
28. «Big Data: Global Overview» (https://www.idc.com/getdoc.jsp?containerId=IDC_P23177). IDC: The premier
global market intelligence company. Consultado em 29 de outubro de 2018
29. «Por que investir em Big Data? | Bz Tech» (https://www.bztech.com.br/blog/por-que-investir-em-big-data). Bz
Tech Automação Comercial. Consultado em 29 de outubro de 2018
30. «Por que empresa de entregas proíbe seus caminhões de dobrar à esquerda – e diz economizar milhões com
isso» (https://www.bbc.com/portuguese/curiosidades-38891872). BBC News Brasil (em inglês). 7 de fevereiro de
2017
31. «Tracking Population Movements using Mobile Phones and Crisis Mapping: A Post-Earthquake Geospatial Study
in Haiti» (https://irevolutions.org/2011/10/13/flowminder-haiti/). iRevolutions (em inglês). 13 de outubro de 2011
32. «How is Big Data Used in Practice? 10 Use Cases Everyone Must Read» (https://www.bernardmarr.com/default.a
sp?contentID=1076). Bernard Marr (em inglês). Consultado em 4 de dezembro de 2018
33. «Tackling big data challenges in wind energy sector» (http://www.windpower.org/download/2997/07_vasiljevic_dw
cpdf). 02 de Outubro de 2017. Consultado em 25 de outubro de 2018 Verifique data em: |data= (ajuda)
34. «Setor de petróleo e gás deve ser precursor do big data no Brasil, prevê executivo - TI INSIDE Online» (http://tiin
side.com.br/tiinside/11/12/2012/setor-de-petroleo-e-gas-deve-ser-precursor-do-big-data-no-brasil-preve-executiv
o/). TI INSIDE Online. 11 de dezembro de 2012
35. «How is Big Data Used in Practice? 10 Use Cases Everyone Must Read» (https://www.bernardmarr.com/default.a
sp?contentID=1076). Bernard Marr (em inglês). Consultado em 27 de novembro de 2018
36. «Big Data e Netflix: uma parceria de sucesso | Big Data Business» (http://www.bigdatabusiness.com.br/netflix-e-b
ig-data-uma-parceria-de-sucesso/). Big Data Business. 23 de setembro de 2015
37. « 'Big Data' transforma o perfil da publicidade» (https://oglobo.globo.com/economia/tecnologia/big-data-transform
a-perfil-da-publicidade-9469294). O Globo. 11 de agosto de 2013
38. «Google Flu Trends» (https://www.google.org/flutrends/about/). www.google.org (em inglês). Consultado em 3 de
dezembro de 2018
39. Ginsberg, Jeremy; Mohebbi, Matthew H.; Patel, Rajan S.; Brammer, Lynnette; Smolinski, Mark S.; Brilliant, Larry
(2009-02). «Detecting influenza epidemics using search engine query data» (https://doi.org/10.1038/nature0763
4). Nature (em inglês). 457 (7232): 1012–1014. ISSN 0028-0836 (https://www.worldcat.org/issn/0028-0836).
doi:10.1038/nature07634 (https://dx.doi.org/10.1038%2Fnature07634) Verifique data em: |data= (ajuda)
40. «What We Can Learn From the Epic Failure of Google Flu Trends» (https://www.wired.com/2015/10/can-learn-epi
c-failure-google-flu-trends/). WIRED (em inglês)
41. Cook, Samantha; Conrad, Corrie; Fowlkes, Ashley L.; Mohebbi, Matthew H. (19 de agosto de 2011). «Assessing
Google Flu Trends Performance in the United States during the 2009 Influenza Virus A (H1N1) Pandemic» (http
s://www.ncbi.nlm.nih.gov/pmc/articles/PMC3158788/). PLoS ONE. 6 (8). ISSN 1932-6203 (https://www.worldcat.o
rg/issn/1932-6203). PMC PMC3158788 (https://www.ncbi.nlm.nih.gov/pmc/articles/PMCPMC3158788) Verifique
|pmc= (ajuda). PMID 21886802 (https://www.ncbi.nlm.nih.gov/pubmed/21886802).
doi:10.1371/journal.pone.0023610 (https://dx.doi.org/10.1371%2Fjournal.pone.0023610)
42. Lazer, David; Kennedy, Ryan; King, Gary; Vespignani, Alessandro (14 de março de 2014). «The Parable of
Google Flu: Traps in Big Data Analysis» (http://science.sciencemag.org/content/343/6176/1203). Science (em
inglês). 343 (6176): 1203–1205. ISSN 0036-8075 (https://www.worldcat.org/issn/0036-8075). PMID 24626916 (htt
ps://www.ncbi.nlm.nih.gov/pubmed/24626916). doi:10.1126/science.1248506 (https://dx.doi.org/10.1126%2Fscie
nce.1248506)
43. Don't Build a Database of Ruin (http://blogs.hbr.org/cs/2012/08/dont_build_a_database_of_ruin.html). Por Paul
Ohm. Harvard Business Review, 23 de agosto de 2012.
44. Iron Cagebook - The Logical End of Facebook's Patents (http://www.counterpunch.org/2013/12/03/iron-cageboo
k/). Por Darwin Bond-Graham. Counterpunch, 3 de dezembro de 2013
45. Social Disruption: Inside the Tech industry’s Startup Conference (http://www.counterpunch.org/2013/09/11/inside-t
he-tech-industrys-startup-conference/), Counterpunch, 11 de setembro de 2013.
46. «Big data, analytics and elections - Analytics Magazine» (http://analytics-magazine.org/big-data-analytics-and-ele
ctions/). Analytics Magazine (em inglês). 9 de janeiro de 2013

Bibliografia
Hilbert, Martin; Priscila Lopez (2011). «The World's Technological Capacity to Store, Communicate, and
Compute Information». Science. 332 (6025): 60–65. PMID 21310967 (https://www.ncbi.nlm.nih.gov/pubmed/213
10967). doi:10.1126/science.1200970 (https://dx.doi.org/10.1126%2Fscience.1200970)
Grobelnik, Marko (2012). «Big Data Tutorial» (http://videolectures.net/eswc2012_grobelnik_big_data/).
videolectures.net. 2nd ESWC Summer School 2012

Ligações externas
Planejamento de Vendas: O que é Big Data? (http://www.planejamentodevendas.com.br/gestao-comercial/o-que
-e-big-data/).
Profissionais TI: O que é Big Data e Como Funciona? (http://www.profissionaisti.com.br/2015/03/o-que-e-big-dat
a-e-como-funciona/)

Obtida de "https://pt.wikipedia.org/w/index.php?title=Big_data&oldid=56295294"

Esta página foi editada pela última vez às 21h14min de 20 de setembro de 2019.

Este texto é disponibilizado nos termos da licença Atribuição-CompartilhaIgual 3.0 Não Adaptada (CC BY-SA 3.0) da
Creative Commons; pode estar sujeito a condições adicionais. Para mais detalhes, consulte as condições de
utilização.