Escolar Documentos
Profissional Documentos
Cultura Documentos
arquitetura da informação1
Gilberto L. Fernandes
Mamede Lima-Marques
Gilberto L. Fernandes
Mamede Lima-Marques
Resumo
1
Este trabalho foi financiado com subvenção do Centro de Pesquisas em Arquitetura da Informação
(Cpai), Faculdade de Ciência da Informação, Universidade de Brasília (UnB).
oportunidades, sob as perspectivas da sociedade civil, do mercado empresarial e da
indústria de tecnologia em especial. Procura ainda apontar e explicar que tipos de
aplicações vinculadas ao Big Data poderão proporcionar os melhores diferenciais
competitivos.
Abstract
This study has the purpose to recognize the technological and social phenomena
present in the Big Data, to study them and their potential impact, risks and
opportunities from the perspectives of the civil society, the corporate market and the
technology industry in particular. This work also attempts to point out and explain what
kind of applications, related to Big Data, may provide the best competitive advantages.
2.1 Introdução
Não é por acaso que as maiores corporações do planeta têm suas atividades
ligadas às áreas de comunicações e transportes. O surgimento do telégrafo deu
origem à Western Union, que rapidamente se tornou a maior empresa do planeta. O
telefone superou tecnologicamente o telégrafo, e a Bell Telephone Company,
antecessora da AT&T, constituída em 1877 para explorar comercialmente essa nova
invenção, logo superaria a Western Union na posição de maior corporação global. Em
um processo com características que nos permitem pensar numa espécie de
darwinismo econômico, intensificado após o início da globalização, empresas como
Shell, Exxon, Toyota, Volkswagen, GM, Samsung, Apple, NTT, AT&T, Telefônica, HP,
IBM, Microsoft, Amazon e Google mantêm-se e revezam-se, durante as últimas
décadas, nas primeiras posições desse ranking mundial (Fortune, 2013).
A visão da Sloan Foundation2 sobre a utilização da tecnologia, parcialmente
transcrita a seguir, corrobora o posicionamento adotado nesta introdução:
2
A Sloan Foundation é uma organização norte-americana sem fins lucrativos, com sede em Nova York,
centrada no apoio e financiamento da educação e de pesquisas nas áreas de ciência, tecnologia,
engenharia, matemática e economia.
redes de comunicação, dispositivos móveis e da computação em nuvem3 e, agora,
com o Big Data, podem oferecer um potencial quase ilimitado de aplicações, assim
como riscos de acidentes ou de utilização com fins não pacíficos, com efeitos
igualmente perigosos.
Os riscos e benefícios que poderão resultar do uso de aplicações com acesso
às bases de dados classificadas como Big Data justificam plenamente o estudo, a
análise e um amplo debate sobre os eventuais impactos desses avanços tecnológicos,
que serão tratados ao longo do texto. Estes possíveis impactos igualmente justificam
que a presente discussão seja estendida não somente aos profissionais de tecnologia
e aos executivos de empresas interessados nos benefícios econômicos que podem
advir de vantagens competitivas oferecidas pelo Big Data, mas também a agências
governamentais, economistas, políticos e juristas.
Portanto, o objetivo deste trabalho é reconhecer os fenômenos presentes no
Big Data, estudá-los e avaliar o seu potencial impacto, riscos e oportunidades, sob os
pontos de vista da sociedade civil, da indústria de tecnologia e do mercado
empresarial.
O termo Big Data tem sido empregado com distintos significados, dependendo
do contexto: ora se refere a bases de dados com características específicas de volume
e diferentes formatos, que excedem a capacidade de processamento de ferramentas
tradicionais, como bancos de dados baseados no padrão SQL4, ora diz respeito ao
próprio fenômeno de explosão da geração de dados; pode fazer referência também a
aspectos tecnológicos e de infraestrutura e, ainda, a determinados tipos de aplicação
que se beneficiam de um ambiente em que convergem diferentes tecnologias.
3
Segundo o NIST (National Institute of Standards and Technology), computação em nuvem, ou cloud
computing, “é um modelo que possibilita o acesso, de modo conveniente e sob demanda, a um conjunto
de recursos computacionais configuráveis (como redes, servidores, infraestrutura de armazenamento,
aplicações e serviços)”.
4
SQL (Structured Query Language, ou Linguagem de Consulta Estruturada) é a linguagem declarativa
padrão para consultas em bancos de dados relacionais. Desenvolvido no início da década de 1970, o
SQL tem sua concepção original baseada na álgebra relacional.
Apesar de ainda não haver um conceito consolidado sobre o Big Data, algumas
de suas características aparecem mencionadas em grande parte da bibliografia
referente ao assunto. Entretanto, a característica mais presente na literatura, e
certamente um componente importante e que será analisado em profundidade, a do
volume de dados, não é necessariamente determinante para o enquadramento de
aplicações sob essa denominação, havendo exemplos reais de bases de dados que
podem ser classificadas como Big Data, mas que não apresentam volume na casa dos
petabytes ou exabytes5. A seguir, listamos algumas das principais características do
Big Data, que podem ser facilmente comprovadas por meio de dados estatísticos,
disponíveis na internet6:
Como mencionado na introdução deste artigo, a História nos ensina que certas
mudanças tecnológicas podem vir acompanhadas por mudanças sociais, culturais,
políticas e econômicas. O Big Data, mais que a convergência de um conjunto de
tecnologias, oferece tanto às empresas como aos cidadãos, ou consumidores finais,
um ambiente fértil à inovação, que certamente impulsionará mudanças nos âmbitos
social, cultural, político, jurídico e econômico. Conforme afirmava Marshall McLuhan
(1911-1980), filósofo da teoria da comunicação canadense, "É o ambiente que muda
as pessoas, e não a tecnologia" (McLuhan; Staines, 2005, p. 267).
Como evidência de alterações recentes em nosso ambiente cotidiano,
podemos citar a enorme quantidade de registros que são efetuados, a cada minuto,
em decorrência das interações sociais e econômicas de bilhões de pessoas em todo o
mundo, por meio de uma série crescente de mecanismos, como telefones celulares,
5
1 zettabyte = 1 mil exabytes = 1 milhão de petabytes = 1 bilhão de terabytes = 1 trilhão de gigabytes.
6
Ver Hilbert; López, 2011; Statistic Brain, 2013, 2015a, 2015b, 2015c.
dispositivos diversos de acesso à internet (computadores, tablets etc.), redes sociais,
cartões de crédito e débito, equipamentos médicos, etiquetas de RFID7, câmeras de
vídeo e radares de vias públicas, GPS e até Smart TVs. O registro dessas interações
resulta em volumes de dados inéditos, e com crescimento acelerado, que precisam ser
coletados, armazenados, analisados e processados, conforme demonstram algumas
estatísticas apresentadas na seção específica para essa finalidade.
No entanto, muitas das abordagens que tratam do Big Data têm sua ênfase
justamente nas questões relacionadas à coleta, armazenagem, análise e
processamento de dados, as quais são pertinentes, necessárias, mas não suficientes
para o entendimento do alcance e o aproveitamento do potencial desse novo ambiente
que se denomina de Big Data.
Nesse cenário, algumas questões imperativas se apresentam. Primeiramente,
apesar da relativa complexidade tecnológica, a dificuldade maior não reside na coleta,
armazenagem, análise e processamento dos dados. Em função do volume de dados,
em muitos casos, absurdamente elevado e da diversidade de fontes, é fácil nos
perdermos nesse oceano de dados, sem a obtenção de resultados relevantes. Essa
possibilidade decorre justamente do fato de que as melhores oportunidades de
benefícios e os diferenciais competitivos estão intimamente associados ao tipo de
dificuldade mencionada acima. Para que padrões escondidos possam ser revelados, e
talvez seja este o maior potencial de aplicações na era do Big Data, torna-se prioritário
saber o que e onde procurar. E, quando se está perdido, mapas são de inegável
importância. No caso em questão, os mapas são as formas de visualização desses
dados, conferindo uma posição de destaque às interfaces que permitirão o acesso aos
sistemas que se utilizam dessas bases de dados, assim como à arquitetura da
informação que será empregada em todas as etapas e componentes desses sistemas.
Em segundo lugar, embora inúmeros filmes e livros de ficção científica ou de
suspense apresentem algoritmos capazes de detectar padrões, e por mais atraente
que isso possa parecer, ainda não temos como minerar dados algoritmicamente para
obtenção de padrões originais, em situações de grande complexidade, por maior que
seja a força bruta de processamento. Algoritmos trabalham com padrões previamente
determinados e catalogados, sendo, na melhor das hipóteses, levemente adaptativos.
Os resultados que podem ser obtidos com algoritmos rígidos serão tão menos
significativos quanto maior for a necessidade de integrar dados de fontes e formatos
diferentes.
7
RFID (Radio-Frequency Identification, ou identificação por radiofrequência) é um sistema de
identificação automática que tem como principal componente uma etiqueta dotada com um dispositivo de
sensoriamento remoto por meio de sinais de rádiofrequência. Essa etiqueta pode ser utilizada em
embalagens, produtos diversos, vestimentas, animais e até mesmo em pessoas.
Em uma época em que mais da metade da movimentação das bolsas de
valores norte-americanas e londrina é comandada por algoritmos de negociação
(trading algorithms)8 e em que mais de 60% dos aluguéis de filmes da Netflix são
realizados por meio de sugestões oferecidas por algoritmos a seus usuários, além de
de diversos outros exemplos semelhantes, certamente a capacidade de desenvolver
algoritmos para a análise de padrões previamente detectados constitui uma importante
ferramenta de competitividade entre as empresas que compartilham mercados
específicos. Entretanto, o principal fator de competitividade no cenário do Big Data
reside, como veremos ao longo deste texto, na inovação e descoberta de novos
padrões.
A dimensão dos fatores envolvidos para a obtenção de valor em aplicações de
Big Data, principalmente para a percepção de padrões inéditos ou adaptativos, torna
fundamental a interação dessas aplicações com o ser humano e sua capacidade
intuitiva de associar dados, testar hipóteses, identificar relações e perceber tais
padrões. Desse modo, o design de interfaces de baixo atrito, que privilegiam a
interatividade homem-máquina e favorecem a cooperação entre o poder de
processamento das máquinas e a intuição humana, assume um papel de relevância,
sendo este o motivo de tão grande expectativa causada pelo anúncio de dispositivos
como o Google Glass, lançado no início de 2014.
2.3.2 “Prossumidor”
8
Ver Vermeulen, 2013; Dayal et al., 2012.
9
Em inglês, prosumer.
Em maio de 2008, foi lançado por pesquisadores da Universidade de Washington,
como parte de um projeto de pesquisa experimental, o Foldit, um quebra-cabeça on-
line colaborativo para testar possíveis configurações da estrutura de proteínas
previamente selecionadas. Nesse jogo, o ser humano participa com sua capacidade
criativa, enquanto os computadores da universidade verificam a possibilidade de
existência no mundo real de cada configuração estrutural sugerida. Resultados
experimentais mostram que esse método de trabalho, baseado em uma simbiose
homem-máquina, “derrota os supercomputadores em 50% das vezes e empata em
outros 30%” (Sankar, 2012). Em 2011, três jogadores decifraram em dez dias a
estrutura de uma proteína retroviral presente em símios da espécie Rhesus,
diretamente relacionada à Aids. A resolução desse problema havia ocupado
anteriormente a comunidade científica por uma década inteira, sem a obtenção de
uma solução (Foldit, 2013; Sankar, 2012).
Apesar de a ideia original do “prossumidor” estar associada a McLuhan,
credita-se a criação do termo a Alvin Tofler (1980), em seu livro A terceira onda, no
qual já chamava a atenção para a dissolução progressiva da fronteira que separava o
produtor do consumidor, com uma crescente participação do “prossumidor”. Segundo
o autor, este pode ser um importante marco econômico: “Algumas vezes, mudanças
históricas gigantescas são simbolizadas por mudanças minúsculas no comportamento
cotidiano” (Tofler, 1980, p. 266).
Tradicionalmente, o fluxo de dados tinha um sentido único, com as empresas e
as organizações de mídia disponibilizando seus dados para o consumo de seus
usuários. Atualmente, os dados produzidos por usuários e consumidores finais
representam cerca de dois terços de todos os dados globais produzidos, o dobro da
quantidade produzida por estas mesmas empresas e organizações (Gantz; Reinsel,
2013). O simples fato de alguém acessar a internet faz com que também esteja
gerando dados. No cenário do Big Data, o consumidor/produtor de dados passa a ter
um papel central em todo o processo. Um exemplo representativo do papel e atuação
de “prossumidores” é a enciclopédia virtual Wikipédia.
10
Ver Human Brain Project, 2015.
11
Ver NIH Blueprint for Neuroscience Research, 2015.
12
Ver NIH, 2015.
centenas de centros de pesquisa espalhados pelo mundo e que contam com o aporte
financeiro da ordem de centenas de bilhões de dólares.
Contudo, apesar de todo o esforço e investimento que está sendo realizado em
pesquisas sobre o cérebro humano e a despeito dos resultados já alcançados em
diversas áreas, com prognósticos animadores para a cura de doenças como
Alzheimer, Parkinson e alguns tipos de autismo, é provável que o entendimento do
funcionamento dessa incrível máquina produzida pela natureza, em profundidade
suficiente para a criação de modelos que permitam o desenvolvimento de dispositivos
que possam suportar a execução de processos mentais tal como ocorrem no cérebro
humano, ainda demore algumas décadas, talvez mais. Desse modo, uma alternativa
mais viável para suportar as necessidades computacionais para a obtenção plena dos
benefícios oferecidos por aplicações de Big Data talvez seja uma aproximação da
simbiose homem-computador, conforme proposto pelo físico, matemático e psicólogo
norte-americano Joseph Carl Robnett Licklider (1915-1990), ainda na década de 1960
(Licklider, 1960, 1965, 1968)13.
A ideia de Licklider sobre a simbiose homem-computador vai muito além da
simples extensão dos sentidos ou das capacidades mentais do ser humano,
assumindo o conceito biológico de uma associação íntima com fins de cooperação e
benefícios mútuos. Os principais pontos dessa associação, de acordo com a
concepção de Licklider, estão listados a seguir (Licklider, 1960, p. 4-7; 1968, p. 21-28):
14
“Isso pode levar, digamos, cinco anos para o desenvolvimento da simbiose homem-computador e 15
anos para a sua utilização. Estes 15 anos podem tornar-se 10 ou 500, mas esses anos deverão ser
intelectualmente os mais criativos e excitantes na história da humanidade” [tradução nossa].
15
Lei de Moore - Em abril de 1965, o então presidente da Intel, Gordon Earle Moore, profetizou que a
quantidade de transistores que poderiam ser colocados em uma mesma área dobraria a cada 18 meses
mantendo-se o mesmo custo de fabricação. Depois dessa data, a solução para manter o processamento
dos processadores é fazer uso intenso de paralelismo, como hoje é implementado em placas de vídeo,
otimização dos sistemas operacionais e softwares, processadores dedicados ou mesmo alterar a
tecnologia utilizada, mudando do silício para outras técnicas e materiais que já se mostram passíveis de
se implementar na prática, como grafeno e computação quântica. Disponível em:
<http://canaltech.com.br/o-que-e/intel/O-que-e-a-Lei-de-Moore/>. Acesso em 7 de abril de 2015
percepção humana da realidade, ao adicionar em tempo real informações
computadorizadas complementares àquelas que podem ser obtidas diretamente pelos
sentidos sensoriais humanos, criando um ambiente híbrido, pela combinação de
elementos virtuais com elementos do mundo real.
O tipo de aplicações de RA que nos interessa, neste estudo, ultrapassa
largamente a leitura de “QR codes”, a inserção de medidas de distância em jogos de
futebol televisionados ou mesmo video games que utilizam óculos ou capacetes, em
ambientes fechados e controlados. As pesquisas de ponta nessa área concentram-se
em aplicações de RA que permitam a seus usuários interagir em ambientes abertos
com a aplicação de RA, com o próprio ambiente e com outros seres humanos
presentes no ambiente. Inúmeros são os tipos de aplicações que poderão se
beneficiar com o uso dessa tecnologia. Basta imaginarmos as possibilidades que se
abrem com a visualização de informações em óculos translúcidos, como o Google
Glass, ou por meio de projeções holográficas em três dimensões16, ou simplesmente
com projeções no para-brisa de automóveis, de modo a torná-los verdadeiras telas de
navegação, trazendo novas informações ao motorista, em tempo real, de acordo com
suas reações, sua localização e com dados coletados nos diversos sensores do
veículo e da via ou estrada. Esse tipo de aplicação poderá antecipar ao motorista a
aproximação de outro veículo ou de uma curva, por exemplo, antes que possam ser
percebidos pelo condutor. Se quisermos nos aventurar um pouco mais, podemos nos
lembrar dos painéis translúcidos do filme Minority Report que permitiam a seus
usuários um tipo de interação impensável pouco tempo atrás.
Naturalmente, dispositivos e aplicações de RA poderão ser utilizados como a
camada de apresentação e interação de aplicações relacionadas ao Big Data,
principalmente para a análise e reconhecimento de padrões.
Caracteriza-se, ainda, como “[...] o ato de escutar, o ato de construir, o ato de habitar e
o ato de pensar a informação como atividade de fundamento e de ligação
hermenêutica de espaços, desenhados ontologicamente para desenhar” (Lima-
16
Recentemente, a empresa japonesa Panasonic anunciou que pretende disponibilizar para a Copa do
Mundo de Futebol de 2022 projeções holográficas em 3D dos jogos, em tempo real, de modo que possam
ser assistidos em outros estádios ou mesmo na superfície de uma mesa ou no chão da sala dos
telespectadores.
Marques, 2011, p 311- 319, tradução nossa).
2.4.1.1 Riscos
17
O termo “Internet das Coisas" (ou Internet of Things, IoT, em inglês) foi proposto em 1999 por Kevin
Ashton, do MIT (Massachusetts Intitute of Tecnologia), Seu objetivo é conectar dispositivos, sensores e
itens de uso cotidiano à internet, por meio de conexões wi-fi e RFID (Radio-
Frequency IDentification), formando um sistema global de captação contínua de dados.
18
George Orwell, como ficou conhecido, é na verdade o pseudônimo do escritor inglês Eric Arthur Blair.
provedores de internet. Aonde vamos, com quem falamos, o que acessamos na
internet, hábitos de consumo, todos esses dados são registrados minuto a minuto.
A legislação de cada país determina que empresas de telefonia celular e
provedoras de internet sejam obrigadas a guardar as informações de uso de seus
usuários por um prazo que varia de seis meses a dois anos. O Projeto de Lei do Marco
Civil da Internet, uma espécie de constituição da internet, que se encontra na pauta de
votação da Câmara dos Deputados, em Brasília, prevê um aumento no prazo de
guarda dos dados de usuários de seis meses para um ano. A Polícia Federal defende
que esse projeto de lei seja estendido também a provedores de conteúdo,
aumentando-se, assim, o monitoramento de atividades de todos os cidadãos.
Recentemente, a NSA (National Security Agency), a agência norte-americana
de segurança da informação, com creditada capacidade para interceptar a
comunicação de quem quer que seja, admitiu, após acusações que lhe foram feitas,
que monitora as atividades, incluindo a localização, de cerca de cinco bilhões de
celulares por dia. A LG também foi obrigada a admitir que, por meio de seus
televisores de última geração, está coletando e enviando à empresa dados que vão
além dos hábitos televisivos de seus usuários, incluindo arquivos de pastas
compartilhadas em computadores pessoais ao seu alcance.
A quantidade e a diversidade de informações sobre a população sob domínio
de governos e empresas expõem a sociedade civil a uma redução acentuada de sua
privacidade e a riscos elevados na manutenção de suas garantias fundamentais e de
liberdade, principalmente na eventualidade de governos totalitários e antidemocráticos.
Nesse sentido, temos uma questão interessante para refletir, apresentada por Malte
Spitz (2012), pesquisador alemão que estuda o impacto do Big Data na sociedade:
nos dias atuais, praticamente cada cidadão carrega consigo um telefone celular; caso
fosse essa a realidade em 1989, teria sido possível a derrubada do muro de Berlim ou
a Stasi, a temida polícia política da antiga Alemanha Oriental, teria tido os meios de
impedir o evento e prender os principais líderes do movimento? A Figura 2.1,
construída com base em uma lista de registros de ligações telefônicas, mostra a
visualização do relacionamento entre os respectivos usuários do serviço de telefonia
móvel (Spitz, 2012). Além de expressar a facilidade existente na atualidade para
monitorar praticamente toda a população mundial, a figura 2.1 também ilustra o poder
da visualização para melhorar o entendimento, principalmente de situações de alta
complexidade, quando comparada com a análise de uma lista de registros.
Figura 2.1 – Redes de conexões de usuários de telefonia celular
2.4.1.2 Benefícios
• combate a epidemias;
19
Hadoop consiste basicamente em uma infraestrutura que permite o processamento massivamente
paralelo, utilizando um grande número de computadores (nós), que podem estar em uma mesma rede
local, formando um cluster, ou geograficamente distribuídos, constituindo um grid. MapReduce é uma
plataforma para o desenvolvimento de aplicações voltadas para o processamento distribuído de grandes
volumes de dados, estruturados ou não. Hadoop e MapReduce são projetos originalmente concebidos
pela Fundação Apache. Ver Apache Software Foundation (2015a, 2015b).
outras maiores, restando, ao final desse período de maior instabilidade, apenas as
empresas que melhor conseguirem se adaptar ao novo cenário tecnológico e
econômico.
2.4.3.1 Riscos
2.4.3.2 Oportunidades
O Big Data, enquanto restrito a bases de dados de grande volume, ainda que
se considerem as exigências de infraestrutura e ferramentas para seleção, coleta e
armazenamento especialmente projetadas, não constitui fator efetivo de
competitividade, configurando apenas um potencial a ser aproveitado por sistemas e
aplicações.
Algoritmos para o reconhecimento de padrões certamente oferecerão
vantagens competitivas em diversas áreas da atividade humana, porém os maiores
benefícios poderão ser obtidos pela detecção de padrões inéditos ou adaptativos, que
poderão posteriormente ser tratados por algoritmos específicos, por meio de uma
simbiose homem-máquina.
As aplicações que fizerem uso do Big Data em conjunto com modelos de
realidade aumentada poderão oferecer as melhores condições de efetividade na
análise de cenários de elevada complexidade, e, portanto, de competitividade, quando
envolverem o ser humano em um processo colaborativo. Desse modo, as soluções
devem ser desenhadas considerando-se a participação central do ser humano, com
especial atenção às interfaces interativas que possam privilegiar sua capacidade
criativa e associativa.
Neste cenário de introdução de novas tecnologias, a História nos ensina que os
detalhes podem significar importante vantagem competitiva, a diferença entre o
sucesso e o fracasso, entre o crescimento e o desaparecimento de empresas. Desse
modo, torna-se necessário aperfeiçoar o projeto de cada componente do processo,
desde a produção de dados por diversos atores e dispositivos, os mecanismos de
coleta desses dados de diferentes formatos, os mecanismos de seleção e
armazenamento, as ferramentas para a análise e a construção de algoritmos para o
reconhecimento de padrões e as interfaces para a apresentação desses dados e a
interação com as aplicações, de forma a permitir a tomada de decisão mais inteligente.
A matéria-prima de todo esse processo, os dados, e o fator de maior relevância, o
envolvimento do ser humano, devem ser tratados como os elementos mais
importantes, e, nessa perspectiva, a arquitetura da informação constitui a mola mestra,
subjacente a todos os aspectos relacionados ao Big Data.
Para finalizar, ressaltamos que, para aproveitarem a janela de oportunidades
do Big Data e se beneficiarem de seu potencial competitivo, as empresas devem ser
proativas, sendo necessário reconhecer os fenômenos por trás do Big Data, estudá-los
em profundidade e avaliar seriamente seus impactos. Reagir será contraproducente.
Questões para estudos futuros
CLARKE, S. A. C. 2001: uma odisseia no espaço. 1. ed. São Paulo: Aleph, 2013.
DAYAL, R. et al. Risk Report 2012-2013: An Inflection Point in Global Banking. BCG –
The Boston Consulting Group, 2012. Disponível em:
<http://www.bcg.de/documents/file123001.pdf>. Acesso em: 11 fev. 2015.
FOLDIT. The Science Behind Foldit. Washington: Foldit, 2013. Disponível em:
<http://fold.it/portal/info/about>. Acesso em: 11 fev. 2015.
GANTZ, J.; REINSEL, D. The Digital Universe in 2020: Big Data, Bigger Digital
Shadows, and Biggest Growth in the Far East. [S.l.]: IDC, Dec. 2012. Disponível em:
<http://www.emc.com/collateral/analyst-reports/idc-the-digital-universe-in-2020.pdf>.
Acesso em: 8 dez. 2013.
RIORDAN, M.; HODDESON, L. Crystal Fire: the Birth of the Information Age. New
York: Norton, 1997.
SCHNEIER, B. Data and Goliath: the hidden battles to collect your data and
control your world. New York: W. W. Norton & Company, 2015. Livro eletrônico.
SPITZ, M. The Dark Side of Data. Edinburgh, Scotland: TED, June 2012. Palestra.
Disponível em: <http://www.ted.com/playlists/130/the_dark_side_of_data.html>.
Acesso em: 11 fev. 2015.
_____. Total Number of Pages Indexed by Google. Jan. 9, 2015c. Disponível em:
<http://www.statisticbrain.com/total-number-of-pages-indexed-by-google/>. Acesso em:
11 fev. 2015.