Você está na página 1de 12

Dataficação, dataísmo e dataveillance: Big

Artigo
Data entre o paradigma científico e a ideologia

José van Dijck


Universidade de Amsterdã, Países Baixos. j.van.dijck@uva.nl

Resumo

Metadados e dados tornaram-se uma moeda comum para os cidadãos pagarem por seus serviços de comunicação e segurança - uma troca
que se situa na zona de conforto da maioria das pessoas. Este artigo desconstrói os fundamentos ideológicos da dataficação. A dataficação
está enraizada em reivindicações ontológicas e problemáticas epistemológicas. Como parte de uma lógica mais ampla das mídias sociais,
ela mostra características de uma crença secular generalizada.

O dataísmo, como essa convicção é chamada, é tão bem-sucedido porque muitas pessoas - ingênua ou involuntariamente - confiam suas
informações pessoais às plataformas corporativas. A noção de confiança se torna mais problemática porque a fé das pessoas é estendida a
outras instituições públicas (por exemplo, pesquisa acadêmica e aplicação da lei) que lidam com seus (meta) dados. O entrelaçamento de
governo, empresas e academia na adaptação dessa ideologia nos faz querer olhar mais criticamente para todo o ecossistema de mídias
conectivas.

Introdução

Quando Edward Snowden, em 10 de junho de 2013, se tornou conhecido como o denunciante que havia exposto
práticas de vigilância de rotina da Agência de Segurança Nacional (NSA) para a mídia, ele descreveu em detalhes a
“arquitetura da opressão” que permitiu a ele, e a muitos outros contratados da NSA, interceptar os metadados de três
bilhões de telefonemas e interações gravados pelo Facebook, Google, Apple e outras empresas. Em uma entrevista
gravada em vídeo, o ex-analista da CIA disse que não podia mais viver com a extensa invasão de privacidade e
violações legais que teve que realizar em nome da comunidade de inteligência. Ele também queria conscientizar as
pessoas do fato de que muitos agentes têm acesso completo a todos os tipos de dados de comunicação, na esperança
de desencadear um debate público.

As divulgações de Snowden foram mais do que um alerta para cidadãos que, gradualmente, haviam passado a aceitar
o "compartilhamento" de informações pessoais - tudo, desde estado civil a resfriados, e de hábitos alimentares a
músicas favoritas - através de sites ou aplicativos de redes sociais como a nova norma (van Dijck 2013a). Os
proprietários das plataformas compartilham rotineiramente os metadados agregados dos usuários com terceiros, para
fins de marketing personalizado em troca de serviços gratuitos.

Muitas pessoas podem não ter percebido, até os vazamentos de Snowden, que as redes sociais corporativas também -
voluntariamente ou com relutância - compartilham suas informações com agências de inteligência. Quando Barack
Obama defendeu as políticas de vigilância em massa de seu governo, dizendo que "não havia conteúdo, apenas
metadados" envolvidos no esquema da PRISM, ele acrescentou que os cidadãos não podem esperar 100% de
segurança, 100% privacidade e nenhum inconveniente. A explicação do presidente ecoou o argumento das empresas
de mídia social de que os usuários precisam abrir mão de parte de sua privacidade, em troca de serviços de
plataforma convenientes e gratuitos. Em outras palavras, os metadados parecem ter se tornado uma moeda comum
para

van Dijck, José. 2014. Dataficação, dataísmo e dataveillance: Big Data entre o paradigma científico e a
ideologia. Vigilância & Sociedade 12(2): 197-208
http://www.surveillance-and-society.org | ISSN: 1477-7487
© O(s) autor(es), 2014 | Licenciado para a Surveillance Studies Network sob uma licença Creative Commons
Attribution Non-Commercial No Derivatives.
van Dijck: Dataficação, dataísmo e dataveillance

os cidadãos pagarem por seus serviços de comunicação e segurança - uma troca que se situa na zona de conforto da
maioria das pessoas.

O que explica essa notável tolerância para que o “Big Brother”e o “Big Business” acessem rotineiramente
informações pessoais dos cidadãos, também conhecidas como Big Data? Parte da explicação pode ser encontrada na
normalização gradual da dataficação como um novo paradigma na ciência e na sociedade.

A dataficação, de acordo com Mayer-Schoenberger e Cukier (2013), é a transformação da ação social em dados
quantificados on-line, permitindo assim o rastreamento em tempo real e a análise preditiva.

Empresas e agências governamentais exploram as exponencialmente crescentes pilhas de metadados coletados por
meio de plataformas de comunicação e mídias sociais, como Facebook, Twitter, LinkedIn, Tumblr, iTunes, Skype,
WhatsApp, YouTube, YouTube; e serviços gratuitos de e-mail, como gmail e hotmail, para rastrear informações
sobre o comportamento humano: "Agora podemos coletar informações que não podíamos antes, sejam as relações
reveladas por telefonemas ou sentimentos revelados por meio de tweets" (Mayer-Schoenberger e Cukier 2013:

30). A dataficação como um meio legítimo de acessar, entender e monitorar o comportamento das pessoas está se
tornando um princípio importante, não apenas entre os técnicos, mas também entre os estudiosos que vêem a
dataficação como uma oportunidade de pesquisa revolucionária para investigar a conduta humana.

Neste artigo, eu gostaria de desconstruir os fundamentos ideológicos da dataficação, conforme definidos por Mayer-
Schoenberger e Cukier e ecoados por muitos defensores desse novo paradigma científico. Argumentarei que,
em muitos aspectos, a dataficação está enraizada em reivindicações ontológicas e problemáticas epistemológicas.
Contudo, por mais convincentes que sejam alguns exemplos de pesquisa aplicada sobre Big Data, a ideologia do
dataísmo mostra características de uma crença generalizada na quantificação objetiva e no rastreamento potencial de
todos os tipos de comportamento humano e socialidade por meio de tecnologias de mídia online. Além disso, o
datasmo também envolve a confiança nos agentes (institucionais) que coletam, interpretam e compartilham (meta)
dados coletados de mídias sociais, plataformas da Internet e outras tecnologias da comunicação.

Noções de "confiança" e "crença" são particularmente relevantes quando se trata de entender a vigilância de dados:
uma forma de vigilância contínua através do uso de (meta) dados (Raley 2013). Como os documentos de Snowden
deixaram claro, as pessoas confiam nas instituições que lidam com seus (meta) dados com a suposição de que elas
cumprem as regras estabelecidas pelos agentes públicos responsabilizáveis. No entanto, como descobriram os
jornalistas, a NSA desafia regularmente as decisões judiciais sobre o uso de dados, assim como as empresas estão
constantemente testando os limites legais da invasão de privacidade.1 Ademais, os arquivos de Snowden abriram
ainda mais os olhos das pessoas para as práticas interligadas da inteligência do governo, empresas e academia na
adaptação das premissas ideológicas do dataísmo. Portanto, precisamos examinar a credibilidade de todo o
ecossistema da mídia conectiva. Quais são os papéis distintos do governo, corporações e academia no tratamento de
nossos dados? Quais são os papéis distintos do governo, corporações e academia no tratamento de nossos dados?

Dataficação e “mineração de vida” como um novo paradigma científico

Na última década, a dataficação cresceu e se tornou um novo e aceito paradigma para entender a socialidade e o
comportamento social. Com o advento da Web 2.0 e de sua proliferação de sites de redes sociais, muitos aspectos da
vida social que nunca haviam sido quantificados foram codificados: amizades, interesses, conversas casuais,
pesquisas de informações, expressões de gostos, respostas emocionais, entre outros. À medida que as empresas de
tecnologia começaram a se especializar em um ou vários aspectos da comunicação online, convenceram muitas
pessoas a mover partes de sua interação social para os ambientes da web. O Facebook transformou atividades sociais
como “amizades” e “curtir” em relações algorítmicas (Bucher 2012; Helmond e Gerlitz 2013); O Twitter popularizou
as personas on-line dos indivíduos e promoveu ideias criando funções de "seguidores" e "retweets" (Kwak et al.
2010); O LinkedIn transformou redes profissionais de funcionários e candidatos a vagas de emprego em

1O grupo de defesa do consumidor Consumer Watchdog, em maio de 2013, entrou com uma ação contra a Google alegando que a
empresa abre, lê e adquire ilegalmente o conteúdo privado das mensagens de e-mail das pessoas.

Vigilância & Sociedade 12 (2) 198


van Dijck: Dataficação, dataísmo e dataveillance

interfaces digitais (van Dijck 2013b); e o YouTube realizou uma mudança casual de conteúdo audiovisual (Ding et
al.

2011). As interações sociais quantificadas foram posteriormente disponibilizadas a terceiros, sejam eles outros
usuários, empresas, agências governamentais ou outras plataformas. A transformação digital da socialidade gerou
uma indústria que se baseia no valor de dados e metadados - registros automatizados que mostram quem se
comunicou com quem, de qual local e por quanto tempo. Os metadados - que até pouco tempo atrás, eram
considerados subprodutos sem valor dos serviços mediados por plataformas - foram gradualmente transformados em
recursos valiosos que podem ser minados, enriquecidos e redirecionados como produtos preciosos.

A visão de dataficação orientada pela indústria ressoa não apenas nas metáforas auspiciosas da corrida ao ouro dos
empreendedores, mas também nas reivindicações dos pesquisadores que saudam o Big Data como o santo graal do
conhecimento comportamental. Dados e metadados selecionados pelo Google, Facebook e Twitter são geralmente
considerados marcas ou sintomas do comportamento ou humor real das pessoas, enquanto as próprias plataformas
são apresentadas apenas como facilitadores neutros.

O Twitter supostamente permite a identificação de dados dos sentimentos, pensamentos e sensações das pessoas, à
medida que a plataforma registra reações "espontâneas"; os usuários deixam rastros inconscientemente, para que os
dados possam ser “coletados passivamente, sem muito esforço ou mesmo conhecimento por parte dos que estão
sendo gravados” (Mayer-Schoenberger e Cukier 2013: 101). Frequentemente, os analistas descrevem a avaliação em
larga escala de tweets como usar um termômetro para medir sintomas febris de multidões reagindo a eventos sociais
ou naturais - uma suposição baseada na ideia de que o tráfego social online flui através de canais tecnológicos
neutros. Nessa linha de raciocínio, nem a mediação tecnológica do Twitter através de hashtags, retweets, algoritmos
e protocolos, nem seu modelo de negócios parecem relevantes (Gillespie 2010).

Pesquisadores que endossam o paradigma da dataficação tendem a ecoar essas afirmações sobre a natureza dos dados
de mídias sociais como traços naturais, e as plataformas como facilitadores neutros Os cientistas da informação
chamaram o Twitter de "sensor" de eventos em tempo real quando processaram os tweets das pessoas sobre
terremotos ou outros desastres (Sakaki, Okazaki e Matsuo 2010); O Twitter também foi denominado um "detector de
sentimentos" das predileções políticas das pessoas (O’Connor et al. 2010) e uma ferramenta que ajuda a entender a
"dinâmica do sentimento” ao analisar as reações dos twitteiros a um fragmento de vídeo específico (Diakopoulos e
Shamma 2010; Bollen, Mao e Pepe 2010. A avaliação de grandes conjuntos de dados coletados por meio de
plataformas de mídia social é cada vez mais apresentada como o método mais escrupuloso e abrangente para medir a
interação cotidiana, superior à amostragem ("N = tudo") e mais confiável do que entrevistas ou pesquisas. Grandes
quantidades de dados "bagunçados" substituem pequenas quantidades de dados amostrais e, como afirmam seus
defensores, o tamanho dos conjuntos de dados compensa sua bagunça. Alguns cientistas da informação argumentam
que o Twitter é de fato uma ferramenta gigante de pesquisa em tempo real, pronta para se tornar "um substituto e
complemento da pesquisa tradicional" (O’Connor et al. 2010). Existem paralelos importantes entre pesquisas e dados
do Twitter; e as correlações encontradas nos resultados do Twitter são obviamente significativas. No entanto, as
advertências sobre a alegada representatividade e viés (tecnológico e comercial) do Twitter são pouco abordadas.2

Os entusiastas da dataficação também assumem uma relação evidente entre dados e pessoas, interpretando
posteriormente os dados agregados para prever o comportamento individual.

Por exemplo, Quercia et al. (2011) analisou as relações entre personalidade e diferentes tipos de twitteiros,
descobrindo que

2Apenas algumas observações sobre a alegada representatividade do Twitter e os vieses inerentes: a base de usuários do Twitter não
corresponde a demografia de um público em geral. Um projeto da Pew Internet and American Life, publicado em fevereiro de 2012,
descobriu que apenas 15% dos adultos on-line usam o Twitter e apenas 8% o usam diariamente (ver
http://pewinternet.org/Reports/2012/Twitter-Use-2012/Findings.aspx). Além disso, o Twitter implementa vários algoritmos que
favorecem usuários influentes e permitem a manipulação de tweets, seja pela própria plataforma ou por grupos de usuários articulados
(consulte Cha et al. 2010). Os dados do Twitter geralmente são tratados como equivalentes aos resultados de pesquisas, apesar das
desqualificações explícitas do valor representacional da ferramenta. Por exemplo, o Twitter Political Index ou Twindex, lançado em
janeiro de 2012, rastreia os tweets que mencionam candidatos que concorrem a cargos. O Twindex, uma parceria entre o Twitter, o
mecanismo de busca Topsy e alguns pesquisadores políticos bipartidários, tenta medir "as mudanças de humor do público, além de
estabelecer o Twitter como uma plataforma para o debate cívico” (ver https://election.twitter.com/).
Vigilância & Sociedade 12 (2) 199
van Dijck: Dataficação, dataísmo e dataveillance

usuários populares e influentes são "imaginativos" e "organizados". Com base nesses padrões, eles especulam quais
usuários podem recomendar produtos com sucesso ou ajudar a impulsionar estratégias de marketing. De maneira
semelhante, um estudo recente de Kosinski e outros (2013), mostra como traços e atributos privados são previsíveis a
partir de registros digitais do comportamento humano; nesse caso, as curtidas do Facebook foram usadas para
“prever de forma automática e precisa uma variedade de atributos pessoais altamente sensíveis, incluindo: orientação
sexual, etnia, visões religiosas e políticas, traços de personalidade, inteligência, felicidade, uso de substâncias
viciantes, separação dos pais, idade, e gênero ”(Kosinski, Stillwell e Graepel 2013: 1). Os autores concluem que
essas informações privadas podem ser usadas para otimizar serviços de plataforma personalizados e oferecer aos
psicólogos sociais uma riqueza de dados que eles nunca poderiam obter de outra maneira.

A identificação de padrões de conduta ou atividades a partir de (meta) dados inconscientemente deixados em sites de
redes sociais serve cada vez mais para prever comportamentos futuros. Os cientistas da informação Weerkamp e De
Rijke (2012) afirmam muito claramente: “Não estamos interessados em atividades atuais ou passadas das pessoas,
mas em seus planos futuros. Propomos a tarefa de previsão de atividades, que gira em torno de tentar estabelecer um
conjunto de atividades que provavelmente serão populares posteriormente.” Eles posicionam a previsão de atividades
como um caso especial de “mineração de vida”, um conceito definido como “extrair conhecimento útil dos rastros
digitais combinados e deixados para trás por pessoas que vivem uma parte considerável de suas vidas online”. A
frase “conhecimento útil” sugere a pergunta: útil para quem? De acordo com Weerkamp e De Rijke, o
monitoramento de mídias sociais fornece informações significativas para a polícia e os serviços de inteligência
preverem atividades terroristas emergentes ou calcularem o controle de multidões, e para os profissionais de
marketing preverem preços futuros da bolsa ou receitas potenciais de bilheteria (veja também Asur e Huberman
2011). Do ponto de vista da vigilância e do marketing, a analítica preditiva - relacionando os padrões de (meta)
dados ao comportamento real ou potencial do indivíduo e vice-versa - gera informações poderosas sobre quem somos
e o que fazemos. Porém, quando se trata de comportamento humano, essa lógica também pode revelar uma
inclinação escorregadia entre análise e projeção, entre dedução e previsão (Amoore 2011).

Uma “mentalidade de big data” também parece favorecer a premissa paradoxal de que as plataformas de mídias
sociais medem, manipulam e monetizam concomitantemente o comportamento humano on-line.

Embora se acredite que os metadados extraídos das plataformas de mídias sociais refletem o comportamento
humano como ele é, os algoritmos empregados pelo Google, Twitter - e outros - são intrinsecamente seletivos e
manipuladores; usuários e proprietários podem brincar com a plataforma. Por exemplo, quando Diakopoulos e
Shamma (2010) prevêem preferências políticas analisando o desempenho do debate por meio de tweets, eles parecem
ignorar o potencial que especialistas (spin-doctors) ou twitteiros partidários tem de influenciar os debates do Twitter
em tempo real. Nas rodas de marketing, a previsão das necessidades dos futuros clientes é semelhante a manipulação
do desejo: detectar padrões específicos nos hábitos do consumidor geralmente resulta em tentativas simultâneas de
criar demanda - uma estratégia de marketing que é monetizada com sucesso pelo famoso algoritmo de recomendação
da Amazon (Andrejevic 2011).

O conteúdo de mídias sociais, assim como as pesquisas na Internet, está sujeito a personalização e customização,
adaptando mensagens a públicos ou indivíduos específicos (Pariser 2011; Bucher 2012). A promoção da ideia de
metadados como traços do comportamento humano e de plataformas como facilitadores neutros parece totalmente
contrária as práticas conhecidas de filtragem de dados e manipulação algorítmica por razões comerciais ou outras.

A dataficação e a mineração de vida estão apostadas em suposições ideológicas, que, por sua vez, estão enraizadas
nas normas sociais predominantes. Como dito anteriormente, os usuários fornecem informações pessoais às empresas
e recebem serviços em troca - uma forma de troca. Metadados em troca de serviços de comunicação se tornaram a
norma; poucas pessoas parecem dispostas a pagar por mais privacidade.3 A moeda usada para pagar pelos serviços
on-line e pela segurança transformou os metadados em um tipo de ativo invisível, processado principalmente em
separado do seu contexto original e fora do conhecimento das pessoas.

As empresas de mídias sociais monetizam metadados ao reembalá-los

3 Um relatório da Agência Europeia de Informação e Segurança de Redes (ENISA 2012) mostrou que, menos de um
terço dos sujeitos experimentais de um estudo sobre troca de “privacidade por dados”, estavam dispostos a pagar mais se
o prestador de serviços prometesse não usar seus dados para fins de marketing.
Vigilância & Sociedade 12 (2) 200
van Dijck: Dataficação, dataísmo e dataveillance

e vendê-los para anunciantes ou empresas de dados. Cientistas da informação geralmente adotam acriticamente as
premissas e pontos de vista ideológicos apresentados pelos SNSs e empresas de dados. O paradigma da dataficação
desempenha, portanto, um papel ideológico profundo na interseção da socialidade, pesquisa e comércio - um nó
inextricável de funções que tem sido visivelmente subexaminado.

Dataísmo: revelando os fundamentos ideológicos da base de dados

A metáfora da mineração de dados está fundamentada em uma lógica peculiar que guia empreendedores, acadêmicos
e agências estatais na busca de um novo paradigma sócio-científico. Em primeiro lugar, o dataísmo trai a crença na
objetividade da quantificação e no potencial de rastrear todos os tipos de comportamento humano e socialidade por
meio de dados online. Em segundo lugar, os (meta) dados são apresentados como "matéria-prima" que pode ser
analisada e processada em algoritmos preditivos sobre o futuro comportamento humano - ativos valiosos no setor de
mineração. Deixe-me explorar com mais detalhes cada uma dessas afirmações, ontológicas e epistemológicas,
subjacentes ao dataísmo como uma crença em um novo padrão ouro de conhecimento sobre o comportamento
humano.

Uma primeira linha de investigação crítica é nivelada com a suposta natureza objetiva dos dados. Em um ensaio
instigante, os cientistas sociais Boyd e Crawford (2012: 2) desconstroem a mitologia generalizada de que "grandes
conjuntos de dados oferecem uma forma mais alta de inteligência e conhecimento que pode gerar insights
anteriormente impossíveis, com a aura de verdade, objetividade e precisão". Pilhas de (meta) dados são geradas
propositadamente através de várias plataformas online diferentes, que são tudo menos objetivas. Os metadados estão
relacionados aos atos comportamentais humanos da mesma maneira que as ressonâncias magnéticas dizem respeito
aos interiores do corpo: os sinais de doença nunca aparecem simplesmente na tela, mas são o resultado de uma
cuidadosa interpretação e intervenção no processo de imagem. Demorou décadas para técnicos em medicina
aprenderem imagens apropriadas de órgãos específicos; eles tiveram que refinar protocolos para posicionar corpos e
ajustar o desempenho da máquina para melhorar a utilidade da ferramenta (van Dijck 2005). O Facebook e o Twitter
são aparelhos constantemente aprimorados para transformar amizades ou popularidade em algoritmos, promovendo
esses cálculos como valores sociais (Manovich 2011; Bucher 2012). Os botões "Curtir" e "Trending Topics" podem
ser vistos como ícones da socialidade online espontânea, mas os algoritmos subjacentes a esses botões são
sistematicamente ajustados para canalizar as respostas dos usuários (Mahrt e Scharkow 2013).

A idéia de (meta) dados serem recursos "brutos" esperando para serem processados se encaixa perfeitamente na
metáfora popular de mineração de vida. De acordo com Mayer-Schoenberger e Cukier (2013), é provável que cada
conjunto de dados tenha algum valor intrínseco, oculto e ainda não desenterrado; e as empresas estão envolvidas em
uma corrida para descobrir como capturar e classificar esse valor. Mas, como Lisa Gitelman afirma apropriadamente,
"dados brutos" são um oxímoro: "Dados não são fatos, são 'o que é dado antes do argumento' para fornecer uma base
retórica. Os dados podem ser bons ou ruins, melhores ou piores, incompletos e insuficientes ” (Gitelman 2013: 7). A
extração automatizada de dados, realizada em grandes pilhas de metadados gerados pelas plataformas de mídia
social, não revela mais informações sobre o comportamento humano específico do que grandes quantidades de água
do mar produzem informações sobre poluição - a menos que você interprete esses dados usando métodos analíticos
específicos, guiados por uma consulta focada.

Aqui está um exemplo para ilustrar esse ponto. Durante seis meses, uma equipe de cientistas da informação coletou
regularmente resultados de pesquisa de usuários que inicialmente inseriram a palavra-chave “hipoteca residencial”
em um mecanismo de pesquisa, a fim de descobrir como as correlações mudavam ao longo do tempo (Richardson
2008). Os dados “mostram” como os requerentes de hipoteca, seis semanas após sua consulta inicial, passam do
básico sobre hipoteca ao seguro e impostos; três meses depois, procuram móveis e, seis meses após a consulta inicial
da hipoteca, estavam interessados em piscinas e acessórios para o pátio. Entretanto, correlações como essa não
simplesmente "emergem". Elas são induzidas por uma pergunta implícita que enquadra a investigação: o que os
novos proprietários precisam comprar nos primeiros seis meses após a aquisição da casa? Explicar essa pergunta
revela que um quadro interpretativo sempre prefigura a análise dos dados. Seguindo a linha de pensamento de
Gitelman, os dados fornecem uma base retórica para o argumento de que os novos proprietários de imóveis
"precisam" de certas coisas em determinados momentos - uma previsão padrão valiosa para os anunciantes.

Vigilância & Sociedade 12 (2) 201


van Dijck: Dataficação, dataísmo e dataveillance

Compreender padrões exige, portanto, interrogação crítica: por que procuramos certos padrões em pilhas de
metadados, a interesse de quem e com que propósitos? Identificar padrões significativos com base em dados
selecionados de plataformas on-line é um ato intrinsecamente interpretativo, embora você possa precisar especificar
as prerrogativas implícitas. Mensagens de milhões de usuárias do Facebook entre 25 e 35 anos que postam fotos de
bebês em sua linha do tempo, podem ser examinadas infinitamente em busca de padrões comportamentais, médicos
ou consumistas. Os pesquisadores querem aprender sobre os hábitos alimentares das jovens mães com a intenção de
inserir proposições para mudar seu estilo de vida? Ou eles querem descobrir padrões de necessidades de consumo
para que as empresas vendam produtos para bebês exatamente no momento certo? Ou, talvez esteja exagerando, as
agências governamentais estão interessadas em interpretar esses dados para identificar sinais de depressão pós-natal
ou possível abuso futuro de crianças? Métodos quantitativos imploram por um interrogatório qualitativo para refutar
a alegação de que os padrões de dados são fenômenos "naturais". A pesquisa de big data, em outras palavras, sempre
envolve um prisma explícito (sem trocadilhos).

Dados brutos não entram em uma extremidade da linha de montagem digital gerenciada pelo Google ou Facebook,
enquanto as informações processadas saírem na outra extremidade, como Mayer-Schonberger e Cukier (2013: 101)
argumentaram. Os metadados são pilhas de códigos carregadas de valor, que são multivalentes e devem ser
abordadas como textos multi-interpretáveis. Segundo o estudioso estadunidense John Cheney-Lippold, dados são
objetos culturais "incorporados e integrados a um sistema social cuja lógica, regras e funcionamento explícito
funcionam para determinar as novas condições de possibilidades da vida dos usuários" (Cheney-Lippold 2011: 167).
O Big Data configurado como um texto retórico, gerado para fins específicos e que pode ser analisado por vários
grupos de pessoas, oferece uma alternativa a metáfora generalizada da mineração. Os acadêmicos que analisam
conjuntos de dados de uma perspectiva das ciências sociais ou humanas podem colocar questões muito diferentes dos
cientistas da informação; e os médicos provavelmente verão padrões diferentes dos criminologistas (Manovich
2011).

A lógica convincente do dataísmo é frequentemente alimentada pela retórica de novas fronteiras na pesquisa, quando
grandes conjuntos de dados deixados inconscientemente, nunca disponíveis antes, estão abrindo novas perspectivas.
O Dataísmo prospera com a suposição de que a coleta de dados ocorre fora de qualquer estrutura predefinida - como
se o Twitter facilitasse o microblogging apenas para gerar dados "de vida" - e a análise de dados acontecesse sem um
objetivo predefinido - como se os mineradores analisassem esses dados apenas por uma questão de acumular
conhecimento sobre o comportamento das pessoas. Nem sempre pode ser simples identificar em que contexto (meta)
dados são gerados e com que finalidade eles são processados. E, no entanto, se os pesquisadores quiserem manter a
confiança dos usuários no paradigma da informação, é crucial tornar explícitas as prerrogativas ocultas. A confiança
é parcialmente baseada na lógica persuasiva de um paradigma dominante; por outro lado, a fé reside nas instituições
que carregam a crença no Big Data.

Dataísmo e a confiança nas instituições

Uma segunda linha de investigação crítica é feita sobre as estruturas institucionais que sustentam o pensamento sobre
Big Data. Empresas de dados, agências governamentais e pesquisadores ressaltam a importância da confiança dos
usuários em sociedades onde partes crescentes da vida civil - de procedimentos de aplicação a registros médicos e
transações financeiras - são movidas por plataformas online. O estabelecimento e a manutenção da integridade do
sistema são, normalmente, atribuídos como uma tarefa do "estado" - onde "as plataformas" precisam cumprir as
regras estabelecidas pelas agências governamentais. Quando Mayer-Schoenberger e Cukier (2013) abordam os
perigos da disponibilidade onipresente dos metadados - ou seja, perfil baseado em estereótipos, penalidades baseadas
em propensões, vigilância baseada em associação, um direito enfraquecido a privacidade - eles responsabilizam os
governos por tomar medidas para evitar esses riscos em potencial. Os autores do Big Data pedem uma nova "casta de
auditores de big data que chamamos de algoritmos" para "garantir uma governança justa das informações na era do
big data" (Mayer-Schoenberger e Cukier 2013: 184). Os acadêmicos também contam com os governos nacionais
para regular os possíveis efeitos adversos da dataficação; mas também recorrem as empresas de dados quando pedem
"confiança e boa vontade" por parte delas e que dêem aos usuários "transparência e controle" sobre suas informações

Vigilância & Sociedade 12 (2) 202


van Dijck: Dataficação, dataísmo e dataveillance

(Kosinski et al. 2013). Na busca por confiança e credibilidade, presume-se uma separação de instituições públicas,
corporativas e estatais como órgãos autônomos, cada um com uma relação distinta com os usuários - sejam
consumidores ou cidadãos.

Não é preciso dizer que nem "o Estado" nem as "empresas de dados" são categorias monolíticas. Por um lado, várias
agências governamentais - além da NSA - representam relações específicas únicas com os usuários e, portanto,
desempenham um papel específico na manutenção da confiança.

Agências como a FTC e a NIST possuem os meios legais e a obrigação política de proteger os cidadãos contra os
riscos de privacidade e exploração impulsionados pelo paradigma de informação.4 As empresas de dados, por sua
vez, são simultaneamente concorrentes e aliadas quando se trata de ganhar e manter a confiança dos usuários. A fé
dos usuários em suas políticas de dados pode fazer parte da vantagem competitiva de uma empresa; no entanto, como
as parcerias nesse setor são abundantes, é impossível para os usuários acompanhar quem compartilha dados com
quem.

Contudo, se os arquivos de Snowden nos ensinaram alguma coisa, é provável que as instituições que coletam e
processam Big Data não estejam organizadas fora das agências que têm o mandato político para regulamentá-las. De
fato, todos os três aparelhos - corporativos, acadêmicos e estatais - têm grande importância na obtenção de acesso
irrestrito aos metadados, bem como na aceitação do público da dataficação como um principal paradigma. Cientistas,
agências governamentais e corporações, cada uma por diferentes razões, têm interesse em relacionamentos baseados
em dados e no desenvolvimento de métodos que permitam prever e manipular comportamentos. As aspirações de
todos os agentes de conhecer, prever e controlar o comportamento humano se sobrepõem, em certa medida, mas
também diferem em outros aspectos. As empresas de dados desejam que suas plataformas sejam reconhecidas como
agregadoras objetivas e padronizadas de metadados - melhores e mais precisas do que as ferramentas que agências
governamentais ou acadêmicos usam para medir o sentimento do consumidor, a saúde pública ou os movimentos
sociais.5 Quando agências governamentais e acadêmicos adotam plataformas comerciais de mídias sociais como o
“padrão-ouro” para medir o tráfego social, elas transferem o poder sobre a coleta e interpretação de dados do setor
público para o setor corporativo. Como Boyd e Crawford (2012: 14) argumentam: "Existe uma profunda demanda
governamental e industrial para coletar e extrair o máximo valor dos dados, sejam informações que levarão a
publicidade mais direcionada, design de produtos, planejamento de tráfego ou policiamento criminal".

Nesse alinhamento tripartidário de forças, o governo, a academia e as empresas de dados estão interconectados em
nível de pessoal, bem como através do intercâmbio de tecnologias inovadoras, ou seja, através do desenvolvimento
de projetos de mineração de dados. Em um artigo sobre o caso de Snowden para o New York Times, os repórteres
Risen e Wingfield (2013) revelaram conexões estreitas entre o Vale do Silício e a NSA: “Ambos buscam maneiras de
coletar, analisar e explorar grandes conjuntos de dados sobre milhões de americanos. A única diferença é que a NSA
faz isso pela inteligência e o Vale do Silício faz isso para ganhar dinheiro. ” Os vínculos entre empresas de dados e
agências de inteligência estaduais mostram como especialistas técnicos alternam trabalhos entre a academia e os
setores da saúde, e passam de empresas de dados para serviços financeiros ou agências de inteligência. Os interesses
de empresas, acadêmicos e agências estatais convergem de várias maneiras. Como exemplo, o Skype - e sua
proprietária Microsoft - prontamente se envolveram com a CIA no Project Chess, destinado a tornar as chamadas do
Skype utilizáveis por agentes da lei. Como Timothy Garton-Ash (2013) brincou em um artigo no The Guardian, se o
Big Brother voltasse no século 21: "ele retornaria como uma parceria público-privada".

4 A Comissão Federal de Comércio dos EUA (FTC) é designada para proteger os consumidores, eliminar e impedir
práticas comerciais anticompetitivas; o Instituto Nacional de Padrões e Tecnologia (NIST) é a agência encarregada de
definir os padrões federais de segurança cibernética. Ambas agências lutaram para restaurar a confiança do público, após
as revelações de Snowden sobre a NSA
5 Os executivos do Google argumentam que os dados de pesquisa do Google podem revelar tendências uma ou duas
semanas antes das estatísticas oficiais do governo (Relatório do Instituto Aspen 2010). Além disso, argumenta-se que o
Google Flu Trends é um instrumento melhor para medir epidemias emergentes de gripe do que os sistemas nacionais de
vigilância de sintomas semelhantes aos de gripe (Wilson et al. 2009).

Vigilância & Sociedade 12 (2) 203


van Dijck: Dataficação, dataísmo e dataveillance

O que está em questão aqui não é apenas a adoção do dataísmo como uma técnica para conhecer a ação social - o
comportamento humano sendo medido, analisado e previsto com base em grandes conjuntos de metadados -, mas
também a fé na intenção das empresas de alta tecnologia e agências governamentais de proteger os dados dos
usuários contra a exploração. O dataísmo pressupõe confiança na objetividade dos métodos quantificáveis, assim
como na independência e integridade das instituições que implantam esses métodos - sejam plataformas
corporativas, agências governamentais ou pesquisadores acadêmicos. No entanto, confiança e independência são
noções em conflito em um ecossistema de conectividade, onde todas as plataformas online estão inevitavelmente
interconectadas, tanto no nível de infraestrutura quanto no nível de lógica operacional (van Dijck 2013a; van Dijck e
Poell 2013). Quando tudo e todos estão conectados através da mesma infraestrutura e operam com a mesma lógica -
uma visão teorizada por Foucault bem antes do advento das tecnologias online.

Por exemplo, a lógica da análise preditiva parece ser corroborada por governos, pesquisadores e empresas. A Google
afirma que é muito melhor do que as agências estatais na previsão de estatísticas de desemprego ou epidemias de
gripe, porque seus rastreadores da web podem determinar quando um indivíduo está prestes a começar a procurar um
novo emprego ou a buscar informações sobre a doença. As curtidas do Facebook podem prever, potencialmente,
quais mães jovens podem subnutrir seus filhos - informações sobre as quais as agências de saúde estaduais podem
agir. E a NSA declara ter evitado pelo menos 50 ataques terroristas devido ao esquema PRISM, com base em dados
coletados de plataformas de mídias sociais e serviços de e-mail. O problema nessas formas institucionais de dataísmo
não é apenas o fato de não termos conhecimento dos critérios algorítmicos usados para definir o que conta como
procura de emprego, maternidade disfuncional ou terrorismo. Questionavelmente, os contextos em que os dados
foram gerados e processados, seja por meio de plataformas comerciais ou instituições públicas, parecem
intercambiáveis.

O que está em jogo aqui não é simplesmente nossa "confiança" em agências governamentais específicas ou empresas
individuais, mas a credibilidade de todo o ecossistema - um ecossistema que é alimentado por um fluxo constante de
bilhões de e-mails, vídeos, textos, sons e metadados. A custódia sobre os fluxos de dados parece estar atolada em
uma delimitação nebulosa de territórios; o acesso e as restrições aos dados são discutidos tanto diante dos olhos do
público quanto fora do domínio de conhecimento das pessoas. Desde as revelações de Snowden, os usuários-
cidadãos questionam cada vez mais o relacionamento próximo das empresas americanas de alta tecnologia com os
governos e, em resposta, algumas empresas apresentaram queixas judiciais contra o que chamam de táticas de
bullying da NSA. Essa luta pública sobre em quem confiar os dados do usuário pode servir para melhorar a
impressão da independência de cada instituição. No entanto, é óbvio que empresas de dados como Google e
Facebook não operam no vácuo. Tipicamente, o ecossistema é uma infraestrutura na qual nenhuma instituição está
sob comando (Brivot e Gendron 2011: 153), mas cuja credibilidade é contestada em vários debates públicos, disputas
judiciais e conflitos políticos - incluindo tentativas do governo de conter o vazamento de denunciantes.

A interpelação do dataísmo como uma crença compartilhada e construída sobre a confiança institucional parece ter
importância similar ao questionamento das premissas da dataficação. Noções conturbadas de "confiança" e "crença"
são particularmente relevantes quando se trata de entender a vigilância de dados como uma maneira, cada vez mais
popular, de monitorar os cidadãos por meio de mídias sociais e tecnologias de comunicação on-line (Raley 2013).
Quais são os interesses distintos do governo, corporações e academia no tratamento de nossos dados? A vigilância de
dados (dataveillance) levanta mais questões sobre a credibilidade de todo o sistema de fluxos de informações on-line.

Dataveillance e a luta por credibilidade

Vários meses após o início das revelações da NSA, a Google, Facebook, Yahoo e Microsoft revidaram seus críticos
que os acusaram de colaborar com o governo e trair a privacidade dos usuários, processando a Agência de Vigilância
de Inteligência Estrangeira (FISA), que fornece a estrutura legal para as operações da NSA. Em uma entrevista, Mark
Zuckerberg (Facebook) afirmou que o governo americano havia feito um "mau trabalho em equilibrar a privacidade
das pessoas e seu dever de proteger"; e Marissa Mayer (Yahoo) admitiu que teve que lutar em tribunal contra a NSA,
para manter a confiabilidade de sua empresa em relação a

Vigilância & Sociedade 12 (2) 204


van Dijck: Dataficação, dataísmo e dataveillance

Usuários e investidores (Rushe 20130. Curiosamente, o que vimos após as revelações de Snowden foi que as
empresas de dados se uniram e confrontaram a NSA para recuperar a confiança do público. A divulgação de táticas
rotineiras de vigilância de dados ameaçou minar seriamente não apenas a confiança das pessoas em agências estatais
ou empresas individuais, mas também nos pilares institucionais do dataísmo como um todo.

A dataveillance - o monitoramento dos cidadãos com base em seus dados online - difere da vigilância em pelo menos
um sentido importante: enquanto a vigilância pressupõe monitoramento para fins específicos, a vigilância de dados
envolve o rastreamento contínuo de (meta) dados para fins predefinidos não declarados. Portanto, a vigilância de
dados vai muito além da proposição de examinar indivíduos, uma vez que penetra em todas as fibras do tecido social
(Andrejevic 2012: 86). Dataveillance é, portanto, uma proposta de longo alcance e com profundas conseqüências
para o contrato social entre plataformas corporativas e agências governamentais de um lado, cidadãos-consumidores
de outro. Vamos analisar mais de perto o papel distintivo de cada ator nessa batalha por credibilidade e confiança.

Desde o início, o Facebook e o Google ancoraram superficialmente as expectativas de confiança de seus usuários em
mantras corporativos, como "Não fazer o mal" (Google) e "Fazer do mundo um lugar mais aberto e conectado"
(Facebook). Para eles, o contrato social com os consumidores estava apostado em tornar a socialidade online visível
e rastreável; parte desse pedido de transparência exigia informações pessoais autênticas e verificáveis de seus
clientes registrados (van Dijck 2013b). No entanto, as plataformas ofereciam pouca transparência em troca; de 2007
até hoje, empresas como o Facebook travaram batalhas com o FTC e tribunais para defender seus Termos de Uso em
constante mudança, o que continua ampliando sua política de privacidade.6 Nos últimos anos, os defensores dos
usuários levaram o Facebook e outras plataformas à tribunais por manter ilegalmente registros de dados do usuário.
Grupos de defesa do consumidor pediram, incansavelmente, explicações sobre as contrapartidas dos serviços online
gratuitos, para ajudar a restaurar a confiança do público em plataformas únicas e no ecossistema como um todo. E
plataformas alternativas para pesquisa e comunicação - por exemplo, Lavabit, DuckDuckGo, Path, Leaf e Silentcircle
- tentaram equilibrar a proteção de dados dos usuários com serviços confiáveis. No entanto, é muito difícil escapar
das regras e práticas estabelecidas pelos atores dominantes no sistema.

A conformidade das empresas de alta tecnologia com as leis pós “Lei Patriótica (Patriot Act), devidamente relatada
por jornalistas logo após o caso Snowden, certamente contribuiu para a diminuição da confiança do público nas
táticas de vigilância de dados; portanto, não é surpreendente encontrar CEOs de empresas de dados atacando a NSA
e vocalmente tentando restabelecer sua imagem como facilitadores neutros. A atitude dos proprietários de
plataformas em relação aos órgãos administrativos geralmente é ambivalente. Eles pedem aos governos que
consertem as lacunas nas leis e políticas, (Brown, Chui e Minyika 2011: 11)mas essas mesmas empresas alertam o
governo contra a regulamentação excessiva e propõem deixar uma “abertura” a ser regulada pelo próprio setor de
tecnologia (Schmidt e Cohen 2013).

Uma ambivalência semelhante pode ser vista vindo do governo. Obviamente, as agências de inteligência têm
interesses diferentes dos reguladores do governo. Questões de segurança e privacidade geralmente apresentam
demandas contraditórias, levando a definições legais ambivalentes, como a validação de metadados de Obama ("não
estamos ouvindo suas conversas telefônicas") como um meio legítimo de vigilância de dados. Grupos de cidadãos
pedem, com razão, políticas claras que protejam a privacidade e a equilibrem com a segurança. A harmonização das
definições legais com os aparatos tecnológicos avançados é apenas um passo essencial no esforço de reconstruir a
confiança. Como vimos na crise bancária a partir de 2008, uma perda de confiança no setor financeiro foi causada
por uma obscuridade similar envolvida em muitos esquemas financeiros complexos e pela lógica de alta tecnologia
dos derivativos; depois de duas décadas de auto-regulação, a confiança nos sistemas bancários atingiu o nível mais
baixo de todos os tempos.

6 No último ano, o Facebook teve que defender sua prática de criar "perfis-sombra" de amigos com os quais você se conecta -
ao copiar seus endereços e números de telefone; a plataforma também teve que defender sua suposição automática de que os pais
de adolescentes que usam o serviço deram permissão para que seus nomes e imagens fossem usados na publicidade no Facebook
(Oremus 2013; Goel e Wyatt 2013).

Vigilância & Sociedade 12 (2) 205


van Dijck: Dataficação, dataísmo e dataveillance

A responsabilidade de manter a credibilidade do ecossistema como um todo também reside nos acadêmicos. O
entusiasmo desenfreado de muitos pesquisadores pela identificação de dados como um paradigma neutro, refletindo
a crença em uma compreensão quantificada e objetiva do social, deve ser examinado com mais rigor. A aceitação
acrítica das premissas ideológicas e comerciais subjacentes da dataficação pode prejudicar a integridade da pesquisa
acadêmica a longo prazo. Para manter a confiança, os pesquisadores de Big Data precisam identificar as perspectivas
parciais das quais os dados são analisados; em vez de manter afirmações de neutralidade, eles devem levar em
consideração o contexto em que os conjuntos de dados são gerados e emparelhar metodologias quantitativas com
perguntas qualitativas. Além disso, a viabilidade e a verificabilidade da análise preditiva como método científico
merece muito mais investigação interdisciplinar que combine, por exemplo, abordagens computacionais, etnográficas
e estatísticas (Giglietto et al. 2012: 155).

Os acadêmicos são atores significativos na construção da confiança social: um paradigma apoiado nos pilares das
instituições acadêmicas geralmente se torna árbitro do que conta como fato ou opinião, como fato ou projeção. No
mundo da socialidade online, onde o comportamento humano é codificado em (meta) dados e mediado por
plataformas, as distinções entre fatos, opiniões e previsões - entre objetividades, subjetividades e potencialidades -
são gradualmente apagadas. Nas palavras do sociólogo Bruno Latour (2007), elas são obliteradas “de tal maneira que
ambas estão se graduando para o mesmo tipo de visibilidade - não é uma vantagem se desejarmos desvendar a
mistura de fatos e opiniões que se tornou nossa dieta habitual de informação. ” Se a analítica preditiva e a análise de
dados em tempo real se tornarem os modos preferidos de análise científica do comportamento humano, os estudiosos
de ciências humanas e ciências sociais precisarão seriamente abordar as questões epistemológicas e ontológicas
fundamentais que foram mencionadas nas seções anteriores.

Enquanto isso, como mostram as ações inescrupulosas de Edward Snowden, há um ator significativo e geralmente
ignorado na luta pela credibilidade: os usuários-cidadãos. Quando Snowden escolheu divulgar suas informações
privilegiadas sobre práticas de vigilância de dados da NSA, ele não apenas demonstrou o poder de um funcionário
individual em desvendar e perturbar um complicado complexo de forças estatais-industriais-acadêmicas. Ele também
contou com a vigilância de muitos cidadãos - pesquisadores, blogueiros influentes, jornalistas, advogados e ativistas -
para divulgar publicamente sua preocupação com as falhas estruturais do ecossistema que está se desenvolvendo
atualmente. Na última década, o poder real dos usuários-cidadãos em relação as plataformas corporativas e ao Estado
provocou um debate substancial, embora principalmente nos círculos ativistas e acadêmicos. Alguns descobriram
que a capacidade dos usuários de resistir às políticas de privacidade e táticas de vigilância das plataformas é bastante
limitada; os indivíduos são guiados pelas tecnologias das plataformas e pelos modelos de negócios de plataformas
únicas, embora seja extremamente difícil obter informações sobre a interdependência e a complexidade do sistema
(Draper 2012; Hartzog e Selinger 2013; Mager 2012). Outros pesquisadores argumentaram a favor do fortalecimento
da alfabetização digital (consumidor), particularmente no nível de compreensão da privacidade e segurança em
relação aos dados sociais (Pierson 2012). E há um crescente número de importantes bolsas de estudo que
enfatizam a necessidade dos usuários descobrirem como a mídia conectiva forja um novo contrato social nas
sociedades, ao mesmo tempo em que recoloca a socialidade e a democracia nos ambientes online (Langlois 2013;
Lovink 2012).

O amplo debate público alimentado por Snowden é em si um exemplo eminente de um projeto para restaurar a
credibilidade da Internet.7 É através de choques como esses que as pessoas se tornam mais conscientes das forças
institucionais e ideológicas envolvidas em um paradigma em evolução. A popularização da dataficação como
paradigma neutro, sustentada pela crença no dataísmo e apoiada por guardiões institucionais da confiança,
gradualmente produziu uma visão da vigilância de dados como forma “normal” de monitoramento social. Talvez,
isso tenha levado Snowden a denunciar

7 Uma pesquisa (julho de 2013) do Pew Research Center for People and the Press mostra que as revelações de Snowden
realmente afetaram a opinião pública sobre vigilância e segurança. O relatório afirma que “a maioria dos estadunidenses - 56%
- dizem que os tribunais federais não fornecem limites adequados para os dados de telefone e internet que o governo está
coletando como parte de seus esforços antiterroristas. Uma porcentagem ainda maior (70%) acredita que o governo usa esses
dados para outros fins que não a investigação do terrorismo.”

Ver: http://www.people-press.org/2013/07/26/few-see- adequate-limits-on-nsa-surveillance-program/

Vigilância & Sociedade 12 (2) 206


van Dijck: Dataficação, dataísmo e dataveillance

essas práticas cada vez mais normalizadas, mas certamente é preciso mais de um denunciante para lançar uma
investigação completa sobre os novos pilares online da democracia e da socialidade. As questões colocadas na
agenda por Snowden certamente merecem permanecer nos holofotes da atenção pública até que todos as questões
precárias sejam abordadas.

Agradecimentos
Gostaria de agradecer a dois revisores anônimos deste artigo por seus comentários perspicazes e construtivos.
Também gostaria de agradecer a Kelly Gates, Mark Andrejevic, Thomas Poell, Maarten de Rijke, Arnold Smeulders
e Ton Brouwers pelas conversas sobre este tópico e pelos úteis comentários editoriais.

Referências
Amoore, L. 2011. Data Derivatives : On the Emergence of a Security Risk Calculus for Our Times. Theory Culture and Society
28 (6): 24-43.
Andrejevic, M. 2011. The work that affective economics does. Cultural Studies 25(4/5): 604-620.
Andrejevic, M. 2012. Exploitation in the data-mine. In: Internet and Surveillance: The Challenges of Web 2.0 and Social Media,
eds C. Fuchs, K. Boersma, A. Albrechtslund, and M. Sandoval, 71-88. New York: Routledge.
Aspen Institute report. 2010. The Promises and perils of Big Data. Washington DC: The Aspen Institute. Available at:
http://www.aspeninstitute.org/publications/promise-peril-big-data (accessed May 7, 2014).
Asur, S. and B.A. Huberman. 2011. Predicting the Future With Social Media.Paper published by Cornell University Open
Library. Available at: http://arxiv.org/abs/1003.5699 (accessed May 7, 2014).
Bollen, J., H. Mao and A. Pepe. 2010. Determining the public mood state by analysis of microblogging posts. Proceedings of the
12th International Conference on the Synthesis and Simulation of Living Systems. Odense, Denmark, 2010. Available
at: http://pti.iu.edu/pubs/determining-public-mood-state-analysis-microblogging-posts (accessed May 7, 2014).
boyd, d. and Kate Crawford. 2012. Critical questions for Big Data. Information, Communication & Society 5(15): 662-679.
Brivot, M. and Y. Gendron. 2011. Beyond panopticism: On the ramifications of surveillance in a contemporary professional
setting. Accounting, Organizations and Society 36: 135-155.
Brown, B., M. Chui, and J. Manyika. 2011. Are you ready for the era of ‘big data’? Trend report McKinsey Global Institute.
Available at: http://lonerganpartners.com/sites/lonerganpartners/files/Article%20PDFs/are-you-ready-for-era-of-big-
data-10-2011-mckinsey.pdf (accessed May 7, 2014).
Bucher, T. 2012. Want to be on the top? Algorithmic power and the threat of invisibility on Facebook. New Media & Society
14 (7): 1164-1180.
Cha, M., H. Haddadi, F. Benevenuto, and K. P. Gummadi. 2010. Measuring user influence in Twitter: The million dollar fallacy.
Proceedings of the Fourth International AAAI Conference on Weblogs and Social Media. Available at
http://pdfcast.org/pdf/measuring-user-influence-in-twitter-the-million-follower-fallacy Last accessed June 12, 2012.
Cheney-Lippold, J. 2011. A new algorithmic identity. Soft biopolitics and the modulation of control. Theory, Culture & Society
28 (6): 164-181
Diakopoulos, N. and D. A. Shamma. 2010. Characterizing debate performance via aggregated Twitter sentiment. Paper presented
at the CHI Conference, April 10–15, 2010, Atlanta, GA. Available at http://dl.acm.org/citation.cfm?id=1753504 .
(Accessed June 13, 2012).
Ding, Y., Y. Du, Y. Hu, Z. Liu, L. Wang, K. W. Ross, and A. Ghose. 2011. Broadcast yourself: Understanding YouTube
uploaders. Paper presented at the Internet Measurement Conference, IMC’11, November 2–4, Berlin. Available at
http://conferences.sigcomm.org/imc/2011/program.htm (accessed May 7, 2014).
Draper, N. 2012. Group Power: Discourses of Consumer Power and Surveillance in Group Buying Websites. Surveillance &
Society 9(4): 394-407.
ENISA. 2012. Study on monetizing privacy. An economic model for pricing personal information.” Published February 27.
Available at: http://www.enisa.europa.eu/activities/identity-and-trust/library/deliverables/monetising-privacy (accessed
May 30, 2012).
Garton-Ash, T. 2013. If Big Brother came back, he'd be a public-private partnership. The Guardian, 27 June, 2013. Opinion page.
Giglietto, F. L. Rossiand D. Bennato. 2012. The Open Laboratory: Limits and Possibilities of Using Facebook, Twitter, and
YouTube as a Research Data Source. Journal of Technology in Human Services 30(3-4): 145-159.
Gillespie, T. 2010. The politics of platforms. New Media & Society 12(3): 347-64.
Gitelman, L., ed. 2013. ‘Raw Data’ is an Oxymoron. Cambridge, MA: MIT Press.
Goel, V. and E. Wyatt. 2013. Facebook Privacy Change Is Subject of F.T.C. Inquiry. The New York Times, 11 September 2013.
Available at: http://www.nytimes.com/2013/09/12/technology/personaltech/ftc-looking-into-facebook-privacy-
policy.html (accessed May 7, 2014).
Hartzog, W. and E. Selinger. 2013. Big Data in Small Hands. Stanford Law Review Online Perspectives 66 (81): 3 September.
Available at: http://www.stanfordlawreview.org/online/privacy-and-big-data/big-data-small-hands (accessed May 7,
2014).
Helmond, A. and C. Gerlitz. 2013. The Like Economy. Social buttons and the data-intensive web. New Media and Society,
Available online: http://nms.sagepub.com/content/early/2013/02/03/1461444812472322.abstract

Vigilância & Sociedade 12 (2) 207


van Dijck: Dataficação, dataísmo e dataveillance

Langlois, G. 2013. Participatory Culture and the New Governance of Communication. The Paradox of Participatory Media.
Television and New Media 14 (2): 91-105.
Latour, B. 2007. Beware, your imagination leaves digital traces. Times Higher Literary Supplement April 6. Available at:
http://www.bruno-latour.fr/node/245 (accessed May 7, 2014).
Lovink, G. 2012. Networks Without a Cause. A critique of social media. Cambridge: Polity Press.
Kosinski, M., D. Stillwell, and T. Graepel. 2013. Private traits and attributes are predictable from digital records of human
behavior. PNAS, online first, March 2013. Available at:
http://www.pnas.org/content/early/2013/03/06/1218772110.full.pdf+html (accessed May 7, 2014).
Kwak, H., C. Lee, H. Park, and S. Moon. 2010. What is Twitter, a social network or a news media? Proceedings of the
19th International World Wide Web (WWW) Conference, April 26–30, Raleigh NC, 591–600.
Available at http://an.kaist.ac.kr/traces/WWW2010.html l (accessed June 12, 2012).
Mager, A. 2012. Algorithmic Ideology. Information, Communication & Society 15(5): 769-787.
Mahrt, M. and M. Scharkow. 2013. The Value of Big Data in Digital Media Research. Journal of Broadcasting & Electronic
Media 57 (1): 20-33.
Manovich, L. 2011. Trending: The Promises and the Challenges of Big Social Data. In: Debates in the Digital Humanities, ed.
M.K. Gold, 460-475. Minneapolis: University of Minnesota Press.
Mayer-Schoenberger, V. and K. Cukier. 2013. Big Data. A Revolution that will transform how we live, work, and think. London:
John Murray Publishers.
O’Connor, B., R. Balasubramanyan, B. R. Routledge, N. A. Smith. 2010. From Tweets to Polls: Linking Text Sentiment to Public
Opinion. Association for the Advancement of Artificial Intelligence (www.aaai.org). 122-129. Available at:
http://www.aaai.org/ocs/index.php/ICWSM/ICWSM10/paper/viewFile/1536/1842 (accessed May 7, 2014).
Oremus, W. 2013. With friends like these. How your friends, family, and co-workers are secretly helping social networks gather
intelligence on you. Slate.com, June 26. Available at:
http://www.slate.com/articles/technology/technology/2013/06/facebook_data_breach_how_social_networks_use_find_f
riends_to_mine_your_contacts.html (accessed May 7, 2014).
Pariser, E. 2011. The Filter Bubble: What the Internet Is Hiding from You. New York: Viking.
Pierson, J. 2012. Online Privacy in Social Media: A Conceptual Exploration of Empowerment and Vulnerability.
Communications and Strategies 88 (4): 99-120.
Quercia, D., M.. Kosinski, D. Stillwell and J. Crowcroft. 2011. Our Twitter profiles, our selves: Predicting personality with
Twitter. IEEE International Conference on Social Computing, Boston, 9-11 October. Available at
http://ieeexplore.ieee.org/xpls/abs_all.jsp (accessed May 7, 2014).
Raley, R. 2013. Dataveillance and Countervailance. In: ‘Raw Data’ is an Oxymoron, ed. L. Gitelman, 121-146. Cambridge, MA:
MIT Press.
Richardson, M. 2008. Learning about the world through long-term query behavior. ACM TWeb 2 (4). Available at: ACM Digital
Library http://dl.acm.org/citation.cfm?id=1409224 (accessed May 7, 2014).
Risen, J. and N. Wingfield. 2013. Silicon Valley and Spy Agency Bound by Strengthening Web. The New York Times, 19 June.
Rushe, D. 2013. Zuckerberg: US Government ‘blew it’ on NSA surveillance.” The Guardian 11 September 2013. Available at:
http://www.theguardian.com/technology/2013/sep/11/yahoo-ceo-mayer-jail-nsa-surveillance (accessed May 7, 2014).
Sakaki, T., M. Okazaki and Y. Matsuo. 2010. Earthquake Shakes Twitter Users: Real-time Event Detection by Social Sensors.
International World Wide Web Conference Proceedings, April 26–30, 2010, Raleigh, North Carolina, USA. ACM 978-
1-60558-799-8/10/04.
Schmidt, E. and J.Cohen. 2013. The New Digital Age. Reshaping the Future of People, Nations and Business. New York: Knopf.
van Dijck, J. 2005. The Transparent Body. A Cultural Analysis of Medical Imaging. Seattle: University of Washington Press.
van Dijck, J. 2013a. The Culture of Connectivity. A Critical History of Social Media. New York: Oxford University Press.
van Dijck, J. 2013b. ‘You have one identity’: Performing the self on Facebook and LinkedIn. Media, Culture & Society 35(2):
199-215.
van Dijck, J. and T. Poell. 2013. Understanding Social Media Logic. Media and Communication 1 (1): 2-14.
Weerkamp, W. and M. de Rijke. 2012. Activity Prediction: A Twitter-based exploration. SIGIR Workshop on Time-aware
Information Access. August 16, Portland. Available at: http://wouter.weerkamp.com/downloads/taia2012-activity-
prediction.pdf (accessed May 7, 2014).
Wilson, N., K. Mason, M. Tobias, M. Peacey, QS Huang, and M. Baker. 2009. Interpreting Google flu trends data for pandemic
H1N1 influenza: the New Zealand experience. European Communicable Disease Bulletin 14 (44): 429-433.

Vigilância & Sociedade 12 (2) 208

Você também pode gostar