Escolar Documentos
Profissional Documentos
Cultura Documentos
net/publication/334974804
CITATIONS READS
0 994
1 author:
SEE PROFILE
Some of the authors of this publication are also working on these related projects:
Algoritmização das relações sociais em rede, produção de crenças e construção da realidade View project
All content following this page was uploaded by Joao Carlos Caribe on 10 August 2019.
Uma perspectiva
histórica e sistêmica
do capitalismo de
vigilância
Blockchain –
confiança em
transações públicas e
o caso do BNDES
Identidade Digital – a
nova economia dos
dados e a Plataforma
My Heath Data
O problema das
organizações
tradicionais não é
tecnológico, mas
psicológico!
3 Nuvens e Rastros
Marcos Cavalcanti
Nuvens e Rastros
Boa leitura
Marcos Cavalcanti
Doutor em Informática pela Université de Paris XI, é
coordenador do CRIE – Centro de Referência em
Inteligência Empresarial da Coppe/UFRJ e dos cursos de
pós-graduação em Gestão do Conhecimento e Inteligência
Empresarial MBKM (Master on Business and Knowledge
Management) e WIDA (Web Intelligence e Analítica de
Dados), da COPPE/UFRJ. É membro do Board do New Club
of Paris, editor da Revista Inteligência Empresarial e co-
autor dos livros O Conhecimento em Rede, Gestão de
Empresas na Sociedade do Conhecimento, Gestão
Eletrônica de documentos e Que ferramenta devo usar.
Dados são o novo petróleo, o Facebook obteve uma receita bruta de U$ 55,83 bilhões em 2018i , Alphabet,
holding da Google, faturou U$ 126,8 bilhões, no mesmo períodoii , um mercado crescente e atual,
baseado no Capitalismo de Vigilância. Shoshana Zuboff (2015) popularizou o conceito
de “capitalismo de vigilância” que denota um novo tipo de capitalismo monetizado por dados
adquiridos por vigilância, e muitas vezes à margem da legalidade e da ética. A autora atribui o surgimento
dessa nova forma de capitalismo à conjunção de vastos poderes digitais e a
indiferença e narcisismo intrínseco do capitalismo financeiro, dentro da ótica neoliberal, frente à nova
dependência da arquitetura global de mediação digital que produz
o big data, e uma nova expressão de poder que ela chama de “Big Other”.
S egundo Zuboff, a Internet era um mundo A distância entre a Internet imaginada em 1996 e a
gentil e promissor, agora é onde o capitalismo está Internet atual em 2019, é tão grande que não
desenvolvendo de forma perversa e avassaladora, parece estarmos falando da mesma Internet.
pela extração de dados, ameaçando a liberdade e a Compreender e refletir sobre esta mudança é tema
privacidade. A Internet era um vasto campo de da conferência “The Web that Was: Archives, Traces,
possibilidades e oportunidades a serem exploradas, Reflections”iii, organizada pela Universidade de
um espaço de democratização do conhecimento, e Amsterdã, que acontece entre 19 e 21 de Junho de
repleto de otimismo, como descreve John Perry 2019. A chamada para os trabalhos abre com este
Barlow (1996) na “Declaração da Independência do parágrafo:
Ciberespaço”, fundamentada na liberdade, equidade
e democracia.
Doc Searls e David Weinberger (1996) também Como a primeira geração de usuários da web
cunharam um manifesto, desta vez sobre o que a ficando grisalha, fica claro que a Internet que
“Internet era ou não era”, o conceito nuclear do eles lembram não está mais presente. Aquela
manifesto “O Mundo de Pontas”, focava na principal Internet é agora simplesmente objeto de
característica estrutural da Internet, uma rede nostalgia. Os aniversários de tecnologia são
distribuída, sem centro, sem donos. O valor segundo dez centavos, enquanto a estética digital legal
o manifesto crescia na periferia da Internet, nas fez várias reviravoltas irônicas. Tudo isso
pontas. “A Internet interpreta a censura como um reforça a sensação de que deixamos para trás
defeito e roteia para contorná-lo”, frase clássica de uma história digital tão desajeitada e lenta
John Gilmore, incluída no manifesto, é a expressão quanto idealista e ingênua.
de empoderamento e liberdade, quase um grito de
guerra proferido por todos os amantes da rede.
Durante muitos anos o valor cresceu nas Publicações como “The Ends of the Internet” de
pontas, alimentando uma venturosa economia, que Boris Beaude, “The Culture of Connectivity” de Jose
acabou transformando-se na “Bolha da Internet”, van Dijck, e “The Net Delusion” de Evgeny Morozov
que estourou em 2001. O estouro da bolha não foi são alguns dos estudos já publicados sobre esta
responsável por afetar esta próspera economia, ele reflexão. Jonathan Zittrain (2008), um dos primeiros
dizimou milhares de empresas com propostas a escrever sobre o tema, faz uma crítica a
inexequíveis, levando à profissionalização do centralização da Internet através de modelos de
mercado, que passou a buscar novos e promissores negócios baseados em “caixas pretas”, como iPods,
modelos de negócios. iPhones, Xbox e TiVos.
Para Zittrain este modelo de negócio cria uma A proposta de Negroponte era uma TV
espécie de contra-revolução, matando a inovação na inteligente, que aprenderia com o gosto do usuário
Internet, e aumentando a sua regulabilidade pelo oferecendo-o a melhor programação, sem que
mercado. Para ele, a experiência de acesso à tivesse que se preocupar com isto, aprimorando
Internet esta sendo moldada em função do assim a “experiência do usuário”. Esta proposta se
dispositivo com o qual o usuário a acessa. Este desenvolveu para o que Negroponte chamava de
mesmo entendimento pode ser utilizado para “agentes inteligentes”. No rastro desta ideia a
analisar as “caixas pretas digitais”, que são as atuais Microsoft lançou o “Bob” e a Apple o “Newton”,
plataformas como Google, Facebook, Alibaba, dois agentes inteligentes que foram um grande
WhatsApp, Netflix, entre outros. fracasso (PARISER,2012).
Shoshana Zuboff (2015) trata esta mudança Jeff Bezos, da Amazon, atingiu a marca de um
como “Independência Estrutural”. Diferente da milhão de clientes de livros em 1997. A Amazon
necessidade de balancear a renda da população com desenvolveu uma solução de relevância com base
os preços dos bens produzidos, para mover a “roda nos dados e comportamento dos clientes: que livros
da economia”, do capitalismo do século XX, o procuravam, compravam, compartilhavam,
capitalismo de vigilância rompe com esta premissa, colocavam em lista de desejos. Foi o primeiro
criando uma independência estrutural, onde a “agente inteligente” que realmente funcionou. Bezos
população deixa de ser necessária como fonte de baseou seu método de relevância no livreiro do
clientes e empregados. A independência estrutural bairro, que conhece o interesse de cada cliente
significa que a empresa, no capitalismo de (idem).
vigilância, necessita apenas dos dados do indivíduo, Ao “observar” o comportamento dos clientes,
com os quais constrói perfis que se tornarão seus com o objetivo de ofertar livros com maior chance
ativos. A hiperescala através de crescente de compra, a Amazon pavimentou o capitalismo de
automação, e tecnologias escaláveis em nuvens, vigilância, em outras palavras, a Amazon extraía
permite que estas empresas operem com efetivos dados dos clientes, e os modelava na busca de
cada vez menores, tendo os algoritmos como “meio padrões, e através de homofiliav, estabelecia
de produção”. Esta independência estrutural das relacionamentos, produzindo indicações para o
empresas em relação à população é uma questão de cliente, visando “aprimorar” a sua experiência. Dez
excepcional importância à luz da relação histórica anos depois, em 2007, a Amazon lançou o Kindle, o
entre capitalismo de mercado e democracia. leitor de e-book, e passou a extrair dados também
É possível que o capitalismo de vigilância dos hábitos de leitura de seus clientes, tais como
tenha sido construído a partir de uma sucessão de interesse, horário de leitura, destaques e
falhas, eventos e oportunidades, percebidos ou compartilhamento de texto (idem).
construídos em diversas “cestas” e perspectivas, em Os mecanismos de busca como o Alta Vista,
contextos distintos, mas de alguma forma InfoSeek, Lycos, Yahoo e até o Brasileiro Cadê,
coordenados. Aspectos técnicos, comportamentais, funcionavam inicialmente, como diretórios, nos
legais, econômicos, sociais e estruturais precisam quais as páginas de Internet eram cadastradas
ser observados nesta construção. O conceito de manualmente. Este procedimento funcionou
“cestas” vem do livro “Uma introdução à concomitantemente por alguns anos com robôs de
Governança da Internet”, de Jovan Kurbalija (2016). rastreamento (web crawlers), que alimentavam
O livro estrutura, o que pode ser compreendido estas bases de dados. A indexação destas páginas
como “políticas de informação na Internet”, em era feita de forma estruturada, por categorias e
cinco domínios de construção política e operacional, palavras-chave, e o resultado das pesquisas
que denomina de cestas: Cesta de infraestrutura e apresentadas aos usuários, não levavam em
padronização, cesta jurídica, cesta econômica, cesta consideração nenhum critério de relevância
sociocultural, e cesta de desenvolvimento. significativo. Larry Page e Sergey Brin criaram o
conceito de “PageRank” na Universidade de
Stanford, em 1996, como parte de um projeto de
1. Um ponto de partida, modelos de negócio pesquisa.
Na construção da métrica de PageRank, a
Shoshana Zuboff (2014, 2015, 2016) não Internet é vista como uma rede de citações
estabelece claramente quando surgiu o capitalismo acadêmicas, cada nó corresponde a uma página, e
de vigilância, sua sistematização se deu a partir das cada ligação (hiperlink) uma referência entre
pesquisas de Hal R. Varian. páginas. A métrica do PageRank atribui valores as
Em 1994, um pouco antes da oferta comercial páginas (nós), de acordo com a quantidade e
do acesso à Internet, Nicholas Negroponteiv do MIT relevância de suas ligações (VISE, 2006).
pesquisava sobre a oferta massiva de canais na TV a O Google, fundado pelos criadores do
cabo americana. Ele imaginava ser impossível ao “PageRank”, surgiu em 1998, mas somente no ano
usuário escolher bons programas, apenas com o seguinte, adotou o “PageRank” como principal
controle remoto. critério de indexação.
O Google não extrai apenas os dados das “linha do tempo” do Google Maps, registrando o
consultas dos usuários, mas também extrai dados do deslocamento diário do indivíduo. Este serviço,
cabeçalho HTTPviii, tais como modelo do computador através da extração e modelagem de dados de GPS,
ou dispositivo, versão do sistema operacional, permite identificar se ele está parado, caminhando,
modelo do navegador, idioma e número de IPix. Com de carro, ou se entrou em determinada edificação.
base no número de IP, é possível identificar as Padrões posicionais permitem determinar onde o
coordenadas geográficas do local de acesso do indivíduo mora, trabalha, estuda, além de seus
usuário com razoável precisão utilizando o GeoIP hábitos de deslocamento (VISE, 2006).
(Geolocalização pelo IP)x. O Facebook foi lançado em 2004, inicialmente
O Google também lançou em 2005 o Google para acesso apenas aos alunos da Universidade de
Maps. O Google Maps é o resultado da aquisição de Harvard, tornando-se público em 2006. A
três empresas: a australiana, Where2, que popularização do Facebook se deu a partir de 2011,
desenvolveu o núcleo tecnológico de visualização com o lançamento do recurso “linha do tempo”, um
interativa de mapa, e as americanas Keyhole, feed de postagens de “amigos” na tela principal.
empresa de visualização geoespacial, e a ZipDash, Apesar dos estudos da Shoshana Zuboff
especializada em analise de tráfego em tempo real. focarem prioritariamente no Google, o Facebook
A preocupação inicial estava ligada a questões tornou-se a representação mais fiel do modelo do
de segurança geográfica, apesar das imagens de capitalismo de vigilância. A voracidade com que
satélite utilizadas não serem atualizadas, exibiam a extrai, armazena e processa dados de seus usuários
localização e disposição das edificações. para apresentar-lhes uma resposta em forma de
Com o lançamento do Google Street View em feed é proeminente.
2007, com fotos de 360º, a partir de câmeras O laboratório de pesquisa Iugoslavo Share
especiais instaladas em veículos identificados com a Labxi, desenvolveu um estudo detalhado, dividido
marca do Google, surgiram muitas controvérsias em em três partes, intitulado “Facebook Algorithmic
torno da natureza não censurada das fotos, Factory” (SHARE LAB,2016), desvendando a “caixa
resolvida com o embasamento dos rostos e placas preta digital” do Facebook. O estudo é dividido em
de automóveis eventualmente capturados. Foi com o quatro etapas da “Fábrica Algorítmica do Facebook”,
crescimento da penetração dos smartphones, a coleta de dados, armazenamento, processamento
partir de 2012, que tornou-se possível o serviço de algorítmico e determinação do alvo.
A coleta ou extração de dados se dá de forma gens que provoquem injuria. Este processo se
dinâmica, e em tempo real sobre cinco fontes assemelha ao modelo de “relacionamento tóxico”,
distintas: conhecido por Duplo Vínculo. Segundo Crockett, as
- Informações da conta e do perfil, que são os dados redes, neste processo provocam uma montanha
cadastrais e informados, incluindo as informações russa emocional no usuário, e ainda não se sabe as
de tipo de relacionamento, grau de parentesco, e suas consequências.
novos “amigos”; O Google, Amazon e Facebook utilizam
- Informações do dispositivo, modelo, capacidade, IP, complexos algoritmos para intermediar as relações
sistema operacional, aplicativos instalados, entre usuários e conteúdos. As transações mediadas
condições gerais como nível de bateria, memória por computador permitiram observar
disponível; comportamentos que antes não eram observáveis,
- Ações e comportamentos, estes são os dados que isto passa a permitir transações que não eram
Zuboff chama de “data exhaust” (dados residuais), viáveis anteriormente, estabelecendo novos modelos
que são dados produzidos na interação com o de negócios. Essa é uma nova fronteira comercial
Facebook, tais como curtir, comentar, compartilhar, composta de conhecimento sobre o comportamento
clicar, marcar e interagir com a página. Os dados em tempo real que cria oportunidades para intervir
residuais parecem intangíveis e irrelevantes, mas e modificar o comportamento visando o lucro. Como
são os que permitem ao Facebook conhecer resultado, as pessoas são reduzidas à mera
profundamente o usuário; biomassa humana, inclinadas a servir as novas
- Tracker, o Facebook faz uso de trackers, próprios regras do capital, impostas a todo comportamento,
e de terceiros, inclusive do Google; através de uma implacável relação algorítmica que
- Informações de fora do domínio, que são produz um feed em tempo real, baseado em fatos, e
informações obtidas a partir de outros serviços do onipresente (ZUBOFF, 2015).
Facebook, como Instragram, WhatsApp, Onevo, O estudo e a correlação dos demais modelos
Atlas, LiveRail, Oculos, Moves, Parsex, Mobile de negócios relacionados ao capitalismo de
Technologies Inc, Serviços de Analytics, e vigilância não caberiam neste artigo. Empresas e
interatividade com aplicações do Facebook em serviços como Waze, Alibaba, Netlfix, PokemonGo,
outros sites. Youtube, Spotify, iTunes e Twitter, mereceriam um
Em outro estudo, do laboratório intitulado estudo detalhado, assim como os novos sistemas de
“Invisible Infrastructures: Mobile permissions” pagamento pelo smartphone com o Apple Pay e
(SHARE LAB, 2015), que detalha as informações do Alipay.
dispositivo, é apontado que o aplicativo do
Facebook acessa 42 funções e sensores do 2. Outras arenas de desenvolvimento
smartphone, dentre elas leitura e gravação de
agenda, caderno de telefone, SMS, e log de telefones, Os modelos de negócio do Google, Amazon e
e ainda acessa as câmeras, microfone, lista de redes Facebook no Capitalismo de Vigilância se
wifi próximas, e informações de geoposicionamento. desenvolveram sobre o desenvolvimento simultâneo
O armazenamento se dá a partir de todos os em outras arenas. Evolução nos hábitos e velocidade
dados extraídos, sobre a forma de dados brutos, de acesso à Internet, o desenvolvimento tecnológico,
dados modelados, e graphos de relacionamento. O desenvolvimento de mercados, e práticas e padrões
processamento algorítmico se dá por machine de design e de programação para a Internet, foram
learning e deep learning, produzindo informações fatores importantes para este desenvolvimento. Até
como perfil psicométrico, orientação sexual, posição 1999, no Brasil, o acesso à Internet se dava a partir
política, estado civil, rotinas, valores e princípios, de um computador fixo, através de um modem de
renda familiar e biometria facial. até 56Kbps, que discava para o provedor de acesso.
A determinação do alvo, que é o momento em Em 2016, segundo o NIC.Br (2018), a velocidade
que o algoritmo decide o que irá exibir no “feed” do média de acesso no Brasil era de 9,6 Mbs, ou seja,
usuário, é baseado nos seguintes fatores: conexões, 171 vezes mais rápida que em 1999. No início, os
dados demográficos, interesses do usuário e seus Web Designersxii trabalhavam no projeto de sites,
comportamentos. Produzindo um “feed” contendo o com a preocupação de que as páginas de Internet
conteúdo e alertas relevantes, impulsionamento não tivessem mais de 200Kb, incluindo texto e
pago, e uma ou mais publicações que provoquem a imagem, pois estudos indicavam que o usuário
injúria do usuário. abandonaria qualquer página que demorasse mais
Além de proporcionar boas experiências, os que 10 segundos para carregar (King, 2003).
algoritmos do Facebook podem influenciar o humor, A partir de 2000, o acesso banda larga chega
opinião e percepção do mundo do indivíduo. O às principais capitais do Brasil, em velocidades
principal objetivo do Facebook é reter e provocar entre 128Kbps e 512Kbps, estabelecendo novos
interações. Segundo a neurocientista Molly Crockett hábitos. O modelo do provimento de acesso também
(2017), a forma mais eficiente de obter este mudou, antes o acesso era feito a partir de
resultado, é através da introdução no feed, de posta- pequenos provedores que conectavam com as redes
de telecomunicações; com o acesso banda larga, as Esta prática se tornou conhecida por Web
próprias empresas de telecom passaram a prover o Standards, por seguirem os padrões do W3C. O web
acesso. A banda larga trouxe a conectividade design passou a utilizar o XHTML como linguagem
permanente à Internet, produzindo novos hábitos de de marcação para o conteúdo das páginas, e o CSSxvi
uso. As interações passaram a ser em tempo real, (Cascade Style Sheets), para construir o layout,
plataformas de interação social como fóruns on-line produzindo códigos limpos e estruturados. Antes
se tornaram populares, assim como o ICQxiii e o disto, o layout das páginas era construído com
MSN. Com o acesso à Internet em banda larga, sem tabelas, criando um código HTML complexo
a necessidade de páginas extremamente otimizadas, (ZELDMAN,2003).
o design tomou conta da Internet, criando um Até 2005, a maioria dos sites da Internet
período de muita experimentação e beleza. Na tinham um comportamento síncrono, mesmo os
contramão desta internet esteticamente transacionais como o Orkut, Google e a Amazon. Isto
experimental, Steve Krug (2000) surge com o livro significa que as páginas eram construídas
“Don’t make me think!”, e o conceito de dinamicamente no servidor, e enviadas no formato
“usabilidade na Internet”. Krug defendia um design estático do HTML ou XHTML para o usuário.
funcional, planejado para ser intuitivo, conduzindo o Uma vez exibida no navegador, a página não
usuário ao longo do site. A sua aplicação trouxe sofria alterações ou enviava e recebia dados, até que
para o Web Design a prática de observar o um botão ou link fossem acionados. Somente
comportamento dos usuários em relação às páginas páginas que faziam uso do Adobe Flashxvii ou do
de Internet, dos laboratórios de usabilidade, criando Java conseguiam produzir um comportamento
novas especialidades profissionais como especialista assíncrono. Estas páginas com comportamento
em usabilidade, gerente de UX e Interface, abrindo assíncrono fizeram parte do que foi conhecido por
um novo e promissor mercado de extração de RIA (Rich Internet Application).
comportamentos para aprimorar o design de Os aplicativos ricos de Internet eram
páginas de Internet e interfaces interativas. novidades antes de 2005, páginas que permitiam
A ciência da usabilidade trouxe para o Web interatividade no lado do cliente (no navegador do
Design algumas áreas de conhecimento da Ciência usuário), atualizando dados em tempo real, eram
da Informação como arquitetura da informação, inovadoras.
taxonomia e folksonimia, gestão do conhecimento, e A capacidade de processamento, além da
também o cognitivismo, o estudo heurístico e o memória, forma e velocidade de acesso foram
behaviorismo da psicologia. Trouxe aspectos catalizadores destas mudanças. Um iPhone X de
positivos, como a redução da curva de 2018 tem 172 vezes a capacidade de processamento
aprendizagem, mediação visual de informações, de um computador topo de linha de 1996, o
colocando um pouco de organização no caos natural Pentium 100MHz.
da Internet; mas também trouxe aspectos O AJAX (Asynchronous JavaScript And XML),
questionáveis como a capacidade de manipulação do surgido em 2005, é um conjunto de técnicas de
comportamento do usuário pelo design. Web Development que utilizam algumas tecnologias
Um dos problemas enfrentado pelos Web no "client side", para criar aplicações de Internet
Designers até 2002 foi a falta de padrão provocado assíncronas. Com o AJAX, páginas da Internet podem
pela chamada “Guerra dos Navegadores”. Até 2001, enviar e receber dados dos servidores de forma
a disputa pelo mercado dos navegadores era assincrona e em background, sem interferir na
liderado pelo Microsoft Internet Explorer e pelo visualização e comportamento da página que está
Netscape. sendo exibida. Utilizando tecnologias como
A Microsoft entregava seu navegador instalado JavaScript, XHTML, HTML e CSS, é possível construir
e integrado com o sistema operacional Windows, e e reconstruir partes da pagina que esta sendo
adotava a prática de criar marcadores (tags) HTML exibida sem necessitar recarrega-la. Por operar em
personalizadas, assim como o Jscript em background enviando e recebendo dados sem
substituição ao JavaScript, enquanto o Netscape interferir na visualização, o AJAX pode ser usado
utilizava o Javascript e seguia os padrões de para extrair dados residuais do usuário, e envia-los
marcação HTML do W3xiv . Qualquer projeto de Web ao servidor sem que este perceba.
Design tinha de considerar estas variáveis, e muitas A Mobilidade possibilitou um grande salto no
vezes as contornavam com scripts que identificavam capitalismo de vigilância, graças aos smartphones
o navegador, enviando a página no formato que tornaram populares no Brasil a partir de 2012
adequado, muitos sites tinham páginas redundantes, com 18% de penetração, atingindo 57% da
uma para o Internet Explorer e outra para o população em 2015, e chegando a 87% em 2017xviii.
Netscape e demais navegadores (ZELDMAN,2003). A mobilidade passou a permitir o uso permanente
O XHTMLxv, publicado em 2000 pelo W3C, da Internet, a partir de qualquer lugar. Novos dados
tornou-se popular a partir de 2002, ao permitir passaram a ser extraídos a partir da capacidade dos
separar de forma estruturada o conteúdo, design e aplicativos em acessar diversos sensores e
aplicação das páginas de internet. funcionalidades do smartphone.
nos EUA à Bilbao na Espanha; O MALBECxxii Esta pressão está se expandindo para as redes de
(Globenet e Facebook), com capacidade não internet fixa, sob o argumento da criação de uma
informada, conectando Rio de Janeiro (RJ), Praia franquia de dados, conhecida por “Data Cap”,
Grande(SP) e Buenos Aires na Argentina; limitando o volume de dados consumidos por
TANNATxxiii(Google e Antel) com 64Tb/s conectando conexões de banda larga.
Santos(SP), interligando com o MONET, com
Maldonado no Uruguai; e dois cabos de uso 3. Conclusão, barreiras e limitações ao
exclusivo do Google: JUNIORxxiii (Google), com capitalismo de vigilância
16Tb/s, conectando Rio de Janeiro e São Paulo, e o
CURIE (Google) xxiv, interligando Los Angeles (EUA) Shoshana Zuboff (2016), no artigo “Secrets of
à Valparaiso no Chile. Surveillance Capital”, explorou questões práticas da
O movimento teve inicio na disputa pela operação do capitalismo de vigilância, ela começa
Neutralidade da Internet, a mesma neutralidade que por identificar o objetivo principal que é
foi garantida no Brasil pelo Marco Civil da Internet, modificação em escala dos comportamentos das
e quebrada nos EUA por determinação da agência pessoas. Segundo Zuboff, o ataque aos dados
americana FCC. Em poucas palavras, a neutralidade comportamentais é tão abrangente que não pode
da internet, neutralidade de rede, ou simplesmente mais ser circunscrito pelo conceito de privacidade e
neutralidade, é a garantia nas camadas de suas disputas. Ela descreve como uma equação em
infraestrutura, internet e transporte, de que todos quatro pontos: ampliação obsessiva nos espaços de
os pacotes de dados tenham a mesma prioridade de captura de dados, o que ela chama de excedentes
tráfego. comportamentais; modelagem destes dados por
As empresas de telecomunicações que técnicas de big data; criação de produtos de
oferecem estas camadas almejam cobrar valores previsão comportamental; comercialização destes
diferenciados de acordo com o serviço que esta produtos.
sendo acessado pelo usuário, origem e destino da Considerando que os dados são o principal
rota de pacotes de dados. Esta disputa não é ativo do capitalismo de vigilância, impor limitações
recente, vem desde 2010, quando as operadoras de à sua extração, transporte, processamento e
telecomunicações, entenderam que as OTTs tinham armazenamento, tem sido objeto de políticas de
uma receita desproporcional ao que pagavam pela dados pessoais. A Europa é pioneira, e já possui um
infraestrutura de telecomunicações. marco legal para proteção de dados pessoais
As OTTs em contrapartida, entenderam que conhecida por GDPRxxv. No Brasil, a Lei Geral de
garantem o tráfego nas redes de telecomunicações, Proteção de Dados Pessoais (LGPD)xxvi sancionada
trazendo novos clientes. Deste impasse surgiram os em 2018, entrará em vigor em 2020.
acordos de “Zero Rating” na telefonia móvel, estes A compreensão das camadas que compõem a
acordos garantem que as empresas de estrutura TCP/IP, pela perspectiva do capitalismo de
telecomunicação não cobrem franquia de dados, vigilância, permite observar em quais camadas é
quando usuários acessam os OTTs que fazem parte possível a extração de dados, além da usual
do acordo. extração na camada de aplicação, também é possível
extrair na camada de transporte, sendo este um dos COMITÊ GESTOR DA INTERNET NO BRASIL(CGI.Br). Tic domicílios
2017. CETIC, 2018. 416 p.
riscos da concentraçã o das empresas com as redes JOLER, V.; PETROVSKI, A. Immaterial Labour and Data
de infraestrutura descrita na Bolha dos Cabos Harvesting = ShareLab. ShareLab. 2016. Disponível em:
submarinos. Ao descrever as cestas que fazem parte <https://labs.rs/en/facebook-algorithmic-factory-immaterial-labour-
and-data-harvesting/>. Acesso em: 29/ago./18.
da estrutura de governança da Internet, é possı́vel KING, A. B. Speed up your site. [s.l.]: New Riders, 2003. 496 p.
identi}icar que tipos de polı́ticas pú blicas poderã o ISBN: 9780735713246.
ser desenvolvidas em cada uma delas. KRUG, S. Don’t Make Me Think! A common sense approach to
A cronologia e sistematizaçã o dos eventos Web Usability. 1 ed. New Riders, 2000. 195 p.
KURBALIJA, J. Uma introdução à Governança da Internet. In:
permitiu expor, que o Capitalismo de Vigilâ ncia CARVALHO, C. (trad.). 6 ed. São Paulo, Brasil: Nic.br, 2016. 240 p.
soube aproveitar cada oportunidade criada, NIC.BR, BANDA LARGA NO BRASIL : um estudo sobre a evolução
transformando-as sempre e lucro, e aprimorando do acesso e da qualidade das conexões à Internet. Cadernos NIC.br
Estudos Setoriais. São Paulo: Comitê Gestor da Internet no Brasil
seus negó cios de comercializaçã o de
CGI.br, 2018. 148 p.
comportamentos futuros. Este desenvolvimento foi, e PARISER, E. O filtro invisível: O que a internet está escondendo
continua sendo, intimamente ligado a adoçã o de de você. 1 ed. Brasil: Zahar, 2012. 251 p.
novas tecnologias pelo mercado, produzindo uma SEARLS, D.; WEINBERGER, D. World of Ends. 1996. Disponível em:
<http://www.worldofends.com/>. Acesso em: 14/ago./16.
economia de escala, indispensá vel ao big data. VISE, D. A.; MALSEED, M. The Google Story: Inside the Hottest
Acordos, fusõ es e aquisiçõ es de empresas, supriram Business, Media, and Technology Success of Our Time. 2 ed.
a demanda voraz por dados e comportamentos [s.l.]: Pan Books, 2006. 181 p. ISBN: 9780553383669.
ZELDMAN, J. Designing with web standards. : New Riders, 2003.
codi}icados, e continuam suprindo. 436 p.
A expansã o do mercado das OTTs atravé s da ZITTRAIN, J. L. The Future of the Internet and How to Stop it. 1
construçã o de infraestrutura de Internet privada, ed. [s.l.]: Yale University Press, 2008. ISBN: 978-0300124873.
como no caso da “Bolha dos Cabos Submarinos”, ZUBOFF, S. A Digital Declaration. Frankfurter Allgemeine. 2014.
Disponível em:
expô s, alé m da disputa entre as OTTs e telecoms, a <http://www.faz.net/aktuell/feuilleton/debatten/the-digital-
voracidade e tamanho do mercado a ser abraçado debate/shoshan-zuboff-on-big-data-as-surveillance-capitalism-
pelo Capitalismo de Vigilâ ncia. Este tem em seu 13152525.html>. Acesso em: 21/nov./18. ISBN: 0174-4909.
DNA uma prá tica predató ria, que esta consumindo a ZUBOFF, S. Big other: Surveillance capitalism and the prospects
of an information civilization. Journal of Information Technology,
privacidade, liberdade, autonomia, sanidade mental v.30, n.1, p.75–89, 2015.
e estado de direito. Agora está corroendo as bases ZUBOFF, S. Secrets of Surveillance Capitalism. Franffurter
da Internet, arriscando transforma-la em um espaço Allgemeine. 2016. Disponível em:
<http://www.faz.net/aktuell/feuilleton/debatten/the-digital-
fragmentado de redes, ampliando o conceito de debate/shoshana-zuboff-secrets-of-surveillance-capitalism-
jardim murado, uma vez que estas redes privadas 14103616.html#void>. Acesso em: 22/nov./18.
possuem suas pró prias regras, e poderã o nã o seguir
leis, acordos e regras implı́citas e explı́citas que Notas
norteiam a governança da internet.
i Relatório financeiro do Facebook de 2018:
O capitalismo de vigilâ ncia violou uma das https://investor.fb.com/investor-news/press-release-
details/2019/Facebook-Reports-Fourth-Quarter-and-Full-
regras basilares da Internet ao adicionar valor no
Year-2018-Results/default.aspx acesso em 02/04/2019.
seu centro, e isto a está destruindo. Violar regras ii Relatório financeiro da Alphabet (Google) de 2018:
parece ser uma das caracterı́sticas operacionais do https://abc.xyz/investor/ acesso em 02/04/2019.
capitalismo de vigilâ ncia, que está sempre iii The Web that Was - Call for Papers
https://www.google.com.br/adsense/start/
Referências viii Cabeçalho HTTP - Ao requisitar uma URL, o navegador
BARLOW, J. P. A Declaration Of The Independence Of
Cyberspace, 1996. Disponı́vel em: https://www.eff.org/cyberspace- envia uma Requisição HTTP, e neste momento envia uma
independence. Acesso em: 16/11/2018. série de dados sobre o computador e a conexão.
CARIBEÄ , J. C. R. Vigilâ ncia cega, o que as pegadas digitais podem ix IP (Internet Protocol) significa "Internet Protocol" e é um
revelar sobre o indivı́duo. In: II Simpósio Internacional Network número que identifica um dispositivo em uma rede (um
Science. Rio de Janeiro, 2018. computador, impressora, roteador, etc.), ao acessar a
CROCKETT, M. J. Moral outrage in the digital age. Nature Human
Behaviour, v. 1, no 11, p. 769–771, 2017. ISSN: 2397-3374, DOI:
Internet, o número de IP que o servidor receberá será o
10.1038/s41562-017-0213-3.
número de IP do modem.
GIRARD, B. The Google Way - How one company is https://pt.wikipedia.org/wiki/Protocolo_de_Internet
revolutionizing management as we know it. No Starch Press, Continuação na página 40.
2009. 248 p.