Você está na página 1de 27

Competitividade na era do Big Data: uma perspectiva a partir da disciplina de

arquitetura da informação1

Gilberto L. Fernandes

Mamede Lima-Marques

Gilberto L. Fernandes

Mestre em Arquitetura da Informação pela Faculdade da Ciência da Informação da


Universidade de Brasília – UnB (2014) e pesquisador do Centro de Pesquisas em
Arquitetura da Informação – Cpai da UnB. Graduado em Engenharia Eletrônica pela
Universidade Federal do Rio de Janeiro – UFRJ (1980) e especialista em Engenharia
de Sistemas, com ênfase em inteligência artificial e redes neurais, pelo Instituto
Alberto Luiz Coimbra de Pós-Graduação e Pesquisa de Engenharia – Coppe/UFRJ
(1990). Atua há mais de 35 anos no mercado de tecnologia da informação, nas áreas
de engenharia de software, implantação de processos de desenvolvimento e gestão
do ciclo de vida de aplicações de software.

Mamede Lima-Marques

Mestre e doutor em Ciência da Computação pela Université Paul Sabatier – Toulouse


III – França, com especialização em Ciência da Computação e pós-doutorado em
Lógica Aplicada, ambos pela Universidade Estadual de Campinas – Unicamp (1989,
1992). Graduado em Eletrônica pelo Centro Federal de Educação Tecnológica de
Minas Gerais – Cefet-MG e em Filosofia pela Pontifícia Universidade Católica de
Campinas – PUC-Campinas. É professor titular do Departamento de Ciência da
Informação e Documentação da Universidade de Brasília – UnB. É consultor nacional
e internacional, destacando-se trabalhos em órgãos do setor público, entre os quais
Ministério da Educação, Setor Educacional do Mercosul – SEM, Instituto Nacional de
Pesquisas Educacionais – Inep, Ministério da Saúde, Secretaria de Segurança Pública
de São Paulo e Ministério da Justiça.

Resumo

Este trabalho tem por objetivo reconhecer os fenômenos tecnológicos e sociais


presentes no Big Data, estudá-los e avaliar o seu potencial impacto, riscos e

                                                                                                                       
1
Este trabalho foi financiado com subvenção do Centro de Pesquisas em Arquitetura da Informação
(Cpai), Faculdade de Ciência da Informação, Universidade de Brasília (UnB).
oportunidades, sob as perspectivas da sociedade civil, do mercado empresarial e da
indústria de tecnologia em especial. Procura ainda apontar e explicar que tipos de
aplicações vinculadas ao Big Data poderão proporcionar os melhores diferenciais
competitivos.

Palavras-chaves: Big Data. Arquitetura da informação. Tecnologia da informação.


Ciência da informação. Inteligência artificial. Realidade aumentada.

Abstract

This study has the purpose to recognize the technological and social phenomena
present in the Big Data, to study them and their potential impact, risks and
opportunities from the perspectives of the civil society, the corporate market and the
technology industry in particular. This work also attempts to point out and explain what
kind of applications, related to Big Data, may provide the best competitive advantages.

Keywords: Big Data. Information architecture. Information technology. Information


science. Artificial intelligence. Augmented reality.

2.1 Introdução

O domínio da tecnologia, desde tempos imemoriais, tem sido sinônimo de


poder, permitindo à espécie humana controlar a natureza à sua volta e seus próprios
semelhantes. Para o homem das cavernas, o controle do fogo ou a habilidade para
construir a ponta de sua lança com uma pedra afiada poderiam significar a diferença
entre viver ou morrer para todo o seu grupo. A história tem mostrado, ao longo do
tempo, que ligeiras vantagens tecnológicas podem representar a distância entre o
domínio ou a submissão e o desparecimento de povos inteiros. Por outro lado, para ter
um real impacto e importância para o ser humano, a tecnologia precisa sempre servir
a uma finalidade social. Desse modo, quando a tecnologia se aplica em quebrar ou
reduzir barreiras de tempo e espaço, como é o caso dos meios de transporte e de
comunicação, esse impacto é significativamente maior, pois enseja revoluções,
algumas vezes pequenas, outras vezes de grandes proporções, atingindo todas as
áreas da atividade humana e gerando enormes oportunidades de mudança e
desenvolvimento. Como marcos importantes da civilização, destacam-se os eventos
de introdução da roda, do estribo, das velas navais, das locomotivas, das estradas de
ferro, do automóvel, do avião e das viagens espaciais, assim como o foram a
linguagem, a escrita, a imprensa, o telégrafo, o telefone, o rádio, a televisão, o
computador e a internet, com todos os seus desdobramentos, incluindo o Big Data,
tema deste trabalho.

2.2 Um novo ambiente de competição

Não é por acaso que as maiores corporações do planeta têm suas atividades
ligadas às áreas de comunicações e transportes. O surgimento do telégrafo deu
origem à Western Union, que rapidamente se tornou a maior empresa do planeta. O
telefone superou tecnologicamente o telégrafo, e a Bell Telephone Company,
antecessora da AT&T, constituída em 1877 para explorar comercialmente essa nova
invenção, logo superaria a Western Union na posição de maior corporação global. Em
um processo com características que nos permitem pensar numa espécie de
darwinismo econômico, intensificado após o início da globalização, empresas como
Shell, Exxon, Toyota, Volkswagen, GM, Samsung, Apple, NTT, AT&T, Telefônica, HP,
IBM, Microsoft, Amazon e Google mantêm-se e revezam-se, durante as últimas
décadas, nas primeiras posições desse ranking mundial (Fortune, 2013).
A visão da Sloan Foundation2 sobre a utilização da tecnologia, parcialmente
transcrita a seguir, corrobora o posicionamento adotado nesta introdução:

[...] tecnologia é a aplicação da ciência, engenharia e organizações industriais


para criar um mundo mais apropriado ao ser humano. Isto tornou possível, nas
nações desenvolvidas, um padrão de vida inconcebível há um século. O processo,
entretanto, não é isento de tensões; por sua natureza, a tecnologia provoca
mudanças na sociedade e agride convenções. Afeta praticamente todos os
aspectos das atividades humanas: instituições públicas e privadas, sistemas
econômicos, redes de comunicação, estruturas políticas, associações
internacionais, a organização das sociedades, e as condições da vida humana.
Este efeito não ocorre apenas em um sentido; assim como a tecnologia muda a
sociedade, também as estruturas sociais, atitudes e demais características da vida
humana afetam a tecnologia. Mas, talvez porque a tecnologia seja tão
rapidamente e completamente assimilada, a profunda interação desta com a
sociedade, na história moderna, não venha sendo suficientemente reconhecida.
(Riordan; Hoddeson, 1997, p. ix, tradução nossa)

O advento do Big Data, por suas características e possibilidades de aplicação


nas mais diversas áreas da atividade humana, impõe desafios de ordem técnica,
social, política e legal.
Fundamentalmente, tecnologias não são boas ou más, sendo essas
características associadas ao uso que delas se faz. As inovações que se apresentam
neste início de século, com a disseminação quase onipresente de computadores,

                                                                                                                       
2
A Sloan Foundation é uma organização norte-americana sem fins lucrativos, com sede em Nova York,
centrada no apoio e financiamento da educação e de pesquisas nas áreas de ciência, tecnologia,
engenharia, matemática e economia.
redes de comunicação, dispositivos móveis e da computação em nuvem3 e, agora,
com o Big Data, podem oferecer um potencial quase ilimitado de aplicações, assim
como riscos de acidentes ou de utilização com fins não pacíficos, com efeitos
igualmente perigosos.
Os riscos e benefícios que poderão resultar do uso de aplicações com acesso
às bases de dados classificadas como Big Data justificam plenamente o estudo, a
análise e um amplo debate sobre os eventuais impactos desses avanços tecnológicos,
que serão tratados ao longo do texto. Estes possíveis impactos igualmente justificam
que a presente discussão seja estendida não somente aos profissionais de tecnologia
e aos executivos de empresas interessados nos benefícios econômicos que podem
advir de vantagens competitivas oferecidas pelo Big Data, mas também a agências
governamentais, economistas, políticos e juristas.
Portanto, o objetivo deste trabalho é reconhecer os fenômenos presentes no
Big Data, estudá-los e avaliar o seu potencial impacto, riscos e oportunidades, sob os
pontos de vista da sociedade civil, da indústria de tecnologia e do mercado
empresarial.

2.3 Conceitos de referência

Para que seja alcançado um entendimento o mais próximo possível daquele


pretendido, a seguir são apresentadas algumas definições de termos e conceitos que
serão utilizados ao longo do texto.

2.3.1 Big Data

O termo Big Data tem sido empregado com distintos significados, dependendo
do contexto: ora se refere a bases de dados com características específicas de volume
e diferentes formatos, que excedem a capacidade de processamento de ferramentas
tradicionais, como bancos de dados baseados no padrão SQL4, ora diz respeito ao
próprio fenômeno de explosão da geração de dados; pode fazer referência também a
aspectos tecnológicos e de infraestrutura e, ainda, a determinados tipos de aplicação
que se beneficiam de um ambiente em que convergem diferentes tecnologias.

                                                                                                                       
3
  Segundo o NIST (National Institute of Standards and Technology), computação em nuvem, ou cloud
computing, “é um modelo que possibilita o acesso, de modo conveniente e sob demanda, a um conjunto
de recursos computacionais configuráveis (como redes, servidores, infraestrutura de armazenamento,
aplicações e serviços)”.
4
SQL (Structured Query Language, ou Linguagem de Consulta Estruturada) é a linguagem declarativa
padrão para consultas em bancos de dados relacionais. Desenvolvido no início da década de 1970, o
SQL tem sua concepção original baseada na álgebra relacional.
Apesar de ainda não haver um conceito consolidado sobre o Big Data, algumas
de suas características aparecem mencionadas em grande parte da bibliografia
referente ao assunto. Entretanto, a característica mais presente na literatura, e
certamente um componente importante e que será analisado em profundidade, a do
volume de dados, não é necessariamente determinante para o enquadramento de
aplicações sob essa denominação, havendo exemplos reais de bases de dados que
podem ser classificadas como Big Data, mas que não apresentam volume na casa dos
petabytes ou exabytes5. A seguir, listamos algumas das principais características do
Big Data, que podem ser facilmente comprovadas por meio de dados estatísticos,
disponíveis na internet6:

• variedade de fontes e formatos de dados, com massiva predominância de


dados não estruturados;

• geração de dados por empresas, por organizações e pelo cidadão;

• velocidade de geração de dados considerada alta em relação aos sistemas


transacionais tradicionais, em vários casos de forma contínua, determinando, assim, a
necessidade de processamento em tempo real;

• volume de dados resultante principalmente da presença de dados não


estruturados e de suas taxas de geração por usuários;

• complexidade técnica, motivada pela combinação dos fatores aqui listados,


como volume e variedade de fontes de dados, necessidade de processamento em
tempo real, reconhecimento e análise de padrões.

Como mencionado na introdução deste artigo, a História nos ensina que certas
mudanças tecnológicas podem vir acompanhadas por mudanças sociais, culturais,
políticas e econômicas. O Big Data, mais que a convergência de um conjunto de
tecnologias, oferece tanto às empresas como aos cidadãos, ou consumidores finais,
um ambiente fértil à inovação, que certamente impulsionará mudanças nos âmbitos
social, cultural, político, jurídico e econômico. Conforme afirmava Marshall McLuhan
(1911-1980), filósofo da teoria da comunicação canadense, "É o ambiente que muda
as pessoas, e não a tecnologia" (McLuhan; Staines, 2005, p. 267).
Como evidência de alterações recentes em nosso ambiente cotidiano,
podemos citar a enorme quantidade de registros que são efetuados, a cada minuto,
em decorrência das interações sociais e econômicas de bilhões de pessoas em todo o
mundo, por meio de uma série crescente de mecanismos, como telefones celulares,
                                                                                                                       
5
1 zettabyte = 1 mil exabytes = 1 milhão de petabytes = 1 bilhão de terabytes = 1 trilhão de gigabytes.
6
Ver Hilbert; López, 2011; Statistic Brain, 2013, 2015a, 2015b, 2015c.
dispositivos diversos de acesso à internet (computadores, tablets etc.), redes sociais,
cartões de crédito e débito, equipamentos médicos, etiquetas de RFID7, câmeras de
vídeo e radares de vias públicas, GPS e até Smart TVs. O registro dessas interações
resulta em volumes de dados inéditos, e com crescimento acelerado, que precisam ser
coletados, armazenados, analisados e processados, conforme demonstram algumas
estatísticas apresentadas na seção específica para essa finalidade.
No entanto, muitas das abordagens que tratam do Big Data têm sua ênfase
justamente nas questões relacionadas à coleta, armazenagem, análise e
processamento de dados, as quais são pertinentes, necessárias, mas não suficientes
para o entendimento do alcance e o aproveitamento do potencial desse novo ambiente
que se denomina de Big Data.
Nesse cenário, algumas questões imperativas se apresentam. Primeiramente,
apesar da relativa complexidade tecnológica, a dificuldade maior não reside na coleta,
armazenagem, análise e processamento dos dados. Em função do volume de dados,
em muitos casos, absurdamente elevado e da diversidade de fontes, é fácil nos
perdermos nesse oceano de dados, sem a obtenção de resultados relevantes. Essa
possibilidade decorre justamente do fato de que as melhores oportunidades de
benefícios e os diferenciais competitivos estão intimamente associados ao tipo de
dificuldade mencionada acima. Para que padrões escondidos possam ser revelados, e
talvez seja este o maior potencial de aplicações na era do Big Data, torna-se prioritário
saber o que e onde procurar. E, quando se está perdido, mapas são de inegável
importância. No caso em questão, os mapas são as formas de visualização desses
dados, conferindo uma posição de destaque às interfaces que permitirão o acesso aos
sistemas que se utilizam dessas bases de dados, assim como à arquitetura da
informação que será empregada em todas as etapas e componentes desses sistemas.
Em segundo lugar, embora inúmeros filmes e livros de ficção científica ou de
suspense apresentem algoritmos capazes de detectar padrões, e por mais atraente
que isso possa parecer, ainda não temos como minerar dados algoritmicamente para
obtenção de padrões originais, em situações de grande complexidade, por maior que
seja a força bruta de processamento. Algoritmos trabalham com padrões previamente
determinados e catalogados, sendo, na melhor das hipóteses, levemente adaptativos.
Os resultados que podem ser obtidos com algoritmos rígidos serão tão menos
significativos quanto maior for a necessidade de integrar dados de fontes e formatos
diferentes.
                                                                                                                       
7
RFID (Radio-Frequency Identification, ou identificação por radiofrequência) é um sistema de
identificação automática que tem como principal componente uma etiqueta dotada com um dispositivo de
sensoriamento remoto por meio de sinais de rádiofrequência. Essa etiqueta pode ser utilizada em
embalagens, produtos diversos, vestimentas, animais e até mesmo em pessoas.
Em uma época em que mais da metade da movimentação das bolsas de
valores norte-americanas e londrina é comandada por algoritmos de negociação
(trading algorithms)8 e em que mais de 60% dos aluguéis de filmes da Netflix são
realizados por meio de sugestões oferecidas por algoritmos a seus usuários, além de
de diversos outros exemplos semelhantes, certamente a capacidade de desenvolver
algoritmos para a análise de padrões previamente detectados constitui uma importante
ferramenta de competitividade entre as empresas que compartilham mercados
específicos. Entretanto, o principal fator de competitividade no cenário do Big Data
reside, como veremos ao longo deste texto, na inovação e descoberta de novos
padrões.
A dimensão dos fatores envolvidos para a obtenção de valor em aplicações de
Big Data, principalmente para a percepção de padrões inéditos ou adaptativos, torna
fundamental a interação dessas aplicações com o ser humano e sua capacidade
intuitiva de associar dados, testar hipóteses, identificar relações e perceber tais
padrões. Desse modo, o design de interfaces de baixo atrito, que privilegiam a
interatividade homem-máquina e favorecem a cooperação entre o poder de
processamento das máquinas e a intuição humana, assume um papel de relevância,
sendo este o motivo de tão grande expectativa causada pelo anúncio de dispositivos
como o Google Glass, lançado no início de 2014.

2.3.2 “Prossumidor”

A ideia do “prossumidor”9, neologismo formado pelas palavras produtor e


consumidor, foi apresentada por McLuhan, provavelmente pela primeira vez, em uma
conferência pública realizada em Nova York, em 7 de maio de 1966 (McLuhan;
Staines, 2005, p. 113-135). Transcrevemos, a seguir, um pequeno trecho dessa
conferência:

A estranha dinâmica ou padrão da informação eletrônica consiste em envolver o


público cada vez mais como parte da força de trabalho, em vez de apenas lhe
atirar coisas como objetos de consumo ou entretenimento. A tendência é envolver
o público como força de trabalho [...]. Você faz o trabalho. E estamos chegando a
isso. Tempo virá em que será possível informar o público da televisão ou de
formas similares sobre os grandes problemas da física, da ciência, seja o que for,
e convidá-los a dar sua resposta a esses problemas [...].

McLuhan, como poucos, foi de precisão cirúrgica em suas previsões. Como


exemplo, podemos citar o caso de jogos de computador criados para resolver
problemas para os quais somente a força bruta de supercomputadores é insuficiente.

                                                                                                                       
8
Ver Vermeulen, 2013; Dayal et al., 2012.
9
Em inglês, prosumer.
Em maio de 2008, foi lançado por pesquisadores da Universidade de Washington,
como parte de um projeto de pesquisa experimental, o Foldit, um quebra-cabeça on-
line colaborativo para testar possíveis configurações da estrutura de proteínas
previamente selecionadas. Nesse jogo, o ser humano participa com sua capacidade
criativa, enquanto os computadores da universidade verificam a possibilidade de
existência no mundo real de cada configuração estrutural sugerida. Resultados
experimentais mostram que esse método de trabalho, baseado em uma simbiose
homem-máquina, “derrota os supercomputadores em 50% das vezes e empata em
outros 30%” (Sankar, 2012). Em 2011, três jogadores decifraram em dez dias a
estrutura de uma proteína retroviral presente em símios da espécie Rhesus,
diretamente relacionada à Aids. A resolução desse problema havia ocupado
anteriormente a comunidade científica por uma década inteira, sem a obtenção de
uma solução (Foldit, 2013; Sankar, 2012).
Apesar de a ideia original do “prossumidor” estar associada a McLuhan,
credita-se a criação do termo a Alvin Tofler (1980), em seu livro A terceira onda, no
qual já chamava a atenção para a dissolução progressiva da fronteira que separava o
produtor do consumidor, com uma crescente participação do “prossumidor”. Segundo
o autor, este pode ser um importante marco econômico: “Algumas vezes, mudanças
históricas gigantescas são simbolizadas por mudanças minúsculas no comportamento
cotidiano” (Tofler, 1980, p. 266).
Tradicionalmente, o fluxo de dados tinha um sentido único, com as empresas e
as organizações de mídia disponibilizando seus dados para o consumo de seus
usuários. Atualmente, os dados produzidos por usuários e consumidores finais
representam cerca de dois terços de todos os dados globais produzidos, o dobro da
quantidade produzida por estas mesmas empresas e organizações (Gantz; Reinsel,
2013). O simples fato de alguém acessar a internet faz com que também esteja
gerando dados. No cenário do Big Data, o consumidor/produtor de dados passa a ter
um papel central em todo o processo. Um exemplo representativo do papel e atuação
de “prossumidores” é a enciclopédia virtual Wikipédia.

2.3.3 Interação homem-computador e realidade aumentada

Em seu livro 2001: uma odisseia no espaço (Clarke, 2013) e, posteriormente,


no filme homônimo, Sir Arthur C. Clarke (1917-2008), um dos expoentes máximos da
ficção científica, tem em HAL 9000 um de seus principais personagens. HAL é um
supercomputador autônomo responsável por toda a operação e funcionamento da
nave espacial Discovery e representava as expectativas da época sobre a evolução da
ciência da computação e da inteligência artificial.
Uma definição atual e apropriada para inteligência artificial seria a capacidade
não de simular os processos mentais humanos em computadores com a atual
arquitetura, desenvolvida por John von Neumann (1903-1957) e Alan Turing (1912-
1954), mas de realizar esses processos mentais, tal como de fato eles ocorrem, em
dispositivos não cerebrais que os suportem. Esse modelo é denominado de
inteligência artificial forte, enquanto os sistemas especialistas, como aplicações para
jogar xadrez, que, apesar de terem a capacidade de aprendizado, não emulam
processos mentais humanos, são denominados de inteligência artificial fraca.
O projeto e a construção dos computadores digitais atualmente em uso foram
precedidos por teorias computacionais e modelos algorítmicos que descreviam o
processo lógico a ser implementado. A máquina de Turing, apresentada no artigo
intitulado “Computing Machinery and Intelligence” (Turing, 1950), é o modelo lógico
abstrato, o DNA por assim dizer, que dá forma à estrutura dos computadores digitais e
fundamenta a ciência da computação (Fernandes; Lima-Marques, 2012, p. 53). Nesse
artigo, com uma abordagem tanto filosófica quanto técnica, Turing tentou responder à
questão “As máquinas podem pensar?” e também deu início formal ao estudo da
inteligência artificial.
Do mesmo modo como ocorreu com os computadores digitais, o
desenvolvimento de dispositivos que possam implementar de forma plena a
inteligência artificial, nos moldes descritos anteriormente, deverá ser precedido por um
entendimento profundo dos processos mentais humanos e pela construção de teorias
e modelos que os representem (Fernandes; Lima-Marques, 2012). A disciplina de
Arquitetura da Informação, tema da seção posterior a esta, tem contribuído
efetivamente, por meio de uma abordagem transdisciplinar, para o desenho dessas
teorias e modelos.
A atenção da comunidade científica para as questões relacionadas ao
entendimento da arquitetura cerebral pode ser medida pela dimensão do projeto
europeu Human Brain Project10 e dos projetos norte-americanos Human Connectome
Project11 e Brain Project12, todos com o objetivo de mapear a arquitetura e a
conectividade do cérebro humano. Considera-se o conjunto desses projetos como o
de maior envergadura da humanidade, de todos os tempos, milhares de vezes maior
que o projeto de mapeamento do genoma humano. Trata-se de projetos que envolvem

                                                                                                                       
10
Ver Human Brain Project, 2015.
11
Ver NIH Blueprint for Neuroscience Research, 2015.
12
Ver NIH, 2015.
centenas de centros de pesquisa espalhados pelo mundo e que contam com o aporte
financeiro da ordem de centenas de bilhões de dólares.
Contudo, apesar de todo o esforço e investimento que está sendo realizado em
pesquisas sobre o cérebro humano e a despeito dos resultados já alcançados em
diversas áreas, com prognósticos animadores para a cura de doenças como
Alzheimer, Parkinson e alguns tipos de autismo, é provável que o entendimento do
funcionamento dessa incrível máquina produzida pela natureza, em profundidade
suficiente para a criação de modelos que permitam o desenvolvimento de dispositivos
que possam suportar a execução de processos mentais tal como ocorrem no cérebro
humano, ainda demore algumas décadas, talvez mais. Desse modo, uma alternativa
mais viável para suportar as necessidades computacionais para a obtenção plena dos
benefícios oferecidos por aplicações de Big Data talvez seja uma aproximação da
simbiose homem-computador, conforme proposto pelo físico, matemático e psicólogo
norte-americano Joseph Carl Robnett Licklider (1915-1990), ainda na década de 1960
(Licklider, 1960, 1965, 1968)13.
A ideia de Licklider sobre a simbiose homem-computador vai muito além da
simples extensão dos sentidos ou das capacidades mentais do ser humano,
assumindo o conceito biológico de uma associação íntima com fins de cooperação e
benefícios mútuos. Os principais pontos dessa associação, de acordo com a
concepção de Licklider, estão listados a seguir (Licklider, 1960, p. 4-7; 1968, p. 21-28):

• facilitar ao ser humano o pensamento criativo, a percepção de insights, a


formulação de perguntas e hipóteses;

• permitir a cooperação entre homens e computadores, para a análise, o


entendimento, a tomada de decisão e o controle de situações de alta complexidade,
sem a dependência de programas e algoritmos rígidos, previamente desenvolvidos;

• permitir a interação e troca de informações em tempo real, de forma tão ou


mais eficaz do que entre seres humanos.

Segundo Licklider (1960), os problemas que podem ser descritos e modelados


de modo a permitir a construção de algoritmos e programas para posterior
processamento não justificariam o investimento necessário ao desenvolvimento de um
modelo computacional com as características descritas anteriormente. Para Licklider,
o reconhecimento de padrões adaptativos ou inovadores era um dos principais tipos
de problemas que deveriam ser tratados sob o paradigma da simbiose homem-
computador.
                                                                                                                       
13
Joseph C. R. Licklider é considerado um dos principais idealizadores da rede ARPANet, precursora da
internet.
Em seu tempo, a tecnologia necessária ainda não estava disponível, e os
custos envolvidos com dispositivos de memória e de armazenamento, para não citar
outros, tornavam inviável a implementação de projeto tão ambicioso. No entanto, para
Licklider, a proposta de uma parceria estreita homem-computador mostrava-se mais
factível do que o sonho ainda mais distante dos entusiastas da inteligência artificial.
Licklider não tinha meios confiáveis para estimar quando sua visão poderia começar a
ser implementada ou tornar-se realidade, mas, para ele, estes seriam anos de intensa
atividade intelectual, conforme o trecho de seu artigo transcrito a seguir: “That would
leave, say, five years, to develop man-computer symbiosis and 15 years to use it. The
15 may be 10 or 500, but those year should be intellectually the most creative and
exciting in the history of mankind.” (Licklider, 1960, p. 5)14.
Nos dias atuais, grande parte dos obstáculos técnicos ou tecnológicos
apontados por Licklider já foi superada, e os custos decaíram desde então, segundo a
Lei de Moore15. É possível que estejamos vivendo a época histórica prevista por
Licklider, em seu texto, citado no parágrafo anterior. Entretanto, para concretizar
efetivamente a simbiose homem-computador, conforme a concepção de Licklider,
ainda resta solucionar alguns desafios de grande complexidade técnica. Um deles,
certamente, é conseguir permitir que algoritmos para o reconhecimento de novos
padrões possam ser construídos, reprogramados ou adaptados, pela simples
interação com o usuário de uma aplicação, a partir de seus insights, enquanto
examina determinada situação. Outra questão, quase que consequência da anterior, a
construção de interfaces homem-computador com capacidade de comunicação similar
ou superior à existente entre seres humanos, tem recebido muita atenção e
investimentos. Embora ainda estejamos distantes de algo como o que foi
implementado (em ficção) em HAL 9000, estamos percorrendo de forma acelerada o
caminho que nos separa daquela realidade.
No momento atual, talvez uma das melhores opções de interface interativa, que
se aproxima das características de uma parceria homem-computador, como descrito
anteriormente, seja a realidade aumentada (RA). Com a RA, a ideia é enriquecer a

                                                                                                                       
14
“Isso pode levar, digamos, cinco anos para o desenvolvimento da simbiose homem-computador e 15
anos para a sua utilização. Estes 15 anos podem tornar-se 10 ou 500, mas esses anos deverão ser
intelectualmente os mais criativos e excitantes na história da humanidade” [tradução nossa].
15
Lei de Moore - Em abril de 1965, o então presidente da Intel, Gordon Earle Moore, profetizou que a
quantidade de transistores que poderiam ser colocados em uma mesma área dobraria a cada 18 meses
mantendo-se o mesmo custo de fabricação. Depois dessa data, a solução para manter o processamento
dos processadores é fazer uso intenso de paralelismo, como hoje é implementado em placas de vídeo,
otimização dos sistemas operacionais e softwares, processadores dedicados ou mesmo alterar a
tecnologia utilizada, mudando do silício para outras técnicas e materiais que já se mostram passíveis de
se implementar na prática, como grafeno e computação quântica. Disponível em:
<http://canaltech.com.br/o-que-e/intel/O-que-e-a-Lei-de-Moore/>. Acesso em 7 de abril de 2015  
percepção humana da realidade, ao adicionar em tempo real informações
computadorizadas complementares àquelas que podem ser obtidas diretamente pelos
sentidos sensoriais humanos, criando um ambiente híbrido, pela combinação de
elementos virtuais com elementos do mundo real.
O tipo de aplicações de RA que nos interessa, neste estudo, ultrapassa
largamente a leitura de “QR codes”, a inserção de medidas de distância em jogos de
futebol televisionados ou mesmo video games que utilizam óculos ou capacetes, em
ambientes fechados e controlados. As pesquisas de ponta nessa área concentram-se
em aplicações de RA que permitam a seus usuários interagir em ambientes abertos
com a aplicação de RA, com o próprio ambiente e com outros seres humanos
presentes no ambiente. Inúmeros são os tipos de aplicações que poderão se
beneficiar com o uso dessa tecnologia. Basta imaginarmos as possibilidades que se
abrem com a visualização de informações em óculos translúcidos, como o Google
Glass, ou por meio de projeções holográficas em três dimensões16, ou simplesmente
com projeções no para-brisa de automóveis, de modo a torná-los verdadeiras telas de
navegação, trazendo novas informações ao motorista, em tempo real, de acordo com
suas reações, sua localização e com dados coletados nos diversos sensores do
veículo e da via ou estrada. Esse tipo de aplicação poderá antecipar ao motorista a
aproximação de outro veículo ou de uma curva, por exemplo, antes que possam ser
percebidos pelo condutor. Se quisermos nos aventurar um pouco mais, podemos nos
lembrar dos painéis translúcidos do filme Minority Report que permitiam a seus
usuários um tipo de interação impensável pouco tempo atrás.
Naturalmente, dispositivos e aplicações de RA poderão ser utilizados como a
camada de apresentação e interação de aplicações relacionadas ao Big Data,
principalmente para a análise e reconhecimento de padrões.

2.3.4 Arquitetura da informação

A arquitetura da informação (AI) pode ser definida como


uma metodologia de desenho que se aplica a qualquer ambiente informacional, sendo este
compreendido como um espaço localizado em um contexto; constituído por conteúdos em fluxo;
que serve a uma comunidade de usuários. A finalidade da Arquitetura da Informação é, portanto,
viabilizar o fluxo efetivo de informações por meio do desenho de ambientes informacionais.
(Lacerda, 2005, p. 132)

Caracteriza-se, ainda, como “[...] o ato de escutar, o ato de construir, o ato de habitar e
o ato de pensar a informação como atividade de fundamento e de ligação
hermenêutica de espaços, desenhados ontologicamente para desenhar” (Lima-

                                                                                                                       
16
Recentemente, a empresa japonesa Panasonic anunciou que pretende disponibilizar para a Copa do
Mundo de Futebol de 2022 projeções holográficas em 3D dos jogos, em tempo real, de modo que possam
ser assistidos em outros estádios ou mesmo na superfície de uma mesa ou no chão da sala dos
telespectadores.
Marques, 2011, p 311- 319, tradução nossa).

A arquitetura da informação pode ser considerada como disciplina quando o


termo
refere-se a um esforço sistemático de identificação de padrões e criação de
metodologias para a definição de espaços informacionais, cujo propósito é a
representação e manipulação de informações; bem como a criação de
relacionamentos entre entidades linguísticas para a definição desses espaços da
informação. (Albuquerque; Siqueira; Lima-Marques, citados por Siqueira, 2008, p.
33)

Trata-se de uma área interdisciplinar e que tem diversos profissionais


envolvidos em sua implementação. Aplica métodos e conceitos advindos da ciência da
informação e de outras áreas, tais como vocabulários controlados, esquemas de
classificação, modelos mentais e interação homem-máquina. É, em primeiro lugar, um
processo, em segundo, uma prática (profissão) e, por fim, uma disciplina. A prática
fortalece a disciplina e promove seu desenvolvimento.
São objetivos da arquitetura da informação: desenvolver ambientes de
informação semanticamente relevantes; modelar informação em ambientes que
possibilitem sua criação, gestão e compartilhamento pelos usuários; e promover a
melhoria da comunicação, da colaboração e do intercâmbio de experiências. A
informação só existe em contextos específicos, para “comunidades de significado”,
caso contrário, seria somente um aglomerado de dados.
A arquitetura da informação é baseada na visão humanista, segundo a qual as
pessoas estão em primeiro lugar e a tecnologia vem em seguida; desse modo, deve
estar de acordo com as necessidades de informação dos usuários, que necessitam de
informação certa no tempo certo (Ranganathan, 1963).
Como disciplina, tem por objeto a informação, sua estrutura e configuração nos
diferentes fenômenos que a manifestam. Do ponto de vista tecnológico, pode ser vista
como um conjunto de métodos e técnicas para o desenho de ambientes de
informação. Os modelos desenvolvidos para projetar uma arquitetura da informação
partem de conceitos teóricos e transformam-se em um sistema de informação, uma
coleção de componentes inter-relacionados (equipamentos, programas,
procedimentos, bases de dados) que trabalham juntos para coletar, processar,
armazenar e distribuir informação. Dessa forma, a tecnologia da informação (TI) é o
mecanismo produtor da atividade de coleta e tratamento de dados que gera saídas de
informação e as dissemina para os usuários. Para construir tais sistemas, é
necessário:

• determinar os problemas de informação;


• aplicar as teorias para nortear o desenvolvimento das soluções; e

• integrar as soluções e validá-las dentro de uma arquitetura de informação


específica.

Sob a perspectiva das organizações sociais ou da sociedade da informação, a


arquitetura da informação pode ser associada a uma visão de mundo, entendida como
um conjunto de ações aplicadas a um espaço de informação determinado, de modo a
transformá-lo em sistema de informação. Na atualidade, o domínio de modelos de
informação é vital para a sobrevivência das organizações; toda estrutura econômica
está suportada por padrões de informação. Dominar o ciclo de vida da informação
desde sua origem, seus padrões de organização, suas representações em modelos
adequados, que possibilitem a compreensão de fenômenos e a tomada de decisões,
tem sido o esforço constante das organizações desde o final do século XX. Contudo, a
quantidade de informação tem se mostrado demasiada para a capacidade humana de
consumi-la. A profusão de informação e a relevância dela sobre temas específicos
suscitaram o desenvolvimento da tecnologia e ciência da informação e, mais
especificamente, da arquitetura da informação, como instrumento para reduzir a
dispersão da informação e torná-la mais adequada ao entendimento humano.
O cenário do Big Data, por um lado, é composto pela convergência de diversas
tecnologias, que aliam facilidades de mobilidade, de cloud computing, de interfaces
para a interação homem-computador em tempo real e da conectividade de uma
infinidade de sensores e dispositivos. Por outro lado, desenha-se um cenário de
desafios, alguns de ordem técnica, como o excesso de dados gerados e a
consequente dificuldade para filtrar e processar o que de fato seja relevante, e outros
causados pelo processo de mudanças sociais e econômicas, em pleno andamento,
propiciadas por um novo ambiente informacional que altera os papéis e a forma de
relacionamento entre os entes envolvidos. Em conjunto, esses fatores fazem da
disciplina de arquitetura da informação uma ferramenta das mais necessárias para o
aproveitamento do potencial de competitividade empresarial representado pelo Big
Data.

2.3.5 Uma correlação entre os conceitos

O fato de gerar dados no próprio ato de consultá-los transforma o papel


passivo do usuário, ou cidadão, no papel ativo do “prossumidor”. Essa mudança,
associada à necessidade de processamento em tempo real, característica básica do
Big Data, força o uso de uma via de mão dupla para o tráfego de dados, bem como o
uso de interfaces cada vez mais interativas e amigáveis, tornando o computador um
instrumento tanto de processamento como de comunicação. Aplicações de RA, como
as citadas anteriormente, exemplificam bem essa afirmação.
A comunicação, com o sentido utilizado no parágrafo anterior, diferentemente
da simples troca de informações entre um transmissor e um receptor, pressupõe uma
interação criativa, atuando como um catalisador para o surgimento de novas ideias
(Licklider, 1968, p. 21), tal como ocorre entre seres humanos. Processos criativos para
o desenvolvimento de novas aplicações, nas mais diversas áreas da atividade
humana, como os que podem ser propiciados por uma estreita cooperação homem-
computador, constituem um fator dos mais relevantes dentre aqueles que oferecem
vantagens competitivas às empresas que operam neste início do século XXI, em
cenários que, muito em breve, se aproximarão aos dos filmes de ficção científica
mencionados ao longo deste texto.
O desenho de aplicações de software, para maximizar suas chances de
sucesso, deve estar centrado nas necessidades e características de seus usuários e
deve ser modelado de acordo com o ambiente informacional no qual interagem os
seus entes. Entre as atribuições da disciplina de arquitetura da informação está o
estabelecimento das corretas relações entre os entes que compõem um cenário, ou
espaço de informação, e da distinção entre seus papéis. Em tempos de Big Data e do
uso de aplicações de RA, em que usuários assumem novos papéis e interagem em
um contexto em pleno processo de transformação, tratar de modo eficiente todos
esses pontos torna-se ainda mais vital do que já tem sido.

2.4 Impactos do Big Data

Tomando por base os conceitos tratados na seção anterior, passaremos, na


sequência, a examinar os possíveis impactos do Big Data, organizados como riscos,
desafios e oportunidades, sob a ótica do cidadão, da indústria de TI e do mercado
empresarial em geral.

2.4.1 Na sociedade civil

O ser humano, por natureza, costuma oferecer alguma resistência à mudança.


O processo de introdução de novas tecnologias, conforme mencionado no início deste
trabalho, não escapa desse padrão, podendo provocar tensões sociais enquanto durar
sua acomodação.
Ao associarmos o Big Data à Internet das Coisas (IoT)17, os efeitos, tanto
benéficos como seus riscos, são potencializados. Estimativas calculam em cerca de
dez bilhões o número atual de dispositivos conectados a internet. Este número já
supera o número total de habitantes do planeta e algumas previsões estimam que
alcance a marca de trinta bilhões em 2020 (Schneier, 2015,). Conforme esclarece
Schneier (2015), “o que sabemos é que eles todos (os dispositivos) irão produzir
dados, muitos dados. As coisas em nossa volta se tornarão os olhos e ouvidos da
Internet”.

Ainda segundo Goodman (2015),

“Nossas redes elétricas, redes de controle de tráfico aéreo, sistemas de controle de


incêndio, e até mesmo elevadores estão todos criticamente dependentes de computadores. A
cada dia, nós conectamos mais e mais de nossas vidas diárias à rede mundial de informações
sem pararmos para pensar em seu significado.”
“Quanto mais conectamos nossos dispositivos e nossas vidas à rede global de
informações – seja por meio de telefones celulares, redes sociais, elevadores, ou automóveis
autômanos – mais vulneráveis nos tornarmos” (tradução dos autores).
Analisaremos nesta seção alguns dos potenciais riscos e benefícios do Big
Data para o cidadão.

2.4.1.1 Riscos

Em 1949, George Orwell18 publicou o livro 1984, no qual inseriu o personagem


O Grande Irmão, representado por um grande olho que tudo observa (Orwell, 2014).
Nessa história, Orwell retrata um governo totalitário e repressivo que tenta controlar a
vida de todos os cidadãos, monitorando-os permanentemente com o uso de câmeras
de vídeo. A previsão de Orwell de monitoração de cidadãos demorou cerca de duas
décadas, além da época em que se passa o romance, para tornar-se realidade.
Porém, é provável que nem o próprio Orwell pudesse imaginar o grau de monitoração
que viria a existir. Atualmente somos monitorados não somente pelos governos, mas
também por empresas, não apenas por meio de câmeras de vídeo, mas por meio de
uma infinidade de dispositivos, como GPS, telefones celulares, cartões de crédito e

                                                                                                                       
17
  O termo “Internet das Coisas" (ou Internet of Things, IoT, em inglês) foi proposto em 1999 por Kevin
Ashton, do MIT (Massachusetts Intitute of Tecnologia), Seu objetivo é conectar dispositivos, sensores e
itens de uso cotidiano à internet, por meio de conexões wi-fi e RFID (Radio-
Frequency IDentification), formando um sistema global de captação contínua de dados.

18
George Orwell, como ficou conhecido, é na verdade o pseudônimo do escritor inglês Eric Arthur Blair.
provedores de internet. Aonde vamos, com quem falamos, o que acessamos na
internet, hábitos de consumo, todos esses dados são registrados minuto a minuto.
A legislação de cada país determina que empresas de telefonia celular e
provedoras de internet sejam obrigadas a guardar as informações de uso de seus
usuários por um prazo que varia de seis meses a dois anos. O Projeto de Lei do Marco
Civil da Internet, uma espécie de constituição da internet, que se encontra na pauta de
votação da Câmara dos Deputados, em Brasília, prevê um aumento no prazo de
guarda dos dados de usuários de seis meses para um ano. A Polícia Federal defende
que esse projeto de lei seja estendido também a provedores de conteúdo,
aumentando-se, assim, o monitoramento de atividades de todos os cidadãos.
Recentemente, a NSA (National Security Agency), a agência norte-americana
de segurança da informação, com creditada capacidade para interceptar a
comunicação de quem quer que seja, admitiu, após acusações que lhe foram feitas,
que monitora as atividades, incluindo a localização, de cerca de cinco bilhões de
celulares por dia. A LG também foi obrigada a admitir que, por meio de seus
televisores de última geração, está coletando e enviando à empresa dados que vão
além dos hábitos televisivos de seus usuários, incluindo arquivos de pastas
compartilhadas em computadores pessoais ao seu alcance.
A quantidade e a diversidade de informações sobre a população sob domínio
de governos e empresas expõem a sociedade civil a uma redução acentuada de sua
privacidade e a riscos elevados na manutenção de suas garantias fundamentais e de
liberdade, principalmente na eventualidade de governos totalitários e antidemocráticos.
Nesse sentido, temos uma questão interessante para refletir, apresentada por Malte
Spitz (2012), pesquisador alemão que estuda o impacto do Big Data na sociedade:
nos dias atuais, praticamente cada cidadão carrega consigo um telefone celular; caso
fosse essa a realidade em 1989, teria sido possível a derrubada do muro de Berlim ou
a Stasi, a temida polícia política da antiga Alemanha Oriental, teria tido os meios de
impedir o evento e prender os principais líderes do movimento? A Figura 2.1,
construída com base em uma lista de registros de ligações telefônicas, mostra a
visualização do relacionamento entre os respectivos usuários do serviço de telefonia
móvel (Spitz, 2012). Além de expressar a facilidade existente na atualidade para
monitorar praticamente toda a população mundial, a figura 2.1 também ilustra o poder
da visualização para melhorar o entendimento, principalmente de situações de alta
complexidade, quando comparada com a análise de uma lista de registros.
Figura 2.1 – Redes de conexões de usuários de telefonia celular

Fonte: Spitz, 2012.

2.4.1.2 Benefícios

A seguir, listamos alguns dos potenciais benefícios do Big Data à população


em geral (Canton, 2015; Goodman, 2015; Schneier, 2015):

• luta contra o crime organizado e grupos terroristas;

• combate a fraudes financeiras;

• combate a epidemias;

• controle preventivo de grupos de riscos de determinadas doenças;

• localização e atendimento imediato em casos de mal súbito ou emergências


diversas;

• planejamento de investimentos em infraestrutura;

• planejamento de ações em caso de acidentes ou catástrofes naturais.

Nessa lista de potenciais benefícios, a maioria dos itens apoia-se no


reconhecimento de padrões. E, mais uma vez, deparamo-nos com a necessidade da
participação do ser humano para a identificação de padrões inéditos. Em grandes
volumes de dados, com crescimento acelerado e originados de fontes diversas,
componentes constituintes de novos padrões ficam cada vez mais escondidos,
aumentando a dificuldade em percebê-los. No caso de adversários adaptativos, como
grupos organizados que planejam e executam fraudes financeiras e atos terroristas,
evitando ou raramente apresentando um padrão repetitivo que algoritmos
computacionais possam identificar, tornam-se fundamentais, para o sucesso das
ações de combate a essas práticas, a participação do ser humano e a eficiência de
interfaces colaborativas para a interação homem-máquina.

2.4.2 Na indústria de tecnologia

A indústria de TI tem procurado responder adequadamente aos desafios do


fenômeno do Big Data, nada modestos, lançando tecnologias específicas para atender
às necessidades de infraestrutura e de técnicas para o armazenamento e a análise
dados, em dimensões inéditas em sua breve história. Algumas dessas situações
desafiadoras apresentam tanto componentes de risco como oportunidades de
crescimento e ganhos.

2.4.2.1 Desafios e oportunidades

Em termos de armazenamento, o modelo relacional, proposto em 1969 e


implementado nos principais bancos de dados disponíveis no mercado, foi desenhado
para tratar apenas dados estruturados, com objetivos definidos de suportar de modo
eficiente a categorização e a normalização desse tipo de bases de dados. Apesar de
extremamente bem sucedido, tanto tecnicamente como comercialmente, o modelo
relacional não foi projetado para tratar dados não estruturados ou suportar uma
escalabilidade até a ordem de petabytes, ou mais, tendo seu desempenho fortemente
afetado nessas condições. As estruturas tradicionais de indexação e os
correspondentes mecanismos de busca e recuperação são inadequados nessas
circunstâncias. A resposta da indústria de TI a esses desafios traduz-se no
lançamento de diversos modelos de bancos de dados apropriados ao armazenamento
de dados não estruturados, denominados NoSQL (Not only SQL), projetados para uma
escalabilidade compatível com as necessidades do Big Data, já comercialmente
disponíveis.

Em termos da análise de dados, tornou-se necessário repensar as técnicas que


vêm sendo empregadas em bases relacionais, em razão das novas exigências de
velocidade para suportar o tratamento de dados em tempo real. O modelo tradicional
de mineração de dados foi desenvolvido com a perspectiva de filtrar os dados gerados
pelos diversos sistemas transacionais, copiar os dados resultantes numa base
analítica, atualizada periodicamente, ou data warehouse, e depois aplicar queries a
essa base. O problema desse tipo de solução é que na prática os relatórios analíticos
são produzidos com base em dados estáticos, refletindo a realidade de horas ou dias
anteriores. Para resolver essa questão, surgiu o conceito de stream processing, um
novo paradigma de processamento paralelo, no qual, em vez da aplicação de queries
a bases previamente organizadas, e estáticas, ocorre que o fluxo contínuo de dados,
ou streaming data, passa por uma série de operações previamente determinadas.
Também nesse caso, a indústria de TI já oferece ferramentas voltadas para o
tratamento analítico de dados, compatíveis com as características do Big Data, como
Haddop e MapReduce19.
Outro desafio técnico imposto pelo Big Data é a criação, gestão e aplicação de
cópias de segurança, em um cenário de fluxo constante de dados, em volumes e
velocidades elevadas, em que deixa de existir a figura da janela de tempo para a
realização de backup off-line.
Entretanto, independentemente das iniciativas e progressos já alcançados pela
indústria de TI, é preciso considerar a possibilidade de estarmos vivendo um momento
histórico, como o descrito no início deste trabalho, no qual a introdução de uma nova
tecnologia tem o potencial de alterar o equilíbrio social e econômico em diversos
setores da atividade humana, tornando mais nítidos os efeitos de um processo
econômico darwinista. Considerando essa perspectiva, apresentamos a seguir alguns
pontos que, ao mesmo tempo, podem significar desafios, riscos e oportunidades para
os atores envolvidos:

• desafios de ordem técnica ainda a serem solucionados de forma eficiente:

o interfaces interativas de baixo atrito;

o técnicas e ferramentas de backup;

• pessoal qualificado insuficiente;

• crescimento acelerado de aplicações e do surgimento de novas empresas,


agravando a competição tanto por mercados específicos como por mão de obra
qualificada;

• momento histórico de volatilidade tecnológica, com risco de surgimento e


rápido desaparecimento de inúmeros produtos e, eventualmente, de suas respectivas
empresas;

• momento de disputa intensa entre as empresas bem-sucedidas com o


lançamento de novos produtos, as quais com o tempo deverão ser incorporadas por

                                                                                                                       
19
Hadoop consiste basicamente em uma infraestrutura que permite o processamento massivamente
paralelo, utilizando um grande número de computadores (nós), que podem estar em uma mesma rede
local, formando um cluster, ou geograficamente distribuídos, constituindo um grid. MapReduce é uma
plataforma para o desenvolvimento de aplicações voltadas para o processamento distribuído de grandes
volumes de dados, estruturados ou não. Hadoop e MapReduce são projetos originalmente concebidos
pela Fundação Apache. Ver Apache Software Foundation (2015a, 2015b).
outras maiores, restando, ao final desse período de maior instabilidade, apenas as
empresas que melhor conseguirem se adaptar ao novo cenário tecnológico e
econômico.

2.4.3 No mercado empresarial em geral

Com o objetivo de conhecer melhor os seus antigos e potenciais novos clientes


para maximizar as vendas de produtos e serviços, as empresas terão como observar e
coletar uma grande variedade de dados sobre hábitos de consumo, quer seja on-line,
que seja presencialmente. Poderão reconhecer clientes facialmente e gravar as
imagens e comentários destes enquanto estiverem dentro ou na frente de uma loja,
banco ou supermercado, obtendo suas impressões sobre produtos, atendimento e
instalações. Poderão, ainda, avaliar o atendimento de cada vendedor e a reação de
cada consumidor, sugerir em tempo real a compra de algum item ou mesmo oferecer
promoções instantâneas e exclusivas. Os profissionais de marketing não poderão
reclamar da falta de informações sobre o mercado ou do perfil de seus clientes. A
ficção apresentada no filme Minority Report está próxima de tornar-se realidade.
Entretanto, o aproveitamento eficiente de todo esse potencial de marketing depende
de uma série de fatores tecnológicos e humanos, listados a seguir.

2.4.3.1 Riscos

A maior parte dos riscos apontados para a indústria de TI está igualmente


presente para a totalidade do mercado. A seguir, destacamos alguns desses riscos:

• pessoal despreparado para explorar as novas tecnologias;

• pessoal despreparado para a análise eficiente da grande quantidade de dados


coletados e a inferência de padrões de consumo;

• necessidade de reagir rapidamente, atuando no mercado, preferencialmente,


de forma proativa.

2.4.3.2 Oportunidades

Como mencionado anteriormente, acreditamos que as melhores oportunidades


para a obtenção de vantagens competitivas com o Big Data estarão centradas na
capacidade de reconhecimento de padrões, principalmente na identificação de
padrões inéditos ou adaptativos. No entanto, como ilustram os exemplos citados ao
longo do texto, novas aplicações surgem a todo momento e em todas as áreas de
atividades econômicas.
Considerações finais

O Big Data, enquanto restrito a bases de dados de grande volume, ainda que
se considerem as exigências de infraestrutura e ferramentas para seleção, coleta e
armazenamento especialmente projetadas, não constitui fator efetivo de
competitividade, configurando apenas um potencial a ser aproveitado por sistemas e
aplicações.
Algoritmos para o reconhecimento de padrões certamente oferecerão
vantagens competitivas em diversas áreas da atividade humana, porém os maiores
benefícios poderão ser obtidos pela detecção de padrões inéditos ou adaptativos, que
poderão posteriormente ser tratados por algoritmos específicos, por meio de uma
simbiose homem-máquina.
As aplicações que fizerem uso do Big Data em conjunto com modelos de
realidade aumentada poderão oferecer as melhores condições de efetividade na
análise de cenários de elevada complexidade, e, portanto, de competitividade, quando
envolverem o ser humano em um processo colaborativo. Desse modo, as soluções
devem ser desenhadas considerando-se a participação central do ser humano, com
especial atenção às interfaces interativas que possam privilegiar sua capacidade
criativa e associativa.
Neste cenário de introdução de novas tecnologias, a História nos ensina que os
detalhes podem significar importante vantagem competitiva, a diferença entre o
sucesso e o fracasso, entre o crescimento e o desaparecimento de empresas. Desse
modo, torna-se necessário aperfeiçoar o projeto de cada componente do processo,
desde a produção de dados por diversos atores e dispositivos, os mecanismos de
coleta desses dados de diferentes formatos, os mecanismos de seleção e
armazenamento, as ferramentas para a análise e a construção de algoritmos para o
reconhecimento de padrões e as interfaces para a apresentação desses dados e a
interação com as aplicações, de forma a permitir a tomada de decisão mais inteligente.
A matéria-prima de todo esse processo, os dados, e o fator de maior relevância, o
envolvimento do ser humano, devem ser tratados como os elementos mais
importantes, e, nessa perspectiva, a arquitetura da informação constitui a mola mestra,
subjacente a todos os aspectos relacionados ao Big Data.
Para finalizar, ressaltamos que, para aproveitarem a janela de oportunidades
do Big Data e se beneficiarem de seu potencial competitivo, as empresas devem ser
proativas, sendo necessário reconhecer os fenômenos por trás do Big Data, estudá-los
em profundidade e avaliar seriamente seus impactos. Reagir será contraproducente.
Questões para estudos futuros

• Avaliar os impactos políticos e jurídicos do Big Data;

• Avaliar fragilidades tecnológicas e seu impacto em uma sociedade cada vez


mais tecnologicamente dependente (Qual seria, por exemplo, o impacto em toda a
sociedade humana de um colapso da internet e dos meios de comunicação eletrônica,
por um período prolongado?);

• Avaliar as técnicas e ferramentas disponíveis para a criação e gestão de cópias


de segurança (backup);

• Avaliar a vida útil e analisar os aspectos tecnológicos e econômicos da


obsolescência acelerada dos dispositivos de armazenamento de dados, na
perspectiva do Big Data;

• Analisar, sob o domínio da arquivologia, as técnicas e mecanismos de coleta,


armazenamento e recuperação de dados, na perspectiva do Big Data;

• Modelar uma arquitetura da informação para o Big Data.


Referências

APACHE SOFTWARE FOUNDATION. Hadoop. Disponível em:


<http://hadoop.apache.org/>. Acesso em: 11 fev. 2015a.

_____. MapReduce tutorial. Disponível em:


<https://hadoop.apache.org/docs/r1.2.1/mapred_tutorial.html>. Acesso em: 11 fev.
2015b.

CANTON, J. Future Smart: Managing the Game-Changing Trends that Will


Transform Your World. Boston: Da Capo Press, 2015. Livro eletrônico.  

CLARKE, S. A. C. 2001: uma odisseia no espaço. 1. ed. São Paulo: Aleph, 2013.

DAYAL, R. et al. Risk Report 2012-2013: An Inflection Point in Global Banking. BCG –
The Boston Consulting Group, 2012. Disponível em:
<http://www.bcg.de/documents/file123001.pdf>. Acesso em: 11 fev. 2015.

FERNANDES, G. L.; LIMA-MARQUES, M. Em busca de um modelo fenomenológico


do mecanismo de apreensão humana. Disponível em:
<http://www.academia.edu/4070969/Em_busca_de_um_modelo_fenomenol%C3%B3g
ico_do_mecanismo_de_apreens%C3%A3o>. Acesso em: 11 fev. 2015.

FOLDIT. The Science Behind Foldit. Washington: Foldit, 2013. Disponível em:
<http://fold.it/portal/info/about>. Acesso em: 11 fev. 2015.

FORTUNE. Global 500. USA: CNN Money, 2013.

GANTZ, J.; REINSEL, D. The Digital Universe in 2020: Big Data, Bigger Digital
Shadows, and Biggest Growth in the Far East. [S.l.]: IDC, Dec. 2012. Disponível em:
<http://www.emc.com/collateral/analyst-reports/idc-the-digital-universe-in-2020.pdf>.
Acesso em: 8 dez. 2013.

GOODMAN, M. Future crimes: everything is connected, everything is vulnerable


and and what we can do about it. New York: Doubleday, 2015. Livro Eletrônico.

HILBERT, M.; LÓPEZ, P. The World’s Technological Capacity to Store, Communicate,


and Compute Information. Science, v. 332, n. 6025, p. 60-65, Apr. 2011. Disponível
em: <http://www.uvm.edu/~pdodds/files/papers/others/2011/hilbert2011a.pdf>. Acesso
em: 11 fev. 2015.

HUMAN BRAIN PROJECT. Disponível em: <https://www.humanbrainproject.eu/pt>.


Acesso em: 11 fev. 2015.
LICKLIDER, J. C. R. Man-Computer Partnership. International Science and
Technology, May 1965. Disponível em <http://worrydream.com/refs/Licklider%20-
%20Man-Computer%20Symbiosis.pdf>. Acesso em 30/03/2015.

_____. Man-Computer Symbiosis. Transactions on Human Factors in Electronics,


v. HFE-1, p. 4-11, Mar. 1960. Disponível em:
<http://worrydream.com/refs/Licklider%20-%20Man-Computer%20Symbiosis.pdf>.
Acesso em: 11 fev. 2015.

LICKLIDER, J. C. R.; TAYLOR, R. W. The Computer as a Communication Device.


Science and Technology, Apr. 1968. Disponível em
<http://sloan.stanford.edu/mousesite/Secondary/Licklider.pdf>. Acesso em: 11 fev.
2015.

LIMA-MARQUES, M. Outline of a Theoretical Framework of Architecture of


Information: a School of Brasilia Proposal. In: BÉZIAU, J.; CONIGLIO, M. E. (Ed.).
Logic Without Frontiers: Festschrift for Walter Alexandre Carnielli on the Occasion of
his 60th Birthday. London: College Publications, 2011. (Tribute Series, v. 17).

LACERDA, F. O.. Arquitetura da informação: aspectos epistemológicos, científicos e

práticos. 2005. 190 f. Dissertação (Mestrado em Ciência da Informação) –


Universidade de Brasília, Brasília, DF, 2005.

MCLUHAN, S.; STAINES, D. McLuhan por McLuhan: conferências e entrevistas


inéditas do profeta da globalização. Rio de Janeiro: Ediouro, 2005.

MELL, P.; GRANCE, T. The NIT Definition of Cloud Computing: Recommendations


of the National Institute of Standards and Technology. Gaithersburgh, MD: US
Department of Commerce; National Institute of Standards and Technology, Sept. 2011.
Special Publication 800-145. Disponível em:
<http://csrc.nist.gov/publications/nistpubs/800-145/SP800-145.pdf>. Acesso em: 11
fev. 2015.

NIH BLUEPRINT FOR NEUROSCIENCE RESEARCH. The Human Connectome


Project. Disponível em: <http://www.humanconnectome.org/>. Acesso em: 11 fev.
2015.

NIH – National Institutes Of Health. The Brain Initiative. Disponível em:


<http://www.nih.gov/science/brain/index.htm>. Acesso em: 11 fev. 2015.

ORWELL, G. Nineteen Eighty-four (1984). Adelaide: University of Adelaide, 2014.


Disponível em: <https://ebooks.adelaide.edu.au/o/orwell/george/o79n/>. Acesso em:
11 fev. 2015.

RANGANATHAN, S. R. Documentation and Its Facets: Being a Symposium of


Seventy Papers by Thirty-two Authors. [S.l.]: Asia Publishing House, 1963.

RIORDAN, M.; HODDESON, L. Crystal Fire: the Birth of the Information Age. New
York: Norton, 1997.

SANKAR, S. The Rise of Human-computer Cooperation. Edinburgh, Scotland: TED,


June 2012. Palestra. Disponível em: <http://www.ted.com/talks/shyam_sankar_
the_rise_of_human_computer_cooperation.html>. Acesso em: 11 fev. 2015.

SIQUEIRA, A. H. A lógica e a linguagem como fundamentos da Arquitetura da


Informação. 141 f. Dissertação (Mestrado em Ciência da Informação) – Faculdade de
Economia, Administração, Contabilidade e Ciência da Informação e Documentação,
Universidade de Brasília, Brasília, DF, 2008. Disponível em:
<http://repositorio.unb.br/bitstream/10482/3185/1/Dissert_AndreHenriqueSilveira.pdf>.
Acesso em: 11 fev. 2015.

SCHNEIER, B. Data and Goliath: the hidden battles to collect your data and
control your world. New York: W. W. Norton & Company, 2015. Livro eletrônico.

SPITZ, M. The Dark Side of Data. Edinburgh, Scotland: TED, June 2012. Palestra.
Disponível em: <http://www.ted.com/playlists/130/the_dark_side_of_data.html>.
Acesso em: 11 fev. 2015.

STATISTIC BRAIN. Facebook Statistics. Jan. 27, 2015a. Disponível em:


<http://www.statisticbrain.com/facebook-statistics/>. Acesso em: 11 fev. 2015.

_____. Google Annual Search Statistics. Jan. 9, 2015b. Disponível em:


<http://www.statisticbrain.com/google-searches/>. Acesso em: 11 fev. 2015.

_____. Netflix Statistics. May 3, 2013. Disponível em:


<http://www.statisticbrain.com/netflix-statistics/>. Acesso em: 11 fev. 2015.

_____. Total Number of Pages Indexed by Google. Jan. 9, 2015c. Disponível em:
<http://www.statisticbrain.com/total-number-of-pages-indexed-by-google/>. Acesso em:
11 fev. 2015.

TOFLER, A. A terceira onda. Rio de Janeiro: Record, 1980.

TURING, A. M. Computing Machinery and Intelligence. Mind, JSTOR New Series, v.


59, n. 236, p. 433-460, Oct. 1950. Disponível em:
<http://phil415.pbworks.com/f/TuringComputing.pdf>. Acesso em: 11 fev. 2015.
VERMEULEN, C. Algorithmic Trading: The New Way of Investing for Peak
Performance. Nov. 2013. Disponível em: <http://www.algotrades.net/algorithmic-
trading-new-way-investing-peak-performance/>. Acesso em: 11 fev. 2015.

Você também pode gostar