Você está na página 1de 196

Rodrigo Vinícius Sartori

O que há de tão especial nos tópicos selecionados nesta obra? Por certo, muita
coisa. A começar, por proporcionarem um olhar ao futuro do mundo, das novas TÓPICOS ESPECIAIS
tecnologias e, com destaque, da tecnologia da informação (TI). É uma forma
de preparar os profissionais ligados à ciência da computação e à análise e Rodrigo Vinícius Sartori
desenvolvimento de sistemas para o cenário desafiador – e, ao mesmo tempo,
magnífico – que o aguarda em suas carreiras, de hoje em diante.
Esta é uma obra feita com especial esmero, com a esperança de poder inspirar
suficientemente o leitor a buscar explorar o melhor da TI para sua vida pessoal
e profissional.

TÓPICOS ESPECIAIS
Tecnologia

Fundação Biblioteca Nacional


ISBN 978-85-387-6380-2

CAPA_Tópicos Especiais.indd 1 09/11/2017 17:13:04


Tópicos
Especiais
Rodrigo Vinícius Sartori

IESDE BRASIL S/A


Curitiba
2017
© 2017 – IESDE Brasil S/A. É proibida a reprodução, mesmo parcial, por qualquer
processo, sem autorização por escrito do autor e do detentor dos direitos autorais.

CIP-BRASIL. CATALOGAÇÃO NA PUBLICAÇÃO


SINDICATO NACIONAL DOS EDITORES DE LIVROS, RJ

S26t Sartori, Rodrigo Vinícius


Tópicos especiais / Rodrigo Vinícius Sartori. - 1. ed. - Curitiba, PR :
IESDE Brasil, 2017.
192 p. : il. ; 21 cm.
Inclui bibliografia
ISBN 978-85-387-6380-2

1. Informática. I. Título
17-45451 CDD: 004
CDU: 004

Direitos desta edição reservados à Fael.


É proibida a reprodução total ou parcial desta obra sem autorização expressa da Fael.

FAEL

Direção Acadêmica Francisco Carlos Sardo


Coordenação Editorial Raquel Andrade Lorenz
Revisão IESDE
Projeto Gráfico Sandro Niemicz
Capa Vitor Bernardo Backes Lopes
Imagem Capa tofumax/Shutterstock.com
Arte-Final Evelyn Caroline dos Santos Betim

Todos os direitos reservados.


Produção

IESDE BRASIL S/A.


Al. Dr. Carlos de Carvalho, 1.482. CEP: 80730-200
Batel – Curitiba – PR
0800 708 88 88 – www.iesde.com.br
Sumário

Carta ao aluno | 5

1. Introdução a novas tecnologias | 7

2. A tecnologia ao longo do tempo | 29

3. TI para pessoas com deficiência |47

4. Aplicativos interativos | 69

5. Inteligência artificial | 91

6. Tecnologias para dispositivos móveis | 113

7. TI verde | 133

8. TI voltada para a educação | 153

Gabarito | 173

Referências | 183
Carta ao aluno

O que há de tão especial nos tópicos selecionados nesta obra?


Por certo, muita coisa. A começar, por proporcionarem um olhar ao
futuro do mundo, das novas tecnologias e, com destaque, da tecno-
logia da informação (TI). É uma forma de preparar os profissionais
ligados à ciência da computação e à análise e desenvolvimento de
sistemas para o cenário desafiador – e, ao mesmo tempo, magnífico
– que o aguarda em suas carreiras, de hoje em diante.
Permitir compreender o essencial em relação às novas
tecnologias que o acompanharão por toda a vida é o objetivo do
capítulo inicial, em que se esclarecem aspectos importantes a res-
peito de ciência, tecnologia e inovação no âmbito da TI. Também
se apresentam os instrumentos e técnicas voltados à prospecção e
antecipação de cenários tecnológicos. O capítulo é concluído com a
abordagem da valiosa ferramenta Hype Cycle.
Tópicos Especiais

O Capítulo 2 dedica-se a conscientizar o leitor frente às questões mais


sensíveis da tecnologia ao longo da história, com muita ênfase no momento
de transição atualmente vivido e no imediato porvir. É a parte do livro que
descreve o fenômeno da Indústria 4.0, ou Quarta Revolução Industrial, des-
tacando a implacável transformação digital nesse mundo. Também se pon-
dera a respeito do que viria a ser uma possível Indústria 5.0.
No Capítulo 3, são voltadas atenções para uma aplicação muito nobre
da tecnologia da informação: o atendimento das pessoas com deficiência.
Analisam-se novas tecnologias voltadas tanto a necessidades especiais físicas
quanto mentais.
É no Capítulo 4 que se explora o tema dos aplicativos interativos, mos-
trando as várias facetas da interatividade nas mais modernas aplicações de TI.
Responde-se, também, às questões de por que interagir, quais são os graus ou
níveis de interação a considerar no cenário de TI, além de uma interessante
análise do design como instrumento metodológico nesse campo.
O Capítulo 5 é reservado à inteligência artificial, conduzindo o leitor
a compreender os temas mais atuais a esse respeito. Inclui-se nessa discussão
conteúdo envolvendo os conceitos, história, abordagens e também os limites
éticos inerentes a essa inquietante nova tecnologia. 
Tecnologias para dispositivos móveis, tão indispensáveis atualmente,
definem o Capítulo 6, que versa a respeito de sistemas embarcados, da
Internet das Coisas, além de revelar um quadro no mínimo curioso: como
tudo converge para o rápido fim dos smartphones.
No Capítulo 7 é explorado o assunto TI verde, trazendo a discussão
da sustentabilidade socioambiental para a tecnologia da informação. É reali-
zada uma grande radiografia do mercado CleanTech (das tecnologias limpas),
e descritas tecnologias especialmente úteis tanto para melhor consumir os
recursos naturais quanto para diminuir a poluição.
Por fim, o Capítulo 8 é voltado ao uso da TI na educação, e as análi-
ses trazidas cobrem a revolução proporcionada pelas ofertas MOOC, pela
magistral aplicação didática da realidade virtual e da realidade aumentada,
além de uma reflexão para se perguntar se a TI tornará ou não a educação
mais inclusiva.
Esta é uma obra feita com especial esmero, com a esperança de poder
inspirar suficientemente o leitor a buscar explorar o melhor da tecnologia da
informação para sua vida pessoal e profissional.
– 6 –
1
Introdução a
novas tecnologias

As novas tecnologias vêm redefinindo o mundo, alterando


a forma como as pessoas vivem, se relacionam, produzem e conso-
mem. Em um processo cada vez mais acelerado e intenso, o emprego
combinado de novas abordagens tecnológicas vem criando e ofere-
cendo novas possibilidades ao ser humano contemporâneo, de tal
forma que o hábito de vida de gerações anteriores é transformado
por completo no espaço de apenas uma nova geração – a atual.
Tópicos Especiais

A compreensão dessa dinâmica, portanto, parece imprescindível para


que o processo de gestão tecnológica possa ser guiado aos melhores resultados
possíveis. O que se procura, enfim, é o aumento da qualidade de vida das
pessoas, possibilitando um mundo cada vez melhor. Aplicações tecnológicas
cumprem um especial papel nesse sentido. Dominar tecnologias é compe-
tência central para profissionais e organizações deste início de século XXI.
Naturalmente, o domínio da tecnologia passa, primeiro, pela apreensão con-
ceitual dos termos e definições inerentes. Conforme é descrito neste capítulo,
tecnologia tem um significado muito mais amplo do que aquilo que normal-
mente se associa a essa palavra.
Quando se aponta para o futuro, conta-se com técnicas e métodos espe-
cíficos para o melhor delineamento das novas tecnologias, o que permite
algum grau de previsão ou prospecção tecnológica, tema que aqui se destaca,
bem como a compreensão de um interessante fenômeno conhecido por Hype
Cycle (gráfico que representa a maturidade e a adoção de determinadas tecno-
logias), muito útil para compreender os movimentos industriais e de mercado
associados às novas tecnologias.

1.1 Ciência, tecnologia e inovação em TI


Ciência, tecnologia e inovação são três termos muito próximos, embora
de significados fundamentalmente distintos. Convém um rápido embasa-
mento conceitual, pois isso proporciona um efeito prático bastante apreciá-
vel: expande a visão das coisas. Quem tem a definição desses conceitos de
forma muito clara acaba por melhor transitar em meio aos processos tecnoló-
gicos, entende melhor, interage melhor, produz melhor. E isso é válido tanto
para o perfil acadêmico quanto profissional.
Entende-se por ciência o conhecimento, tão puro quanto possa ser con-
cebido. É o saber teórico fundamental, ainda despreocupado com aplicações
práticas ou uso imediato. Aqui residem as fórmulas, teoremas e teorias. Na
ciência, estão estabelecidas as relações de causa e efeito, procurando, essen-
cialmente, explicar os mecanismos atuantes sobre o mundo. Portanto, ciência
é conhecimento, mas não exatamente qualquer tipo de conhecimento, se é
científico, é porque se trata de conhecimento formal. Essa formalização, um

–  8  –
Introdução a novas tecnologias

verdadeiro rigor que se aplica para garantir a veracidade do saber, é o que dife-
rencia, enfim, aquilo que se sabe daquilo que se acredita – por mais convicção
que se tenha nessa crença. Portanto, a fé e a ciência, que de forma alguma pre-
cisam ser elementos antagônicos, distinguem-se precisamente neste aspecto: a
ciência não é para acreditar. É para conhecer.
O rigor em questão diz respeito à forma como o conhecimento é produ-
zido, para que possa ser atestado como científico. Não é por qualquer meio
que se propõe que determinado efeito advém de uma tal causa, mas apenas
por aquilo que se denomina como método científico de produzir conheci-
mento. Na ciência, não se aceita o “ouvi dizer” ou “li em algum lugar”: é
preciso provar. Pesquisadores cientistas devem compreender como determi-
nado conhecimento foi produzido, conhecer as etapas que foram percorridas,
sendo que eles mesmos podem seguir esses passos, para confirmar – ou refutar
– aquelas conclusões. Portanto, há embasamento quando se produz ciência,
e é por isso que ela é o conhecimento verdadeiro devidamente justificado.
Tecnologia também é conhecimento, contudo, diferente de ciência, tra-
ta-se de conhecimento aplicado. A aplicação é o uso daquele conhecimento
para resolver algum problema do mundo real. O mundo carece de soluções
para um sem-número de questões. Uma vez que se saiba que tal conheci-
mento serve para a consecução de determinado objetivo, e conhecendo ainda
como aplicar da melhor forma possível tal conhecimento na prática, é dito
que se domina uma tecnologia. Usualmente, no mundo das organizações
empresariais, a tecnologia é direcionada à produção: como fazer para que
determinada empresa consiga fabricar aquele produto, ou prestar um serviço
em específico? Como se organizar? Quais técnicas aplicar? Como selecio-
nar e empregar um conjunto de conhecimentos que servem para fazer uma
empresa cumprir sua função?
É importante frisar que o conceito de tecnologia é muito mais amplo do
que normalmente consegue se supor. Um exercício simples que comprova a
limitação que costuma imperar a respeito desse entendimento é utilizar uma
dessas ferramentas de buscas on-line de imagens, como, por exemplo, o Google
Imagens. Ao se digitar o termo tecnologia ou technology no buscador, as res-
postas, invariavelmente, são imagens que remetem à informática, à internet,
à microeletrônica, redes sociais digitais e afins. Isso também é tecnologia, mas
tecnologia não se limita a esse aspecto. Do ponto de vista de conceito, é como

–  9  –
Tópicos Especiais

se tratasse da ponta do iceberg. Dominar conhecimentos úteis para resolver


um problema prático pode envolver, conceber e produzir um poderoso com-
putador de última geração – mas também é tecnologia o que se emprega para
produzir um bolo de fubá. Levar o homem a explorar a Lua envolve um alto
grau de sofisticação tecnológica – contudo, fazer um suco de laranja também
envolve determinado domínio da técnica, que é pensado e sistematizado pela
tecnologia1. Os saberes orientados à prática são, por certo, das mais variadas
naturezas e níveis de complexidade. Tecnologia da informação (TI) é uma
dimensão de tecnologia. Ao mesmo tempo, é interessante reconhecer que
Gestão (Administração) também é tecnologia: Tecnologia de Gestão – que
não pode ser confundido com Gestão de Tecnologia.
A tecnologia da informação, por sinal, é a aplicação da ciência da infor-
mação para atender demandas reais, práticas – muitas vezes, industriais, que
envolvem informação com insumo, como agente de transformação e como
elemento de agregação de valor. É certo que, em muitas circunstâncias, fica
difícil separar claramente onde se termina um conhecimento puro, de base,
e onde começa um conhecimento em processo de aplicação, de utilidade
concreta. E há que se concordar com Reis (2008): de fato, pouco importa
tal delimitação. Na prática, dado esse entrelaçamento tão típico e tão forte
entre ciência e tecnologia, ambos os termos costumam ser referenciados
como um binômio (C&T – Ciência & Tecnologia), quase como se fosse
um único elemento.
Um dos mais relevantes aspectos práticos a respeito de C&T é o fato
de que o conhecimento puro é, para todo efeito, público e, portanto, gra-
tuito. Contudo, com tecnologia é o oposto: o conhecimento aplicado pode
ter dono. Não se pode cobrar royalties2 de alguém que venha a explorar a lei da
1 O filósofo Álvaro Vieira Pinto (2005) discute sobre a oposição entre tecnologia e técnica.
Para o autor, a técnica é algo inerente ao ser humano, que possui a faculdade de projetar arti-
fícios para suprir suas necessidades, de forma a mediar suas ações no mundo; já a tecnologia é
apresentada como uma reflexão sobre a técnica, podendo-se dizer que se trata da sua ciência.
Assim, de acordo com nosso exemplo, podemos pensar que a técnica empregada para fazer um
suco de laranja é a de cortá-la e espremê-la; a tecnologia empregada é a de produzir um espre-
medor automático de suco de laranja.
2 Palavra em inglês que significa realeza, regalia ou privilégio. Consiste em uma quantia que é
paga por alguém ao proprietário pelo direito de usar, explorar ou comercializar um produto,
obra, terreno etc.

–  10  –
Introdução a novas tecnologias

gravitação universal ou o teorema de Pitágoras. Contudo, o princípio ativo de


um remédio específico pode ser patenteado (protegido contra o uso comer-
cial por parte de terceiros). A tecnologia pode, dessa forma, ser propriedade
particular de uma pessoa ou de uma organização. Isso tem sua explicação:
recompensar o investimento em pesquisa e desenvolvimento. Alguns proces-
sos de pesquisa e desenvolvimento costumam se delongar por anos ou mesmo
décadas – com proporcional custo acumulado. Empresas que dedicam recur-
sos para criar determinadas tecnologias não querem ver todo seu esforço ser
livremente aproveitado pelos competidores, cujo esforço de desenvolvimento
poderia ser a mera cópia, o que é mais barato e configuraria competição des-
leal. A legislação prevê mecanismos para prover essa proteção, na forma de
patente tecnológica.
Contudo, em determinadas circunstâncias, as patentes tornam-se pouco
ou nada úteis. Conforme pode ser acompanhado no Capítulo 2, que apro-
funda essa questão, determinadas tecnologias possuem um ciclo de vida, uma
difusão – e um potencial ostracismo – que são muito acelerados. Isso é espe-
cialmente marcante na tecnologia da informação. Na prática, todo o processo
burocrático de se depositar e conseguir a concessão de uma patente pode
tomar um tempo maior que a própria vida útil daquela tecnologia, ou mesmo
ser incompatível com a janela de oportunidade de mercado para melhor
explorá-la comercialmente. Assim, muitas empresas, com destaque àquelas
com reputação de mais inovadoras, acabam por ignorar maiores disputas de
propriedade intelectual, tratando de se ocupar em manter um regime de cons-
tante pesquisa e desenvolvimento, com recorrentes novos lançamentos, apos-
tando nessa estratégia de competitividade: enquanto o competidor se ocupa
de copiar uma tecnologia anterior, a organização já está um passo à frente
com a tecnologia de próxima geração. Nos mercados em que o vanguardista
costumar ter uma melhor aceitação (imitadores não sejam tão bem quistos),
isso acaba fazendo todo o sentido como estratégia de competitividade.
Por outro lado, enquanto ciência e tecnologia dizem respeito à área mais
técnica da discussão, inovação é uma competência interdisciplinar: a chave de
sucesso é o aspecto mercadológico. Ciência e tecnologia podem ser empre-
gadas, na prática, para uma infinidade de invenções, das mais engenhosas às
mais bizarras, nas indústrias de todos os tipos. Inventar, sob certa perspectiva,
parece razoavelmente fácil: basta fazer diferente daquilo que é o normal, do

–  11  –
Tópicos Especiais

amplamente difundindo. Mas nem toda invenção é uma inovação. O Manual


de Oslo (OECD, 2005), como documento internacional de referência no
âmbito da conceituação de inovação, a define como a invenção comercial-
mente bem-sucedida. Isso significa que inovação é a invenção que se torna
um sucesso comercial, que é aceito (validado) pelo mercado. Aquilo que se
cria de diferente, mas não se vende, pode ser algo curioso, distinto, talvez até
mesmo artístico ou digno de louvor, mas não é inovação.
Tecnologia inovadora é aquela nova tecnologia que, por algum motivo
(certamente, sua utilidade prática singular), é aceita e utilizada pelo mercado.
Inovar realiza algo novo ou que nunca tinha sido feito antes: apesar de tecno-
logias antigas também serem aceitas e utilizadas pelo mercado, não são ino-
vadoras. E a inovação se estende, conceitualmente, para produtos, serviços,
processos, marketing e estrutura organizacional.
Um novo bem (físico), que se torne um sucesso de vendas, é uma ino-
vação de produto. Se intangível, convertido em uma prestação de serviço
diferente, e ao mesmo tempo com êxito comercial, é uma inovação de serviço.
O produto e serviço podem ser, inclusive, até os mesmos que já se tinha, mas
caso a forma de produzi-los tenha sido alterada, e isso implique em vantagem
comercial (um processo mais efetivo, mais rápido, mais seguro, ambiental-
mente mais adequado e/ou socialmente mais responsável), o que se caracte-
riza é uma inovação de processo. Há, inclusive, como se reconhecer inovação
em marketing como uma das possíveis inovações de processo, mas inova-
ção em marketing acaba ganhando essa categorização distinta, para realçar
as virtualmente infinitas possibilidades de fazer diferente e alcançar sucesso
nos atributos de preço, praça, produto e promoção (os 4Ps do marketing).
Finalmente, a categoria de inovação em estrutura organizacional reconhece a
validade de se alterar a ordem naturalmente estabelecida para as organizações
funcionarem com vistas ao cumprimento de sua missão institucional: aqui,
proliferam abordagens alternativas, como trabalho à distância, ­coworking
(trabalho em espaço compartilhado), novas estruturas executivas (como, por
exemplo, uma vice-presidência dedicada à inovação e à transformação digi-
tal), times de projeto formados por consórcios de empresas, entre outros.
Assim como há diferentes tipos de inovação, anteriormente descritos,
também existem distintas abrangências geográficas e intensidade de inovação.

–  12  –
Introdução a novas tecnologias

No quesito de abrangência, uma inovação pode ser mundial ou global (ine-


ditismo em grau máximo). Mas também pode-se falar em inovação nacional
(quando, até então, só existe fora do país: algumas organizações são conhe-
cidas por “tropicalizar” tecnologias, quando as lançam, com vanguarda, no
Brasil). De forma análoga, inovações podem ser regionais, ou até mesmo
empresariais: ainda é inédito tão somente para aquela empresa (naturalmente,
uma inovação menor, mas ainda assim, uma inovação).
No quesito intensidade da inovação, esta pode ser radical ou incremen-
tal. Radical é a completa reformulação conceitual de um produto ou de uma
tecnologia, e incremental é o rótulo aplicado para as pequenas melhorias que
muito agregam valor a um produto ou tecnologia, mas que não chegam a
revolucionar por completo aquele produto ou tecnologia. Por exemplo, um
detector de gotas de chuva, que aciona automaticamente o limpador de para-
-brisa, parece um recurso bastante apreciável, mas que ainda torna o carro um
carro (por isso, é uma inovação incremental). O mesmo não se pode afirmar
quanto aos automóveis autodirigíveis (sem necessidade de motorista), que
redefinem o conceito daquele produto – por isso, com justiça, uma inovação
tida como radical.
Como um jargão perigosamente alardeado, tem-se observado, com
muita frequência, o emprego do termo disrupção para algumas situações, e é
comum que inovações radicais sejam associadas a inovações disruptivas. Há
um importante senão que merece ser destacado: conforme bem defendido
por Christensen e Raynor (2013), são conceitos distintos. A disrupção diz
respeito, necessariamente, a um rompante no hábito das pessoas (usuários,
consumidores, clientes etc.). Ou seja, na forma como as pessoas consomem
ou utilizam um determinado produto ou tecnologia que é profundamente
alterada, com impactos sociais e culturais associados.
A transformação definitiva que o Uber traz na mobilidade urbana, por
exemplo, é o que o eleva a uma inovação disruptiva (e não apenas o fato de
seu aplicativo permitir chamar carros, programar rotas, pagar em ambiente
seguro virtual etc.). Tecnologicamente falando, o aplicativo desenvolvido e
empregado pelo Uber não tem lá grandes novidades funcionais que permitam
classificá-lo como inovação radical: há muito, já eram difundidos o mapa
eletrônico, o pagamento on-line, o ranking mútuo de utilizadores (no caso,

–  13  –
Tópicos Especiais

motoristas e passageiros) e outros. Contudo, a associação das características


empregadas para formatar esse produto, e o modelo de negócio que foi arqui-
tetado, representou uma das maiores revoluções em nível global no compor-
tamento das pessoas ante à necessidade de procurar uma locomoção urbana.
Isso é, portanto, uma disrupção por excelência.
A inovação é a engrenagem que movimenta mercados, indústrias e, com
isso, a própria economia em nível global. Conforme o Capítulo 2 se ocupa em
detalhar, a tecnologia da informação merece destaque como verdadeira pro-
tagonista da evolução acelerada de boa parte das demais tecnologias. Bastante
exploradas pelas principais corporações de todos os segmentos, as plataformas
tecnológicas inovadoras, tais como nanotecnologia, biotecnologia, robótica,
inteligência artificial, Internet das Coisas, Big Data, tecnologia dos materiais,
entre tantas outras, estão em processo de efervescente revolução, e especial-
mente de integração, graças a características inerentes da tecnologia da infor-
mação – por assim dizer, concordando com Ramos et al. (2012), tudo parece
orbitar ao seu redor, no fenômeno conhecido por Quarta Revolução Industrial
(ou Indústria 4.0).

1.2 Prospecção e cenários em tecnologia


A tecnologia é, seguramente, condicionadora e direcionadora de mudan-
ças nos cenários futuros. Nesse contexto, atividades de prospecção de tecno-
logia são definidas como aquelas cujo olhar é ao futuro ou aos possíveis futu-
ros. Quando se procura identificar tecnologias de próximas gerações, o futuro
de maior interesse é o não imediato: comumente, diz respeito a horizontes
temporais de alguns anos há algumas décadas, embora também seja possível
encontrar determinadas abordagens ousando explorar (mesmo que de modo
especulativo) séculos ou até milênios à frente.
Ressalta-se: é importante prospectar tecnologias. Os resultados dos estu-
dos nesse campo oferecem um olhar detalhado e valioso para possíveis avan-
ços nas mais diversas áreas de atuação humana, implicando, muitas vezes, em
significativas oportunidades de disrupção para o trabalho, para a vida pessoal,
para as estruturas corporativas e até mesmo para as políticas públicas. E é
justamente esse o motivo pelo qual governos, organizações e pesquisadores

–  14  –
Introdução a novas tecnologias

costumam contratar e se envolver em pesquisas orientadas à prospecção do


futuro das mais diversas tecnologias.
Da perspectiva de uma nação, essa iniciativa favorece o desenvolvimento
em geral. É fato que o Brasil é considerado um país atrasado em relação
às potências mundiais, também no quesito de desenvolvimento tecnológico
(salvo exceções raras, pontuais e insuficientes). Parece admissível que exista
alguma relação entre o grau de desenvolvimento tecnológico de uma país
(entenda-se aqui o patamar alcançado por todas as suas instituições científicas
e empresariais) e o nível de adoção de processos de prospecção em tecnologia.
Com a constante evolução tecnológica, a sociedade altera a tecnologia, da
mesma forma que a tecnologia molda a sociedade. Em função dessa dinâ-
mica, os próprios métodos que as organizações adotam para prever e prospec-
tar tecnologia sofrem contínuas alterações. Assim, é importante diferenciar os
conceitos associados aos termos prospecção em tecnologia (foresight), previsão
em tecnologia (forecasting) e avaliação tecnológica (assessment). Na classifica-
ção proposta por Porter et al. (2004) e Porter (2010):
22 Prospecção em tecnologia: refere-se ao processo sistemático de
identificar desenvolvimentos tecnológicos futuros e suas interações
com a sociedade e o meio ambiente, com a finalidade de promover
ações orientadoras destinadas a produzir um futuro mais desejável.
22 Previsão em tecnologia: é o processo sistemático de descrever o sur-
gimento, desempenho, recursos ou impactos de uma tecnologia em
algum momento no futuro.
22 Avaliação tecnológica: ocupa-se do estudo de impactos relaciona-
dos à adoção de uma tecnologia.
22 Roadmapping de tecnologia: método de gestão empregado como
suporte ao planejamento estratégico tecnológico de uma orga-
nização. Ele auxilia na estruturação, desdobramento, comuni-
cação e estabelecimento da visão de futuro da organização e na
sua integração com os planos de mercado, produto e tecnologia.
Essencialmente, apresenta-se como uma ferramenta gráfica usada
para se estabelecer relação entre as necessidades futuras de mercado,
a tecnologia atual da empresa, a tendência da tecnologia no mundo
e programas de pesquisa e desenvolvimento (P&D). Desse modo,

–  15  –
Tópicos Especiais

a empresa pode tomar decisões para melhor aproveitamento dos


investimentos de capital em P&D, com garantia de alinhamento à
estratégia da organização.
Historicamente, por volta do ano 8000 a.C., após a era baseada na tec-
nologia agrícola (que até pode ser reconhecida como a primeira verdadeira
“Revolução Industrial”, interpretando o termo como um salto de produtivi-
dade do labor humano), a sociedade passou a se apoiar definitivamente no
uso cada vez mais intensivo e integrado de diferentes vertentes tecnológicas.
É possível o reconhecimento de dois períodos bem caracterizados, a sociedade
industrial (em torno de 1800) e sociedade da informação (a partir de 1970)
– e até mesmo a iminência de um terceiro, que alguns denominam, mesmo
que de forma provisória, de sociedade molecular.
A sociedade industrial foi a primeira era com definitivos esforços de
prospecção em tecnologia. Trata-se de uma época caracterizada pela II Guerra
Mundial, Guerra Fria e terrorismo – eventos que despertaram interesse a res-
peito das tecnologias que estavam por vir, tendo como objetivo a segurança
nacional. A previsão tecnológica tornou-se essencial para avaliar as necessida-
des futuras de defesa dos EUA, nação vanguardista como potência tecnológica.
Entre 1950 e 1960, algumas organizações, dentre as quais o Departamento
de Defesa norte-americano, desenvolveram ferramentas quantitativas para
previsão tecnológica, ferramentas semiquantitativas (mapeamento, morfolo-
gia e análise de necessidades), além de técnicas qualitativas, tais como estudos
de cenários e Método Delphi. Esse é um período marcado também pela preo-
cupação com o monitoramento e impacto das novas tecnologias.
Os EUA se concentraram na pesquisa e desenvolvimento de produtos
bélicos, e com o país ocupado com esse foco de prioridade, outras nações
acabaram por se destacar em desenvolver tecnologias em setores industriais
distintos. Naquela época, analistas da Europa e Ásia assumiam papel rele-
vante no desenvolvimento de conceitos de prospecção em tecnologia. Assim,
começava-se a reconhecer na previsão em tecnologia uma entrada válida e
relevante para a estratégia corporativa. De igual modo, as necessidades de
clientes ou mercados, bem como fatores políticos, internacionais, econômi-
cos, trabalhistas e os ambientes regulatórios deviam ser atraídos para o esforço
total de prospecção em tecnologia.

–  16  –
Introdução a novas tecnologias

Por sua vez, é na sociedade da informação que ocorre a segunda era da


prospecção em tecnologia. A sociedade da informação é caracterizada pelo
período em que ocorre, entre outros acontecimentos marcantes, o aperfeiçoa-
mento e a difusão da internet como plataforma de tecnologia de informação
e comunicação e o drástico aumento na capacidade dos computadores. Essas
são conquistas tecnológicas que facilitaram a utilização das técnicas de estu-
dos de cenários e Método Delphi, que podem ser consideradas as ferramen-
tas mais amplamente utilizadas nessa época, além da análise bibliométrica.
Também pode ser citada a utilização de novos métodos de prospecção, tais
como a ciência da complexidade e perspectivas múltiplas.
Não obstante, a sociedade molecular dá espaço para a terceira era da
prospecção em tecnologia. A primeira era (sociedade industrial) já passou
por todas as fases de ciclo de vida, que são a gestação, crescimento, maturi-
dade e declínio. A segunda era (sociedade da informação) passou pela gesta-
ção e crescimento, encontrando-se, nas primeiras décadas do século XXI, na
maturidade. Ocorre que a terceira era (sociedade molecular), como lembra
Schwab (2016), ainda está na etapa gestacional, caminhando para o cres-
cimento – uma transição que se espera para em torno do ano 2025. Esse é
um período em que podem ser identificados direcionadores revolucionários,
como a biotecnologia e a nanotecnologia. De alguma forma, a biologia está se
tornando uma ciência da informação. E, por outra perspectiva, a tecnologia
da informação começa a adotar características dos sistemas biológicos. Como
a ciência progride, a fronteira entre sistemas vivos e artificiais, e entre a vida
real e virtual, está se tornando cada vez mais de difícil distinção. As notí-
cias sempre recorrentes sobre fanáticos fundamentalistas e guerras religiosas,
por exemplo, têm conduzido a discussão de como a evolução das tecnologias
pode ocasionar a utilização de novas armas baseadas em genética, nanotecno-
logia, robótica etc.
Por isso, alguns questionamentos surgem nessa nova era: será que os fatos
associados a esse período podem envolver mudanças significativas nas formas
de previsão e de prospecção em tecnologia? Ocorrerá o aprimoramento dos
métodos já existentes? Surgirão novas técnicas de previsão e prospecção em
tecnologia que se somarão às várias já existentes? O que parece mais provável
é a integração ou uso combinado de diferentes métodos de prospecção.

–  17  –
Tópicos Especiais

Existem inúmeros métodos de prospecção de tecnologia para atender


a diferentes objetivos, como destaca Porter (2010). Atingir tais objetivos
envolve recorrer a uma diversidade de procedimentos, com distintas abor-
dagens (às vezes, complementares). Esses métodos podem ser agrupados em
famílias, de acordo com algumas características comuns e objetivos aos quais
melhor se destinam. O Quadro 1 a seguir apresenta uma lista de métodos
prospectivos em função do agrupamento em famílias de similaridades.
Quadro 1 – Métodos de análises de tecnologias futuras.

Famílias de métodos Exemplos de métodos


Abordagens criativas TRIZ, sessões de trabalho sobre o futuro,
visionamento, ficção científica.
Monitoramento e inteligência Vigilância em tecnologia, mineração em tecnologia.
Descritivos Bibliometria, lista de verificação de impactos,
índice de estados futuros, avaliação
de múltiplas perspectivas.
Matrizes Analogias, análises morfológicas,
análise de impactos cruzados.
Análises estatísticas Análise de riscos, correlações.
Análises de tendências Modelamento de curva de crescimento,
principais indicadores, curvas de
envelope, modelos de onda longa.
Opinião de especialistas Survey, Delphi, grupos focais,
abordagens participativas.
Modelagem e simulação Descrições de sistemas de inovação, modelamento
de sistemas adaptativos complexos, modelamento
de regimes caóticos, análises de difusão ou subs-
tituição de tecnologias, modelamento de entra-
das e saídas, modelagem baseada em agente.
Análise lógica / Análise causal Análise de requisitos, análises institucionais,
análises das partes interessadas, avaliação de
impacto social, estratégia de mitigação, análises
de sustentabilidade, análises de ação (avaliação de
políticas), árvores de relevância, roda do futuro.

–  18  –
Introdução a novas tecnologias

Famílias de métodos Exemplos de métodos


Mapeamento Descrição do futuro em sentido inverso
(­backcasting),
mapeamento de tecnologia x produto,
mapeamento científico.
Cenários Gestão de cenários, cenários
baseados quantitativamente.
Análises de valoração / Auxílio Análise de custo benefício (CBA), processo analítico
à decisão / Econômica de hierarquia (AHP), análise de envelopamento de
dados (DEA), análises de decisão por multicritérios.
Combinações Simulação de cenários (jogos), análise
de impacto de tendências.
Fonte: PORTER, 2010, p. 41. Adaptado.
Métodos podem ser combinados, dependendo da complexidade e obje-
tivos da análise. Existem métodos hard (baseado em análises quantitativas) e
soft (baseado em análises qualitativas). Há os extrapolativos (que visam ante-
cipar potenciais futuros, no contexto de mudança) e normativos (orientados
a descrever o futuro desejado).
Como curiosidade, a própria ficção científica é considerada um dos
métodos de prospecção de novas tecnologias, na família de abordagens cria-
tivas. Embora seja literatura romanceada, fruto de produção artística, sua
especial utilidade é para inspiração de pesquisas que culminem em desenvol-
vimento da ciência e tecnologia – e resultem em inovações de impacto para
a sociedade.
Os clássicos do gênero parecem insuperáveis: a produção literária de
nomes como Arthur C. Clarke e Isaac Asimov, em seu conjunto da obra,
fecunda as demais mídias de Sci-Fi, como filmes (Star Wars, Blade Runner,
Back to the Future, Matrix etc) e seriados televisivos (X-Files, Lost, Millenium
etc). A ficção científica é o ponto de convergência entre a arte e a ciência. Estas
se influenciam mutuamente. É interessante observar que muitas pessoas que
enveredam por uma formação técnica, como engenheiros e tecnólogos, fazem
suas escolhas acadêmicas e profissionais incentivadas também pela influência
da ficção científica em suas vidas. Da mesma forma, boa parte dos temas

–  19  –
Tópicos Especiais

explorados por pesquisadores acadêmicos e cientistas em geral é induzida


pelos produtos de ficção científica consumidos na infância e adolescência.
Tal apelo motivacional, de cunho mais emotivo que racional, parece que
sempre se fez presente, em todos os tempos, de maneira mais velada ou mais
explícita. Não restrita a um mero passatempo, a ficção científica se mostra
inspiração e até mesmo direcionadora de temas com verdadeiro potencial de
conversão em hipóteses para comprovação ou refutação científica. Quanto
conhecimento já foi efetivamente gerado, aplicado e industrializado décadas
depois dos inventos descritos pela mente de Júlio Verne? Da robótica roman-
ceada por Isaac Asimov, do sistema de comunicações intra e interplanetário de
Arthur Clarke, da engenharia genética sugerida por Aldous Huxley? Poderia
o gênio Leonardo da Vinci, se tivesse direcionado sua produção artística mais
para o storytelling da ficção literária que para escultura e pintura, ter traduzido
sua originalidade científica em fonte de inspiração para mais gerações de cien-
tistas, de modo a, quem sabe, antecipar as grandes descobertas tecnológicas
da história da humanidade em alguns séculos?
Portanto, é válido, como técnica de prospecção, explorar a análise das
produções de ficção científica, especialmente as de boa qualidade, buscando
nelas traços, mesmo que tênues, do que podem ser futuros desenvolvimen-
tos tecnológicos reais. Afinal, indiscutivelmente, tudo o que existe concre-
tamente de fato em um dado momento foi primeiramente pensado/imagi-
nado/sonhado antes.

1.3 Hype Cycle


O Gartner Group é uma consultoria norte-americana especializada em
pesquisa e prospecção tecnológica, que carrega em sua identidade o sobre-
nome de seu fundador, Gideon Gartner, considerado um dos grandes patriar-
cas da indústria da tecnologia da informação e responsável pela fundação da
empresa em 1979.
Fenn e Raskino (2008) reconhecem que a influência dos trabalhos desen-
volvidos por essa organização é bastante expressiva no campo das novas tec-
nologias em geral. A empresa se ocupa em analisar mercados dos mais diver-
sos setores e suas grandes tendências. A partir disso, elabora, anualmente, um

– 20 –
Introdução a novas tecnologias

infográfico consolidado na forma de uma curva, que demonstra a evolução e


o grau de desenvolvimento das tecnologias disponíveis para aquele segmento.
Com isso, os clientes do Gartner Group, indústrias de todas as vertentes,
como no ramo de telecomunicações, alimentos, construção civil, vestuário,
automobilístico, entre tantas outros, conseguem decidir, com mais precisão,
para onde direcionar seus investimentos e esforços tecnológicos.
Esse infográfico é apresentado em uma curva bem característica, de fácil
identificação entre os pesquisadores de tecnologia dado seu formato pecu-
liar, e é denominado Hype Cycle. A tradução para o português não costuma
ser utilizada, pela imprecisão e ambiguidade ao referir-se a exagero e simila-
res (ciclo de exagero, ciclo de euforia etc.), por isso, no campo de estudos de
tecnologia, a convenção é manter a expressão original em inglês – altamente
difundida em meio à literatura especializada e, por isso, já incorporada ao
termo corriqueiro. A Figura 1 a seguir ilustra o Hype Cycle, com todos os seus
estágios identificados.
Figura 1 – Hype Cycle.
Expectativa No auge Caindo em Subindo a ladeira
Crescendo Entrando no platô
depressão
negócios já além apenas
proliferação de de usuários precoces
fornecedores
início das notícias
assunto do momento negativas na mídia começa a fase de adoção de
na grande mídia consolidação de alto crescimento: 20% a
fornecedores e falhas 30% do público-alvo adota
sondagem de
a inovação
primeiros usuários
2ª e 3ª rodadas de
produtos de 1ª geração, financiamento de desenvolvimento de
preço alto, muita necessi- capital de risco tecnologias e boas práticas
dade de personalização
Menos de 5%
startup em primeira do público-alvo terceira geração de produtos,
rodada de investimento atingido inovações, kits de produtos
de capital de risco
segunda geração de
P&D produtos, alguns
serviços

Gatilho tecnológico Pico das Vale das desilusões Aclive de iluminação Platô de
expectativas infladas produtividade

Tempo

Fonte: FENN; RASKINO, 2008. Adaptado

–  21  –
Tópicos Especiais

Como visto, essa curva mostra a expectativa, reputação ou aceitação de


determinada tecnologia ao longo do tempo – podendo também ser entendi-
das como visibilidade e maturidade que se alcança. Conforme pode ser acom-
panhado ao longo do eixo horizontal (temporal), há cinco fases bem nítidas:
gatilho de inovação ou gatilho tecnológico, pico das expectativas infladas,
vale das desilusões, aclive de iluminação e platô de produtividade ou planalto
de produtividade. E elas procuram representar um fenômeno sócio técnico
comum a todas as novas tecnologias: entre o momento de seu surgimento e a
estabilidade para aplicação industrial, há um momento de forte turbulência,
caracterizado pela rápida febre que se forma (hype) seguido por uma quase tão
imediata depressão ou frustração em torno das expectativas originais daquela
tecnologia. Isso acaba por explicar uma série de desdobramentos práticos da
difusão e assimilação de novas tecnologias.
No gatilho tecnológico, marco de lançamento daquela nova tecnologia,
estão os produtos e aplicações mais recentes lançadas no mercado. O suges-
tivo nome pico das expectativas infladas reúne os produtos e aplicações em
voga, alvos de grande burburinho, sendo testados por um grande número
de companhias. É uma fase em que as expectativas usualmente são maiores
que o real valor daquelas novidades, o que ajuda a explicar o estágio seguinte:
vale das desilusões, uma etapa realmente crítica, uma vez que, a partir desse
ponto, novas tecnologias podem ser simplesmente abandonadas (cair em
total desuso), ou então começarem a ser aprimoradas para melhor adaptação
ao mercado. O aclive de iluminação reúne os produtos e aplicações que con-
seguiram ser melhorados em relação à fase anterior, portanto, com sucesso em
permanecer no mercado. Finalmente, o planalto de produtividade é atingido
por aqueles produtos e aplicações testados e aprovados efetivamente, valida-
dos (aceitos) pelo mercado.
Nos relatórios anuais do Gartner Group, o Hype Cycle é atualizado para
mostrar qual a posição de momento de diversas tecnologias alvo de monito-
ramento. Para cada uma delas, características peculiares podem fazer com que
determinadas fases sejam muito mais aceleradas ou muito mais lentas para
transição, que o pico seja muito maior, o vale muito mais amplo, entre outros.
O que não costuma mudar é o visual do gráfico, que ilustra, de maneira bas-
tante efetiva, o recorrente fenômeno de euforia à depressão que antecede o
uso estável de uma determinada tecnologia.

– 22 –
Introdução a novas tecnologias

Compreender a utilidade do Hype Cycle é reconhecer que trabalhar com


tecnologias emergentes é altamente desafiador. Afinal, é difícil garantir se o
hype de um determinado fenômeno tecnológico é exagero, tendência, ou um
verdadeiro tsunami. Inovações estão sempre associadas a riscos: quando uma
organização decide investir em uma tecnologia inovadora, não há como dei-
xar de conviver com alto nível de incertezas. As coisas podem dar muito,
muito certo, como também muito, muito errado.
Como bem descrito por Reis (2008) e Fenn e Raskino (2008), o
ambiente de negócios está cada vez mais complexo e agressivo. E é nesse meio
que as empresas, para sobreviver e prosperar, são impelidas a inovar de forma
contínua – organizações permanentemente inovadoras. As novas tecnologias
são o futuro de muitas frentes de negócio, afinal, são capazes de destruir,
criar e redesenhar indústrias em passo cada vez mais acelerado. A necessidade
da vanguarda tecnológica é imperativa: ao mesmo tempo, adotar tecnologias
ainda não consolidadas é um desafio para gestores de organizações de todos
os tipos. As questões inevitáveis sobre as quais se debruçam gestores e especia-
listas na indústria são as que apresentamos a seguir.
22 De que forma as organizações podem avaliar, decidir e incorporar
novas tecnologias aos negócios, diante da altíssima incerteza a res-
peito de sua viabilidade?
22 Que critérios adotar para decidir entre uma estratégia agressiva (ser
pioneiro na utilização da tecnologia) ou conservadora (preferindo
a observação de mercado e espera de primeiros resultados dos con-
correntes)? Naturalmente, os riscos e os benefícios de cada uma
dessas estratégias precisam ser devidamente considerados.
22 Como conviver com a possibilidade de as novas tecnologias rede-
finirem o próprio modelo de negócio atualmente empregado pela
empresa? Não obstante criar novos negócios, a tecnologia emer-
gente pode ser responsável, ao mesmo tempo, pela obsolescência
completa do negócio tradicional da organização, que muitas vezes
é o responsável pela trajetória de sucesso até então alcançado de
uma marca.
22 Como planejar recursos e preparar a estrutura organizacional para
o processo de transferência de tecnologia?

–  23  –
Tópicos Especiais

O ponto crítico do Hype Cycle é a depressão da curva. Uma dada tecno-


logia caminha, ao longo do tempo, para chegar nesse ponto de inflexão, que
é precisamente o momento em que se alcança massa crítica suficiente para
se disseminar pela indústria e causar impactos de forma exponencial, ou ser
completamente abandonada (ou substituída) exatamente nesse momento.
É interessante observar como os mais recentes relatórios Hype Cycle do
Gartner posicionam a tecnologia da informação como verdadeira protagonista
das plataformas tecnológicas de próxima geração. Ao menos três macrotendên-
cias sintetizam o caminho da evolução tecnológica para os próximos anos:
1) Experiências imersivas: o termo originalmente adotado pelo Gartner
é transparently immersive experiences, abrangendo o conjunto de
tecnologias que estão se tornando mais orientadas ao ser humano,
e com isso, cada vez mais invisíveis, fluídas e contextuais no que
tange ao relacionamento entre pessoas, sistemas artificiais e organi-
zações empresariais. Alguns exemplos práticos são as tecnologias de
realidade virtual e de realidade aumentada. Também estão incluí-
das as próximas gerações de tecnologias já concebidas há algum
tempo, como é o caso da tecnologia de impressão 3D (com mais
de três décadas de existência): as impressoras 4D estão surgindo,
com novas e impactantes aplicações, que envolvem a produção de
materiais inteligentes, que se moldam e remoldam fisicamente ao
longo do tempo (a quarta dimensão), em função de determinados
parâmetros (entre os quais a interação humana). Nessa categoria
de experiências imersivas, merecem destaque também tecnologias
emergentes como Human Augmentation, Brain-Computer Interface,
Volumetric Displays, Affective Computing, Nanotube Electronics e
Gesture Control Devices.
2) Máquinas inteligentes: a expressão originalmente utilizada pelo
Gartner, Perceptual Smart Machine Age, diz respeito à inteligência
artificial que opera assistentes pessoais como Google Now, Siri e
Cortana, veículos autônomos e robôs, fundamentada em algorit-
mos sofisticados, arquitetura de machine learning e técnicas de lin-
guagem natural. Já há um bom tempo os algoritmos inteligentes

–  24  –
Introdução a novas tecnologias

estão presentes no cotidiano das pessoas, muitas vezes sem serem


percebidos. É o caso dos algoritmos de recomendação, totalmente
incorporados ao processo de escolher um filme no Netflix ou um
livro na Amazon. Algoritmos poderosos são empregados para que
rotas sejam propostas pelo Waze, para que o Uber possa precificar
antecipadamente uma corrida, para que empresas automatizem o
processo de aprovação de crédito dos clientes, e para que passa-
gens aéreas sejam mantidas com preços dinâmicos, entre tantas
outras inúmeras realidades do cotidiano. A inteligência artificial é
a base de funcionamento do poderoso motor de busca do Google.
É fácil concordar com Singh (2012; 2014) sobre as possibilidades
iminentes serem realmente impressionantes, uma vez que o Hype
Cycle associado se concretize: uma máquina HLMI (Human-Level
Machine Intelligence) – um computador capaz de emular a maio-
ria das atividades profissionais humanas ao menos tão bem quanto
uma pessoa – tem, segundo as previsões tecnológicas já mapeadas,
mais de 50% de chance de ser realidade por volta do ano 2050.
A partir daquele ponto, chegar-se a uma máquina superinteligente
seria questão de poucas décadas. Por máquina superinteligente,
entenda-se o alcance de um intelecto que excederá em muito o
desempenho cognitivo da raça humana em absolutamente todos
domínios de conhecimento.
3) Revolução das plataformas: a análise do Gartner a respeito da
Platform Revolution alerta para o irreversível deslocamento da
infraestrutura tecnológica para ecossistemas – tecnologias operando
como plataformas e como catalisadoras de novos negócios de alto
impacto. Trata-se de um movimento que já iniciou, fundamental-
mente a partir das primeiras aplicações de cloud computing (compu-
tação em nuvem). Contudo, a maior revolução parece se aproximar
a partir da difusão generalizada de tecnologias como blockchain e
Software-Defined Everything (SDx): estas possuem um infindável
potencial para criação de novos modelos de negócio, enraizando a
conexão invisível e intuitiva entre pessoas e novas tecnologias.

–  25  –
Tópicos Especiais

Conclusão
Inegavelmente, novas tecnologias proliferam em quantidade e em força
de impacto na sociedade. Elas são capitaneadas pela tecnologia da informação,
e o ritmo de sua difusão não é apenas bastante rápido, mas continuamente
acelerado, resultando em crescimento exponencial – e convergente entre as
mais diversas tecnologias. Como um desdobramento prático inequívoco,
impõe-se o planejamento estratégico tecnológico como agenda obrigatória de
organizações de todos os segmentos e portes.
Para muito além de revolucionar funcionalidades de produtos e quali-
dade de serviços, as novas tecnologias mudam as estruturas sociais, as práticas
empresariais e, inevitavelmente, os modelos de negócios. Portanto, estabele-
cer um eficiente processo de gestão de tecnologia passa a ser cada vez mais
uma competência essencial das organizações que tiverem a ambição de serem
bem-sucedidas na nova era industrial que já se estabeleceu.

Ampliando seus conhecimentos

Meirelles (2011) faz suas considerações sobre cenários e ten-


dências do uso de tecnologia da informação, convidando a
imaginar o que ainda pode ocorrer com o uso da TI nos ban-
cos com a desmaterialização dos meios de pagamento ou no
varejo com a transformação do processo de comercialização.

Cenários e tendências do uso de TI


(MEIRELLES, p. 1, 2011)

[...] Uma nova fronteira digital da economia está mudando os


participantes, a dinâmica, as regras, as exigências de sobrevi-
vência e os parâmetros de sucesso.
O papel da TI nesse cenário, incluindo os Sistemas de
Informação, fica cada vez mais nítido, estrutural e propício
tanto para um processo de inovação sustentada como para

– 26 –
Introdução a novas tecnologias

uma inovação disruptiva provocada pela descoberta de um


novo arranjo de negócio viabilizado pelo uso inovador da TI.
O alinhamento da TI com os diversos componentes da orga-
nização é um importante fator chave de sucesso nos negócios
da economia digital que atravessamos.
[...]
Essa visão de futuro do impacto da TI nos negócios permite
identificar uma série de fatores com potencial crescente de
alavancar ou mexer com os resultados dos negócios em geral.
[...]
Uma questão central é como transformar a informatização
compulsória das organizações em “Inteligência Analítica”. Isto
é, como obter retorno, informação e conhecimento a partir
dessa imposição, que no início tende a ser vista só como
elemento de custo. Em vários casos estudados, encontrou-se,
por exemplo, benefício tangível com um maior conhecimento
sobre o comportamento dos clientes, permitindo melhorar
resultados com a identificação de novos produtos ou simples-
mente com a adequação dos já existentes.
A necessidade de aumentar essa inteligência analítica, que
envolve uma avaliação cuidadosa sobre a modelagem dos
dados – estruturados e não estruturados –, não vai acontecer
apenas porque existem mais dados e informações relevantes
disponíveis no ambiente das empresas e fora delas, mas tam-
bém porque o consumidor está mais exigente.
O maior impacto da necessidade de se atender perfis dife-
rentes da sociedade de maneira diferente está, no entanto,
nos sistemas de informações e nas infraestruturas de TI das
empresas. Do ponto de vista dos sistemas de informações, há
um aumento da complexidade de segmentos e uma demanda
por captura de informações desestruturadas em redes sociais
e outras fontes de dados emergentes. Estas duas tendências,

–  27  –
Tópicos Especiais

somadas à necessidade de decisões em tempo real para ofer-


tas e atendimento a clientes, devem impor o desenvolvimento
de uma nova geração de plataformas de relacionamento com
os clientes, deixando obsoletas as arquiteturas tradicionais.
Assim, Inteligência Analítica é um dos fatores críticos para
uma visão de futuro do uso das tecnologias de informação
e comunicação.
[...]

Atividades
1. Qual a importância da ciência e tecnologia para a inovação?

2. Por que motivo é importante prospectar novas tecnologias?

3. Por que a fase de vale das desilusões é tão crítica na abordagem do


Hype Cycle?

4. Do que se trata a macrotendência tecnológica de experiências imersivas?

–  28  –
2
A tecnologia ao
longo do tempo

Quando os ancestrais humanos descobriram que um osso


ou um galho poderiam servir de arma, uma pedra poderia ser útil
para partir um coco, cavar um buraco ou mesmo para rabiscar
algo, nasciam os primeiros conhecimentos sobre a técnica: como
empregar coisas para produzir algo, realizar alguma tarefa, solu-
cionar algum desafio ou problema. As ferramentas foram acom-
panhando a evolução humana, evoluindo também para máquina
e equipamentos cada vez mais úteis e indispensáveis na rotina do
dia a dia, de forma que a tecnologia foi aprimorando as primeiras
técnicas desenvolvidas pelo homem até chegar ao ponto em que a
engenhosidade humana começou a empregar a informação como
insumo produtivo.
Tópicos Especiais

A partir de então, a curva de evolução tecnológica deixa de ser linear e


passa a ser exponencial, com igual efeito no desenvolvimento das organiza-
ções, dos negócios e da sociedade como um todo. Acompanhar a evolução
da tecnologia, entendida como conhecimento aplicado, ao longo do tempo é
um fascinante exercício de compreensão da capacidade humana de transfor-
mar o mundo.

2.1 Indústria 4.0


Inicialmente, convém esclarecer a respeito da adequada interpretação
que a palavra indústria merece. Por algum motivo, talvez a maioria das pes-
soas, quando se depara com esse termo, automaticamente o associa com
fábricas, esteiras levando produtos e peças em linhas de montagem, ou
alguma imagem de Tempos Modernos, o icônico filme de Charles Chaplin.
Não há dúvidas de que isso também é indústria, mas o conceito não se limita
à atividade de manufatura fabril. Indústria é sinônimo de produção, em seu
conceito mais amplo.
Assim, envolve-se tanto o clássico processo de transformação de maté-
rias-primas em bens físicos com determinados atributos agregados, tão típico
da indústria da manufatura, como também a própria articulação de recursos
envolvida na prestação de um serviço: o termo indústria de serviços é total-
mente válido. Da mesma forma, são igualmente coerentes os empregos do
termo em uma ampla variedade de expressões, como indústria cinematográ-
fica, indústria da educação, indústria fonográfica, indústria cultural, indústria
da saúde, indústria de seguros, entre uma infinidade de outros exemplos.
O termo indústria está para a produção (oferta) assim como mercado está para
consumo (demanda).
É o que precisa ser levado em consideração quando se trata de compreen-
der o fenômeno da Revolução Industrial, ou das várias revoluções industriais
que a humanidade tem experimentado e as que ainda vai conhecer. Tudo diz
respeito à atividade do trabalho, da produção conduzida por pessoas para
atender anseios, demandas e necessidades de outras pessoas. A indústria existe
para atender ao mercado, sendo fato comum que este último seja a real justifi-
cativa para a arquitetura industrial. Quando se fala em Revolução Industrial,

–  30  –
A tecnologia ao longo do tempo

o que está em discussão é, portanto, um momento histórico que caracteriza


um salto de produtividade tão grande, a ponto de redefinir por completo o
que se conhecia até então como parâmetro industrial.
É por esse ângulo que é possível reconhecer na própria Revolução
Agrícola – época de transformação de uma humanidade nômade em uma
mais fixada ao local geográfico em que se produziam alimentos – uma pri-
meira grande revolução industrial, embora se costume associar a expressão
revolução industrial ao momento histórico em que a máquina a vapor e
as locomotivas se tornam realidade corriqueira, com o rótulo de Primeira
Revolução Industrial. É indiscutível que ali ocorre genuinamente um salto da
capacidade produtiva: isto é, quando o efeito de melhorias sucessivas não é a
continuidade de uma rampa, mas sim o aparecimento de um degrau.
No que diz respeito ao posterior segundo degrau, a assim chamada
Segunda Revolução Industrial é marcada pelo uso da eletricidade na produ-
ção, a viabilidade da produção em massa e o aparecimento de artefatos revo-
lucionários como avião, navio a vapor, refrigeração mecânica e a invenção
do telefone eletromagnético. No campo da gestão, é impossível não reco-
nhecer a importância do gerenciamento científico da produção, criado por
Frederick Taylor.
Mais uma vez se alcançou uma revolução nos níveis de produtividade
industrial a partir do momento em que computadores e automação robótica
começam a ser a base dos modelos produtivos, especialmente na indústria
automotiva. Por isso, a justa denominação de Terceira Revolução Industrial,
que se estendeu até anos muito recentes. Se ainda incipiente na Segunda
Revolução Industrial, a tecnologia da informação começa a se tornar impres-
cindível nos sistemas produtivos da era seguinte, principalmente a partir do
momento em que computadores de alta capacidade se tornam acessíveis às
organizações em geral.
Não por acaso, Terceira Revolução Industrial costuma ser associada à
era do conhecimento: aquele estágio que a humanidade alcança em que, dife-
rente da era industrial clássica, o conhecimento passa a se tornar o insumo
mais relevante – eis a tecnologia da informação começando a traçar as novas
direções dos sistemas produtivos, a partir de artefatos como as redes locais
de computadores e a grande rede, de disposição mundial, que é a internet e

–  31  –
Tópicos Especiais

a web 2.0. Para Reis (2008), essas são competências tão essenciais às organi-
zações empresariais quanto as clássicas gestão financeira, gestão de recursos
humanos e gestão da produção; além dessas, irrompem disciplinas como ges-
tão da tecnologia, gestão do conhecimento e gestão da inovação.
E assim como, na perspectiva de alguns pesquisadores e especialistas,
a Segunda Revolução Industrial parece ser mais uma extensão natural dos
desdobramentos tecnológicos da Primeira Revolução Industrial, o que viria
na sequência da Terceira Revolução Industrial, embora profundamente dis-
ruptiva e impactante para toda a indústria, pode ser entendida como uma
consequência inevitável do aprimoramento geral da tecnologia da informação
e de suas aplicações entre as diversas outras tecnologias.
Para muitos, a Quarta Revolução Industrial, a chamada Indústria 4.0,
inicia junto ao surgimento da cloud computing (computação em nuvem).
É um ponto de inflexão, a partir do qual o mundo convencional (físico)
começa a migrar irreversivelmente para o mundo digital. Verdadeiras pla-
taformas tecnológicas com potencial de novas aplicações, a nanotecnologia,
biotecnologia, robótica, Internet das Coisas, Big Data, M2M, inteligência
artificial, impressão 3D, tecnologia dos materiais, entre tantas outras, passam
por contínuo aprimoramento e, destaca-se, convergência, a partir da integra-
ção com as tecnologias de informação e comunicação (TIC), como destaca
Schwab (2016). A tecnologia da informação parece dragar todas as demais
tecnologias para uma trajetória de aperfeiçoamento em que ela, TI, é, ao
mesmo tempo, princípio, meio e fim nessa dinâmica conjunta.
O que a Quarta Revolução Industrial provoca é a mais radical modifi-
cação da sociedade em todos os tempos. Por cerca dos últimos 250 mil anos,
período que se acredita corresponder à completa trajetória humana sobre a
face da Terra, a humanidade evoluiu com base em um desenvolvimento local
e linear. Local, no sentido de que se uma pessoa nascesse em determinada
região, era muito provável que ali crescesse, produzisse e morresse. Linear,
em termos de velocidade constante das melhorias e avanços tecnológicos. Por
assim dizer, o ritmo de mudanças que uma pessoa assistia em sua infância
correspondia, grosso modo, ao mesmo ritmo de mudanças já na velhice.
Desse período realmente expressivo de 250 mil anos, contudo, são os
últimos 50 anos que destoam por completo a forma de desenvolvimento: ela

–  32  –
A tecnologia ao longo do tempo

passa a ser global e exponencial. Global, no sentido que a mobilidade geográ-


fica alcançou tal ponto que é muito comum pessoas perfazendo suas etapas
de vida nas mais diferentes regiões do planeta: nascer em um local, crescer em
outro, e assim ir experimentando diversos outros lugares, mesmo em escala
internacional, para estudar, se aprimorar, produzir e usufruir das benesses de
uma vida mais longeva. Por crescimento exponencial, entenda-se um ritmo
continuamente acelerado de avanço tecnológico, que alcança, na época atual,
um patamar de alcance até certo ponto assustador. O Gráfico 1 a seguir ilus-
tra a diferença entre um ritmo linear e um ritmo exponencial de crescimento.
Gráfico 1 – Comparação entre crescimento linear e crescimento exponencial.

Exponential trend
Linear trend

Knee of Curve

Fonte: SINGULARITY UNIVERSITY, 2017. Adaptado.


A diferença entre os dois ritmos de crescimento é tão acentuada que
chega a ser desafiadora a projeção mental dessa disparidade. A abordagem
visual é especialmente útil para melhor compreender a diferença alcançada
em alguns poucos passos incrementais. Nos primeiros incrementos, as duas
curvas estão muito próximas, mas logo após alguns incrementos subsequen-
tes, a distância que se alcança é surpreendente. Se valores forem tabulados, a
constatação é ainda maior: dar 30 passos lineares de 1 metro significa andar,
ao todo, 30 metros. Dar 30 passos exponenciais (1 m, 2 m, 4 m, 8 m, 16 m
etc.) equivale a cobrir 1.073.741.824 metros. Para compreender, em uma

–  33  –
Tópicos Especiais

perspectiva humana, o que representam mais de 1 bilhão de metros, basta


saber que correspondem a 26 voltas em torno do planeta Terra.
Novas tecnologias possuem o poder exponencial por uma razão signi-
ficativa: o conhecimento é cumulativo. A nova geração de pessoas não se vê
obrigada a reinventar a roda no que diz respeito à ciência e tecnologia, mas
já pode partir do conhecimento que se acumulou até aquele momento histó-
rico, e a partir dali, avançando o estado-da-arte científico e tecnológico.
Chega até a ser um tanto quanto contraintuitivo esforçar-se por com-
preender o que é uma melhoria da ordem de bilhões de vezes. Alguns exem-
plos são úteis para ajudar nesse desafio. No que diz respeito à tecnologia de
circuitos integrados eletrônicos, considere-se que, em 1958, dois transistores
ocupavam o espaço correspondente a cerca de 1 cm2. Em 1971, o Intel 4.004
dispunha, nesse mesmo quadrado, de 1 cm de lado, 2.300 transistores. Um
salto de dois para 2.300 é bastante apreciável. Contudo, quase desprezível ao
se considerar o que se alcançaria em 2012: um GPU Nvidia encaixava, nesse
mesmo espaço físico, 7,1 bilhões de transistores. E a evolução tecnológica ao
longo do tempo, naturalmente, nunca estaciona. Nesse espaço de 54 anos,
não foi apenas o atributo dimensional (espaço físico) que foi revolucionado:
essas poucas décadas foram suficientes para que, simultaneamente, se alcan-
çassem dispositivos 10 mil vezes mais velozes, e 10 milhões de vezes mais
baratos. Ou seja, uma tecnologia 100 bilhões de vezes melhor.
Em 1960, a tecnologia de ICBM, responsável pela navegação e precisão
dos mísseis intercontinentais, era fundamentada em uma geringonça com fun-
ções de controle de velocidade, orientação e aceleração, de cerca de 23 kg de
massa e com custo na casa de milhões de dólares. Nos primeiros anos do século
XXI, dispositivos extremamente miniaturizados, a ponto de serem componen-
tes quase imperceptíveis visualmente em um smartphone, eram disponibiliza-
dos na indústria na forma de um acelerômetro de US$ 1 e um giroscópio de
US$ 3, com capacidade muito maior. Tais tecnologias, não obstante, cami-
nham para uma evolução ainda mais surpreendente, na forma de máquinas de
estrutura molecular (nanométrica), virtualmente sem custo unitário apreciável.
O primeiro receptor de GPS lançado comercialmente remonta a 1981,
na forma de um equipamento de 24 kg e quase US$ 120 mil. Em 2010, o
mundo já contava com microchips com função GPS que cabiam, com muita

–  34  –
A tecnologia ao longo do tempo

folga, na ponta de um dedo, por menos de US$ 5 cada. Em 1976, o enge-


nheiro Steven Sasson, da Kodak, orgulhava-se de sua criação, a primeira
máquina fotográfica digital da história: resolução de 0,01Mp, 1,7 kg e US$
10 mil. Em 2014, o dispositivo de câmera digital móvel, onipresente em
qualquer telefone celular, apresentava-se com 10Mp, 13Gb e US$ 10. Mil
vezes mais resolução, mil vezes mais leve, mil vezes mais barato.
Seria inevitável que tamanha profusão exponencial alcançasse o mundo
digital. Na tecnologia da informação, os dados crescem de forma exponen-
cial. Em 2010, 5 bilhões de gigabytes eram produzidos em dois dias de ope-
ração da internet. Em 2013, esse volume de dados passou a ser produzido
a cada 10 minutos. Uma companhia aérea gera mais de 1 Tb de dados por
dia. Além disso, mais de 100 horas de conteúdo de vídeo são adicionados ao
YouTube a cada minuto. Assim, como característica marcante da Indústria
4.0, é muito natural que tecnologias exponenciais conduzam, no mundo das
organizações empresariais, a negócios exponenciais, novos empreendimentos
(startups) que, em pouquíssimo tempo de operação, passam a incomodar as
grandes marcas tradicionais estabelecidas no mercado – isso quando não as
destroem por completo.

2.2 Transformação digital


Startups, representando, de um lado, o novo paradigma dos negócios, e as
empresas tradicionais, de outro, na sua busca pela reinvenção necessária à sobre-
vivência e prosperidade na Quarta Revolução Industrial, dispõem de uma mesma
estratégia para seus intentos particulares: a transformação digital, que acontece
da forma mais ampla possível: produtos e serviços, processos e finalmente os
negócios por completo, totalmente digitalizados ou virtualizados. A tecnologia
da informação é a maior responsável por impelir o ritmo de transformação digi-
tal que cada organização, de qualquer ramo e porte, pode implementar.
Nem toda startup significa, necessariamente, um modelo de negócio
digital. Embora reconheça-se que são casos mais raros, até mesmo indústrias
manufatureiras podem ser startups. É porque o conceito envolve, funda-
mentalmente, a proposição de um novo negócio. Não qualquer novo negó-
cio, evidentemente, precisa ser relacionado ao chamado empreendedorismo

–  35  –
Tópicos Especiais

de alto impacto, genuinamente inovador, um novo negócio potencialmente


escalável. Por escalabilidade, entende-se a capacidade de se atingir um ritmo
de crescimento vigoroso, caso receba os recursos necessários. Na prática,
por uma questão de nível de investimento (capital comprometido), e até
mesmo de perfil e valores individuais das novas gerações de empreende-
dores, é o cenário mais comum que as startups estejam fundamentadas em
modelos de negócios totalmente digitais (e, quase sempre, na forma de apli-
cativos para smartphones).
É comum que startups nasçam a partir da modelagem de negócios vol-
tados ao aproveitamento das infinitas possibilidades de apoiar a transfor-
mação digital da sociedade e das demais organizações empresariais. Para as
empresas tradicionais, a transformação digital é a resposta para a necessidade
de reinvenção, ou readaptação, a novas condições do ambiente de negócios.
Portanto, é um fenômeno que transpassa organizações de todos os perfis pos-
síveis. Em maior ou menor grau, seus desafios são imperativos para qualquer
tipo de empreendimento.
Transformação digital envolve, principalmente, a gradativa digitalização
de todos os processos produtivos. Isto é, todas as rotinas de trabalho, sejam
elas de cunho mais técnico, como a própria atividade de chão de fábrica (a
linha de produção), ou processos administrativos, tão convencionais como
finanças, marketing e recursos humanos. E mesmo nas organizações que con-
tinuam a produzir produtos físicos habituais, tais como eletrodomésticos,
automóveis ou artigos esportivos, a mudança na forma como as atividades são
organizadas, a partir das ferramentas digitalizadas, é realmente revolucionária.
Entenda-se que, ao se tratar do significado da digitalização, o que pre-
cisa ser reconhecido é a definitiva ruptura entre um objeto e a sua respectiva
aplicação ou benefício associados. Por exemplo, no caso de uma revista con-
vencional, as folhas de papel empregadas para viabilizar a existência daquele
objeto são as mesmas que trazem a informação escrita, que é essencialmente
o que dá valor àquela revista. Ou seja, caso o aparato físico seja destruído
(perdido, molhado etc), perde-se, junto, a mensagem que ele carrega consigo.
Na área técnica, e nos processos mais voltados à produção propriamente
dita, os recursos de simulação e emulação eletrônicos possibilitam que até as
etapas de protótipos possam ser experimentadas apenas em ambiente virtual,

–  36  –
A tecnologia ao longo do tempo

sem mobilizar maiores recursos nessa etapa do processo de planejamento e


desenvolvimento de produtos que costuma ser tão cara em termos de volume
de investimentos necessários. Um automóvel, por exemplo, pode ser não
apenas projetado de forma virtual (simulado), mas testado (emulado) nesse
mesmo ambiente, antes de começar sua produção de forma física, proporcio-
nando uma incrível economia de recursos e aumento do time-to-market – tão
essenciais, principalmente no caso de negócios de concorrência acirrada.
A preparação da fábrica ganha a possibilidade de só se partir para a aqui-
sição das mais caras máquinas e equipamentos especializados após sucesso nos
testes virtuais (em que vários parâmetros podem ser testados até se encontrar
a configuração ideal para se investir). Processos de manutenção industrial são
otimizados ao máximo, principalmente pelas novas possibilidades de manu-
tenção preditiva com base em tecnologia M2M (comunicação automática
máquina a máquina, ou mesmo componente com máquina). Finalmente,
toda a cadeia produtiva fica melhor sincronizada por meio da comunicação
instantânea dos sistemas informatizados de uma empresa com os sistemas de
seus principais fornecedores, resultando em um fluxo de trabalho mais fluido,
com menor lead-time, mais qualidade (menor retrabalho, sucateamento, des-
perdício etc.) e, com tudo isso expressiva e generalizada redução de custos.
Mas, como já se frisou, não é apenas no processo produtivo direto que
a transformação digital ocorre: ganhos similares se fazem realidade em qual-
quer outro processo administrativo ou indireto da empresa. O departamento
financeiro pode ser digitalizado, com uma integração direta do sistema da
empresa com bancos e demais instituições financeiras, além da própria comu-
nicação automatizada do contas a receber da empresa junto ao contas a pagar
dos seus clientes corporativos, e vice-versa no que tange aos fornecedores.
O escrutínio fiscal por parte dos órgãos públicos em nível federal, esta-
dual e municipal, em ambiente totalmente digital, reduz substancialmente,
quando não eliminar por completo, a necessidade de fiscalizações presen-
ciais. Permeando todos os processos financeiros e contábeis, a tecnologia de
­blockchain redefinirá o papel de instâncias tidas como indispensáveis, como
bancos, que perderão a conotação de canais principais para financiamento das
operações. Principalmente quando o objetivo é o lançamento de produtos e
serviços inovadores, já há algum tempo se tornou comum, via plataformas

–  37  –
Tópicos Especiais

digitais, campanhas de captação de recursos das empresas diretamente junto


aos seus consumidores – entusiastas de uma determinada marca, não raro,
fazem questão de pagar antecipadamente pela solução que a empresa pro-
mete, financiando, assim, todo o processo de pesquisa e desenvolvimento.
Além disso, criptomoedas, como bitcoins e similares, permitirão novas possi-
bilidades de monetização do negócio.
O departamento de recursos humanos pode ser digitalizado, desde o
processo de recrutamento e seleção, passando por capacitação e desenvolvi-
mento, até o desligamento dos profissionais. As possibilidades se ampliam
com recrutamento e seleção on-line: vagas são divulgadas instantaneamente
por um número infindável de canais, a captação de perfis e currículos se torna
tão seletiva e específica quanto for necessário para os talentos procurados, e
as entrevistas e testes complementares podem ser feitos virtualmente, dispen-
sando presença física, ou seja, reduzindo substancialmente os custos envol-
vidos (tanto para empregador quanto para candidato) e tornando o processo
muito mais rápido, confiável e transparente.
Já há algum tempo, é praxe realizar-se inclusive um due dilligence (inves-
tigação aprofundada) da atividade dos candidatos (e dos já funcionários)
nas redes sociais. Treinamentos e formações continuadas, em meio digital,
ampliam a oferta de possibilidades de capacitação e desenvolvimento para os
profissionais da empresa, incluindo as possibilidades de eventos com instru-
tores internacionais sem os tradicionais custos envolvidos na logística conven-
cional (seja de trazer instrutores de fora, seja para mandar participantes para
eventos no exterior). O mapeamento de competências fica mais dinâmico,
oferecendo leituras em tempo real no ambiente das empresas. Avaliações de
treinamento, de todas as instâncias, se tornam facilitadas pelos recursos digi-
tais. Até mesmo o processo de desligamento fica mais eficiente, possibili-
tando feedback (orientação corretora de comportamento e desempenho) e
acompanhamento do profissional durante e até mesmo após o período de
afastamento (útil especialmente em cargos mais estratégicos).
O departamento de marketing pode ser digitalizado, e isso em incontá-
veis frentes de atuação, desde o branding (gestão de reputação da marca), a
publicidade, os estudos de precificação, desenvolvimento e acompanhamento
de mercado, canais diretos e indiretos de distribuição, entre tantas outras

–  38  –
A tecnologia ao longo do tempo

possibilidades. Aliás, é inegável que a digitalização dos processos nas organi-


zações tende irreversivelmente, ao que tudo indica, a esvaziar cada vez mais
os canais indiretos e potencializar os canais diretos – a tecnologia digital faz
os intermediários serem cada vez mais dispensáveis. O marketing direto é
profundamente potencializado em ambiente digital. Nesse novo mundo em
irreversível digitalização, o gerenciamento de reputação ganha uma função
especialmente crítica: afinal, se antes, no modelo convencional, prevalecia a
máxima de que “o cliente satisfeito recomenda para um, e o cliente insatis-
feito fala mal para dez”, diante do poder concedido à voz dos consumidores
nos ambientes digitais, é bem admissível esperar que um descontente espalhe
rapidamente sua indignação para mil, 10 mil, 100 mil ou mais pessoas.
Por assim dizer, em um mundo cada vez mais digitalizado, as empresas
estão profundamente expostas, sendo que mesmo pequenos deslizes e falhas
podem macular rápida e amplamente uma organização. Por outro lado, se
uma empresa se encontra, sob essa perspectiva, em uma delicada e sensível
posição na relação com os consumidores e sociedade em geral, seus concor-
rentes encontram-se na mesma situação. E é neste ponto que as organizações
podem aproveitar a valiosa contribuição dos processos de inteligência com-
petitiva: o meio digital permite, a custo muito baixo ou praticamente zero,
monitorar constantemente as movimentações de mercado dos concorrentes.
Essa leitura de ações e iniciativas do competidor, quando realizada em
tempo hábil, pode promover um maior grau de inovação nas empresas, pela
disputa constante de quem lança primeiro (ou lança melhor) determinada
novidade. Ressalte-se, a tempo, que não há nada de ilegal nesse tipo de inicia-
tiva: como bem descrito por Reis (2008), diferente de espionagem industrial
(comportamento antiético ou mesmo criminoso), a inteligência competitiva
apenas se aproveita da competência que uma organização possui de fazer a lei-
tura de informações que estão disponíveis de forma livre e pública a respeito
dos concorrentes (sites, blogs, redes sociais etc.) – e aí empregar essas informa-
ções como importantes subsídios de informação para seus próprios processos
de tomada de decisão em relação à tecnologia e aos negócios.
A listagem das possibilidades é virtualmente infinita: qualquer setor
de uma organização pode ser profundamente transformado, em termos de
produtividade, com seus processos funcionais digitalizados: suporte de TI,

–  39  –
Tópicos Especiais

jurídico, controladoria, manutenção etc. Aliás, concordando com Ramos


et al. (2012), é impossível deixar de reconhecer a importância que sistemas
informatizados, como os mais modernos sistemas de ERP, CRM, GED, entre
outros, têm nessas organizações, sendo peças centrais do processo de completa
digitalização: a tecnologia da informação é a responsável por potencializar o
valor da informação como insumo produtivo básico das empresas digitais.

2.3 Qual será a próxima revolução industrial?


Ao que tudo indica, ao se considerar o direcionamento das mais diversas
plataformas tecnológicas da Indústria 4.0, com especial destaque ao que vem
se alcançando com a tecnologia da informação, é bastante plausível esperar que
a Indústria 5.0 tenha, como maior característica, trabalho sem envolvimento
algum de pessoas. Sem dúvida alguma, um acontecimento que merece, sim,
ser reconhecido como verdadeira revolução industrial. Um inequívoco ponto
de singularidade: alcançar-se, finalmente, a dissociação definitiva e irreversível
entre trabalho e atividade humana. As máquinas, ou coisas (na falta de termo
que melhor defina a nomenclatura que se dará às próximas gerações de artefatos
dotados de plena inteligência artificial) farão o labor pelas pessoas.
O mundo como se conhece até então será, claro, totalmente remo-
delado. E existem vários indícios que corroboram a ideia de que o ser
humano não está condenado a trabalhar para sempre. O primeiro deles
passa por uma reflexão acerca de um insuspeito conceito dos sistemas
industriais: a ergonomia.
Quando se fala em ergonomia, é comum que as primeiras imagens que
venham à tona sejam do correto encosto de uma pessoa sentada em uma
cadeira, altura da mesa em relação às mãos, ângulos recomendados de pernas
e braços em posições de trabalho em pé ou sentado, ou mesmo aspectos ine-
rentes à iluminação, ventilação, equipamentos de proteção individual e afins.
Sim, isso diz respeito, obviamente, à ergonomia; contudo, esse termo tem
uma conotação muito mais ampla: trata-se, enfim, do estudo científico das
relações entre homem e máquina em um ambiente de trabalho. Esse estudo
procura promover, fundamentalmente, as condições ideais de segurança e de
eficiência no modo como homem e máquina interagem mutuamente.

–  40  –
A tecnologia ao longo do tempo

A ergonomia se ocupa de otimizar as condições de trabalho das pessoas,


mediante métodos e técnicas que configurem um melhor desenho industrial
(layout das instalações). Portanto, uma premissa básica da ergonomia, que
vem progressivamente moldando as condições de trabalho desde a época dos
desproporcionais e agressivos ambientes produtivos da Primeira Revolução
Industrial, é que a máquina se adapta ao homem – e não o contrário.
Nesses termos, todas as características essenciais de um sistema produ-
tivo, como capacidade produtiva, carga horária das jornadas de trabalho, pra-
zos de entrega, design de ferramentas, especificação dos comandos das máqui-
nas e equipamentos, procuram ser cada vez mais compatíveis ao que um ser
humano consegue suportar. Uma pessoa, como ser biológico, organismo
vivo, tem, essencialmente, suas limitações. A energia é limitada, bem como a
velocidade, o fôlego, a força, a precisão, a resistência, a memória, entre tantos
outros aspectos.
Dessa forma, o que ocorre é que os sistemas de produção se moldam
às capacidades e limites humanos. Máquinas e ferramentas, é bem verdade,
atuam como extensões da capacidade humana: com elas, é possível conseguir
a maior força, a maior precisão, o maior alcance. Mas, é claro que tais artefa-
tos ainda são operados por seres humanos, o que ainda delimita a capacidade
em vários outros atributos. Por exemplo, uma colheitadeira aumenta sobre-
maneira a produtividade de uma operação agrícola, comparado ao trabalho
braçal de uma pessoa. Contudo, não é possível deixar uma colheitadeira ope-
rando em capacidade máxima, 24 horas por dia, porque a supervisão humana
necessária não consegue acompanhar essa intensidade. Ou, ao menos, não era
possível, pois a tendência da automação é, gradativamente, ir dispensando o
envolvimento humano, para que as máquinas produzam por conta própria.
O impacto da inteligência artificial sobre a ergonomia é total: uma vez
que as máquinas não precisem mais ficar condicionadas aos limites humanos,
a produtividade alcançará novos patamares. Ao se atingir o momento em que
máquinas projetem outras máquinas, mais eficientes, a intervenção humana
se tornará supérflua. Se o que se projeta para o futuro é o cenário em que toda
a atividade laboral será autônoma, o que já é há algum tempo presente são as
não tão tênues evidências de que essa revolução já iniciou.

–  41  –
Tópicos Especiais

No mundo virtual, há que se admitir que a internet funciona da forma


como se conhece por causa dos mecanismos autônomos que atuam 24 horas
por dia, 7 dias por semana, na forma dos bots, os robôs virtuais que mantêm
toda a estrutura funcional da rede mundial de computadores. Esses bots ainda
são peças de software programados por seres humanos, mas a um passo de se
alcançar bots aprimorados por outros bots, com reconhecimento autônomo
de novas necessidades e funções a cumprir. É bastante razoável esperar que a
completa liberdade humana frente ao trabalho se alcance primeiramente em
terreno virtual, e que, na sequência, a inteligência artificial presente na forma
da rede de computadores assuma todo o labor do mundo físico. Obviamente,
braços físicos são necessários para que sistemas artificiais realizem atividades
como a de um veterinário, de um pintor, de um mecânico ou de um profes-
sor. Tal atuação física sobre o mundo físico se dará, certamente, com robôs,
drones e androides das mais variadas formas, na forma de corpo tangível da
inteligência artificial, como preconiza Singh (2014).
Como lembra Van Opstal (2010), um dos princípios fundamentais dessa
visão de futuro é a Lei de Moore, batizada dessa forma em reconhecimento
ao trabalho do engenheiro da Intel que postulou que a capacidade dos com-
putadores dobra em um período de 1,5 a 2 anos. De fato, acompanhando
toda a trajetória histórica da computação, desde o tempo das máquinas pro-
gramáveis à base de cartões perfurados (para a leitura dos 0 e 1 de linguagem
elementar de programação) até os convencionais computadores baseados em
microchips de silício, a Lei de Moore se provou válida. Várias foram as pla-
taformas tecnológicas que permitiram esse salto exponencial da tecnologia
da informação: relés, válvulas, transistores, circuitos integrados etc. Parece
bastante certo que a inteligência artificial projetada para o futuro não será
arquitetada na tecnologia atual de microchips de silício, mas em outras plata-
formas ainda a serem definidas pela indústria.
Uma tecnologia candidata ao posto de próxima geração da ciência da
computação é o da computação quântica: uma nova estrutura que redefine
os elementos mais básicos da eletrônica digital (os 0 e 1) a partir da tentativa
de reproduzir as propriedades quânticas das partículas atômicas, como sobre-
posição, interferência, o spin de um elétron (o lado para o qual ele gira). Na
prática, isso significa revolucionar drasticamente o clássico modelo de Von
Neumann, que estabelece as tradicionais figuras de processador de um lado,

–  42  –
A tecnologia ao longo do tempo

memória de outro, e barramento de comunicação entre eles a partir de um


processamento sequencial. Isso significa computadores exponencialmente
mais poderosos que os mais avançados do paradigma tecnológico atual. Isso é
importante, porque fornece o aparato essencial para suportar uma inteligên-
cia artificial de alto desempenho.
Dessa forma, é bem provável que a Lei de Moore continue sendo
válida pelas próximas décadas, o que resulta em consequências realmente
espantosas. Por volta de 2010, um computador comercial de US$ 1.000,00
já possuía capacidade, em termos de cálculos por segundo, equivalente ao
cérebro de um pequeno mamífero, como, por exemplo, um rato. A projeção
é que, em torno de 2025, um computador de mesmos US$ 1.000,00 já
possua capacidade de número de cálculos por segundo similar a um cérebro
humano. Provavelmente próximo a 2040, pela Lei de Moore, um computa-
dor de US$ 1.000,00 tenha poder de cálculos por segundo superior a todos
os bilhões de cérebros humanos existentes no planeta. É nessa época que se
espera um sistema de inteligência artificial realmente à altura do profundo
significado que a palavra inteligência representa para os seres humanos.
Obviamente, usar número de cálculos por segundo como único atributo
de medida de capacidade de uma mente artificial parece ser bastante raso. Há
outros elementos que distinguem uma mente humana e um sistema artificial.
Como explica Buonomano (2011), a capacidade de reconhecer padrões é
marcante em seres vivos, e é um elemento essencial da inteligência humana:
uma vez que se aprenda que uma letra A, por exemplo, é formada pela junção
de determinadas linhas em uma sobreposição específica, o cérebro humano já
é capaz de entender uma letra A escrita nos mais variados tamanhos, fontes,
inclinações, cores. Isso se dá porque o pensamento de associação a partir de
padrões é característico da inteligência biológica. Não por acaso, os recursos
de captcha (letras e números em imagens distorcidas) na internet são usados
para provar que é uma pessoa que está acessando uma página, e não um
robô. É, portanto, uma limitação típica da tecnologia computacional atual,
mas não necessariamente da próxima plataforma tecnológica. Uma vez que
se alcance a capacidade de sistemas artificiais reconhecerem padrões de forma
tão natural quanto um ser humano, a inteligência artificial começará a ganhar
os contornos do que se projeta para as próximas décadas.

–  43  –
Tópicos Especiais

Relatório do World Economic Forum (2015) revela os resultados de uma


pesquisa realizada com 800 especialistas e executivos das maiores empresas de
tecnologia, sobre o que se pode esperar na indústria para um horizonte realmente
curto: para eles, entre outras assombrosas projeções, até 2025 será realidade uma
cadeira do conselho executivo de uma grande corporação ser ocupada não por um
dirigente humano, mas por uma inteligência artificial. Isso é altamente emblemá-
tico: significa que já se terá alcançado o estágio em que negócios e empreendi-
mentos serão decididos por máquinas – não mais apenas decisões simplórias em
ambiente de chão de fábrica, como aprovar ou não uma peça.
Até chegar esse momento, a fase da transição entre a Indústria 4.0 e
a Indústria 5.0 será caracterizada, paradoxalmente, pela integração homem-
-máquina em uma escala nunca antes vista. Organismos cibernéticos, con-
vergindo sistemas biológicos com sistemas artificiais, não são mais peças de
ficção científica. Entre as conquistas memoráveis dos últimos anos, tetraplé-
gicos recuperaram a capacidade de locomoção com exoesqueletos metálicos
comandados pelo cérebro humano; a Samsung patenteou a primeira webcam
integrada a uma lente de contato; e ovários artificiais (por ora, de ratos), pro-
duzidos em impressora 3D, provaram-se funcionais. Como preconiza a ergo-
nomia, é a máquina adaptando-se ao homem: sistemas artificiais (criações da
humanidade) trazendo melhor qualidade de vida às pessoas.
Quando as máquinas assumirem o desenvolvimento por conta própria
das tecnologias de próxima geração, a libertação do ser humano da necessi-
dade de trabalhar será natural. Ao longo dos próximos anos, situações curiosas
ocorrerão: será que o interlocutor do outro lado do telefone é um ser humano
ou um robô? Uma inteligência artificial que se passe por uma pessoa de forma
tão eficiente transmitirá, entre outros aspectos, naturalidade e credibilidade
nas relações entre homens e máquinas. Pensar como um ser humano, reagir
como um ser humano, ter a sensibilidade de um ser humano.

Conclusão
Lord Kelvin, matemático, físico e presidente da Royal Society Britânica,
em palestra realizada em 1900 para a British Association for the Advancement
of Science, deslumbrado pelos avanços tecnológicos que o mundo alcançara,

–  44  –
A tecnologia ao longo do tempo

afirmou: “agora, não há mais nada de novo para ser descoberto”. Se o fato,
isoladamente, parece risível, serve como um importante alerta para o momento
que se vive no presente, diante das expectativas futuras mais imediatas. Não
parece razoável que o crescimento exponencial se mantenha nesse mesmo ritmo
para sempre: provavelmente, limitações das quais nem se faz ideia atualmente
possam afetar esse comportamento. Já se teria extrapolado o potencial de novi-
dades tecnológicas? A Quarta Revolução Industrial mal começou, a inteligência
artificial de fato ainda está para ser atingida, então é com muita segurança que
se pode afirmar que Lord Kelvin está mais errado do que nunca.

Ampliando seus conhecimentos

Para Barreto (2012), uma nova tecnologia é um conjunto de


conhecimentos com elevado teor de novidades relaciona-
das a este conhecimento. É por essa razão que as novas tec-
nologias estão quase sempre associadas à microinformática e
às telecomunicações.

A transferência de tecnologia e a
transferência de inovação
(BARRETO, 2012, p. 3)

[...]
À toda tecnologia, se associa uma considerável quanti-
dade de informação. Esta informação, quando assimilada
pelo indivíduo, grupo ou sociedade, gera um conheci-
mento que permite a adoção ou a rejeição de uma deter-
minada técnica.
A adoção de uma tecnologia requer, portanto, a absorção
de determinado conhecimento e uma decisão de iniciar,
modificar ou aperfeiçoar um produto ou serviço, seu pro-
cesso de produção ou de comercialização. Quando se

–  45  –
Tópicos Especiais

estabelece essa cumplicidade de intenções, um processo de


absorção e um processo de decisão, pode-se dizer que se
efetivou uma inovação em determinada realidade. A reali-
dade reconheceu e aceitou a introdução da novidade. A
finalidade básica de uma tecnologia e sua adoção é modi-
ficar uma determinada realidade, aumentando o bem-estar
dos indivíduos que nela habitam.
[...]
A todo processo que resulta em uma inovação, está asso-
ciado um sistema de informação, sendo que a inovação só
é aceita como tal se a informação sobre a tecnologia que
promove a inovação também for aceita como tal. Todo o pro-
cesso se efetiva na medida em que se efetive uma produção
de conhecimento no indivíduo, no grupo ou na sociedade.
[...] Qualquer movimentação tecnológica que não realize um
processo de produção de conhecimento não completa a
transferência [de tecnologia].

Atividades
1. Por que as tecnologias conseguem o efeito de desenvolvimento exponencial?

2. Em quais áreas da empresa é possível ocorrer a transformação digital?

3. Por que motivo uma cadeia produtiva interconectada ao máximo re-


presenta redução generalizada de custos?

4. O que leva o ser humano, em dado momento histórico futuro, a po-


der ser completamente dispensável do conceito de trabalho?

–  46  –
3
TI para pessoas
com deficiência

Se a tecnologia da informação é tão revolucionária no que


diz respeito ao aprimoramento de todas as demais tecnologias, às
novas formas como as organizações se estruturam e produzem e às
próprias disrupções sociais, entendidas como mudanças radicais no
comportamento e hábitos das pessoas, é inevitável que a TI sirva de
plataforma essencial para um sem número de possibilidades referen-
tes ao mundo das pessoas com deficiência (PcD).
Tópicos Especiais

Por conceito, tecnologias são conhecimentos aplicados, essencialmente


úteis na resolução de demandas práticas, problemas, desafios e necessidades
que o mundo enfrenta. Algumas necessidades são especiais, no que se refere
às pessoas com algum tipo de deficiência: o mundo convencional não está
100% preparado para atendê-las, cabendo ajustes de natureza igualmente
especial para melhor acomodar uma distinta parcela da população, que é real-
mente expressiva. Ao fazê-lo, novas tecnologias, regidas quase sempre pela
tecnologia da informação, cumprem um valioso papel social, de devolver a
dignidade das pessoas. É assim que um mundo cada vez mais tecnológico
pode se tornar, efetivamente, um mundo cada vez mais humano.

3.1 O mercado PcD


O público PcD é numeroso. O atendimento às suas demandas não
fica limitado apenas a ações filantrópicas e humanitárias, mas também pode
ser um importante e legítimo mercado a ser explorado pelas organizações
empresariais. Não há nada de antiético em vender produtos e serviços para
esse perfil de consumidor, ou seja, lucrar com o atendimento de uma neces-
sidade especial. Afinal, um determinado produto ou serviço pode melho-
rar a qualidade de vida de uma pessoa com deficiência, e isso pode ser a
base de sustentação do sucesso do modelo de negócio de algumas empresas.
Empresas existem para atender as necessidades de seu público consumidor:
algumas organizações podem se especializar nesse segmento específico para
operar seus negócios.
Segundo o Relatório Mundial sobre a Deficiência, da World Health
Organization (2011), por várias décadas estimava-se que a parcela da popu-
lação com deficiência consistia em 10% da população mundial. Contudo,
esse número foi atualizado para cerca de 15% de todas as pessoas – e parece
estar crescendo continuamente. É um aumento expressivo, que pode ser
explicado por fatores como envelhecimento da população, rápida difusão
de doenças crônicas (tais como diabetes, doenças cardiovasculares, câncer e
distúrbios mentais), além do próprio aprimoramento metodológico no que
diz respeito à precisão com que se pode detectar e mensurar deficiências.
Destaque-se, ainda, que algumas fontes relacionadas no relatório da World
Health Organization (2011) chegam mesmo a considerar que existam pelo

–  48  –
TI para pessoas com deficiência

menos 1 bilhão de pessoas que apresentam algum tipo de limitação física e/


ou mental, das quais pelo menos 200 milhões experimentam sérias limitações
funcionais no seu dia a dia.
Em todas as partes do mundo, o fato é que as pessoas com deficiência
apresentam piores perspectivas de saúde, níveis inferiores de escolaridade,
participação econômica diminuída, o que, inevitavelmente, conduz a taxas
de pobreza muito mais elevadas, quando se compara à população sem defi-
ciências. Várias explicações procuram esclarecer o fenômeno, e uma delas é o
entendimento de que as pessoas com deficiência enfrentam inúmeras barrei-
ras no acesso a direitos básicos, como saúde, educação, emprego, transporte e
informação. Essas dificuldades são ainda mais exacerbadas em comunidades
mais pobres. Portanto, tratar de tecnologias voltadas a pessoas com deficiên-
cia envolve, necessariamente, discutir inclusão e acessibilidade, para que uma
vida de conforto, saúde e dignidade seja realidade para todas as pessoas, defi-
cientes ou não.
A deficiência é inerente à própria condição humana. É certo que quase
todas as pessoas estarão, temporária ou permanentemente, incapacitadas em
algum momento da vida. Aquelas que conseguirem alcançar idade mais avan-
çada experimentarão crescentes dificuldades para as funções mais básicas do
cotidiano. A deficiência é uma condição complexa: as medidas e iniciativas
tomadas para tentar superar as desvantagens associadas à deficiência costu-
mam ser múltiplas e sistêmicas. Elas variam de acordo com o contexto, e em
muitas situações a resposta e tratamento necessários acabam sendo individua-
lizados, caso a caso.
Segundo a World Health Organization (2011), a Classificação
Internacional de Funcionalidade, Deficiência e Saúde (CIF) define incapaci-
dade como um termo amplo para deficiências, limitações às atividades e restri-
ções à participação social. A incapacidade diz respeito aos aspectos negativos da
interação entre indivíduos com determinadas condições de saúde (tais como
paralisia cerebral, síndrome de Down ou depressão) e fatores pessoais e ambien-
tais (tais como atitudes negativas, meios de transportes e prédios públicos ina-
cessíveis e apoio social limitado).
De acordo com as pesquisas conduzidas pela World Health Survey
(2011), aproximadamente 785 milhões de pessoas (15,6% da população)

–  49  –
Tópicos Especiais

com 15 anos ou mais convivem com alguma forma de deficiência, enquanto


a Global Burden of Disease chega a estimar algo em torno de 975 milhões de
pessoas (19,4% da população). Desse grupo, a World Health Survey estima
que 110 milhões de pessoas (2,2% da população) possuem disfunções graves,
enquanto a Global Burden of Disease estima esse número em 190 milhões
(3,8% da população). É nessa categoria que estão relacionadas condições
como a tetraplegia, a depressão grave e a cegueira. Somente a Global Burden
of Disease mensura a a deficiência na infância (0 a 14 anos), a qual está esti-
mada em 95 milhões de crianças (5,1% do total), das quais 13 milhões (0,7%
do total) possuem formas graves de deficiência.
A ocorrência de pessoas com deficiência é heterogênea mundo afora. Os
padrões de deficiência em um dado país são influenciados por tendências nas
condições gerais de saúde e nas tendências ambientais, dentre outros fatores
– aí incluídos acidentes automobilísticos, desastres naturais, conflitos, dieta e
abuso de drogas. Reconheça-se que perspectivas estereotipadas da deficiência
destacam os usuários de cadeira de rodas e alguns poucos grupos considera-
dos tradicionais, tais como as pessoas cegas e surdas. Contudo, a verdade é
que a experiência da deficiência resultante da interação entre condições de
saúde, fatores pessoais e ambientais varia amplamente. Apesar de a deficiência
estar relacionada a desvantagens pessoais, nem todas as pessoas com deficiên-
cia sofrem igualmente essas desvantagens.
Mulheres com deficiência sofrem a discriminação por gênero, assim
como demais situações práticas conhecidas por barreiras incapacitantes. Taxas
de matrícula nas escolas variam entre as deficiências, sendo que crianças com
deficiência física, geralmente, têm mais acesso à escola do que aquelas que
sofrem de deficiência intelectual ou sensorial. Os mais excluídos do mercado
de trabalho, usualmente, são aqueles com distúrbios de saúde mental ou inca-
pacidades intelectuais. As pessoas com deficiência grave sofrem frequente-
mente uma maior desvantagem, em uma proporção direta entre o grau de
disfunção que possuem e a dificuldade que enfrentam.
A deficiência afeta, ainda, as populações vulneráveis de uma forma des-
proporcional. As evidências coletadas pela World Health Survey indicam cla-
ramente uma prevalência maior de deficiência em países de baixa renda do
que em países de renda mais alta. No geral, os mais pobres, mulheres e os
mais idosos têm maior peso na população de pessoas com deficiência.
–  50  –
TI para pessoas com deficiência

As pessoas com baixa renda, que estão desempregadas (ou subempre-


gadas) ou possuem baixa qualificação profissional estão expostas a um risco
muito mais alto de deficiência. Crianças de lares mais pobres e aquelas origi-
nárias de grupos étnicos minoritários estão expostas a um risco significativa-
mente maior de deficiência do que outras crianças.
O ambiente tem um papel bastante importante no que tange a facilitar
ou a restringir a participação social das pessoas com deficiência. O relatório
da World Health Organization (2011) documenta diversas evidências sobre
as barreiras incapacitantes, incluindo, principalmente:
22 Políticas e padrões inadequados – a elaboração de políticas públicas
nem sempre leva em consideração as necessidades das pessoas com
algum tipo de deficiência. Ou, então, as políticas e os padrões exis-
tentes simplesmente não são cumpridos. Por exemplo, na área das
políticas de educação inclusiva, uma pesquisa envolvendo 28 países
participantes da Education for All Fast Track Initiative Partnership
descobriu que 18 desses países (mais de 64% deles) disponibili-
zavam poucas informações sobre suas estratégias de inclusão das
crianças com deficiência nas escolas, ou não faziam referência
alguma à deficiência ou à inclusão. As falhas mais comuns nas
políticas educacionais incluem a falta de incentivos fiscais, dentre
outros tipos de incentivos, para que as crianças com deficiência fre-
quentem as escolas, assim como a falta de proteção social e serviços
de apoio para crianças com deficiência e suas famílias.
22 Atitudes negativas – crenças e preconceitos servem como barreiras
à educação, ao emprego, aos serviços de saúde e à participação
social. Por exemplo, determinadas atitudes de professores, admi-
nistradores de escolas, outras crianças e até mesmo de membros
da família afetam a inclusão de crianças com deficiência nas esco-
las regulares. Há um juízo equivocado dos empregadores de que
as pessoas com deficiência são menos produtivas do que as suas
contrapartes sem deficiência, e a ignorância a respeito dos ajustes
disponíveis para os ambientes de trabalho acabam por limitar as
oportunidades de emprego.

–  51  –
Tópicos Especiais

22 Falhas na oferta de serviços – pessoas com deficiência são particu-


larmente vulneráveis a falhas em serviços tais como saúde, reabilita-
ção, apoio e assistência. Pesquisas realizadas na Índia comprovaram
que após o fator custo como barreira, a falta de serviços na região era
a segunda razão mais frequente para que as pessoas com deficiência
não utilizassem as instalações médicas.
22 Problemas na prestação de serviços – uma má gestão dos serviços
e funcionários mal preparados afetam a qualidade, acessibilidade
e adequação dos serviços às pessoas com deficiência. Dados de 51
países da World Health Survey revelaram que pessoas com deficiên-
cia são duas vezes mais propensas a relatar inadequações nas com-
petências dos prestadores de serviços de saúde no atendimento às
suas necessidades, quatro vezes mais propensas a serem maltratadas
e quase três vezes mais propensas a ter serviços necessários de saúde
negados. Muitos trabalhadores de apoio individual são mal pagos e
possuem treinamento inadequado (ou nenhum treinamento).
22 Financiamento inadequado – não raro, recursos alocados na imple-
mentação de políticas e planos são inadequados. A falta de finan-
ciamento efetivo é um grande obstáculo aos serviços sustentáveis ao
longo de todos os níveis de renda. Por exemplo, em países de alta
renda, entre 20% e 40% das pessoas com deficiência geralmente
não têm suas necessidades atendidas no que tange a assistência em
atividades diárias. Em muitos países de renda baixa e média, os
governos não podem proporcionar serviços adequados, além de
que os prestadores comerciais de serviços estão indisponíveis ou
não são custeáveis pela maior parte dos lares. As análises da World
Health Survey demonstraram, ainda, que as pessoas com deficiên-
cia possuem maior dificuldade do que pessoas sem deficiência para
obter isenções ou descontos nos custos de serviços de saúde.
22 Falta de acessibilidade – muitos ambientes construídos (incluindo
instalações públicas), sistemas de transporte e comunicação não são
nada acessíveis. A falta de acesso ao transporte é uma razão fre-
quente pela qual as pessoas com deficiência são desencorajadas a
procurar trabalho ou são impedidas de acessar os serviços de saúde.

–  52  –
TI para pessoas com deficiência

Pouca informação está disponível em formatos acessíveis, e muitas


necessidades de comunicação das pessoas com deficiência são igno-
radas. Pessoas surdas geralmente enfrentam problemas para acessar
serviços de interpretação de línguas de sinais, pois muitos países
não têm intérpretes qualificados. Pessoas com deficiência apresen-
tam taxas significativamente inferiores no que diz respeito a utilizar
tecnologias da informação e comunicação, comparadas às pessoas
sem deficiência. Em alguns casos, o público PcD pode ser comple-
tamente impedido de acessar mesmo os produtos e serviços mais
básicos, como telefone, TV e internet.
22 Falta de consultas e envolvimento – muitas pessoas com defi-
ciência estão excluídas do processo de tomada de decisões em
assuntos diretamente relacionados às suas próprias vidas como,
por exemplo, quando pessoas com deficiência não têm direito à
escolha e ao controle sobre a forma como o apoio lhes é oferecido
em suas residências.
22 Falta de dados e evidências – uma falta de dados rigorosos e compa-
ráveis sobre a deficiência e evidências sobre programas que funcio-
nam pode prejudicar o entendimento e a ação. Conhecer os núme-
ros das pessoas com deficiência e suas circunstâncias pode melhorar
os esforços para a remoção das barreiras incapacitantes e oferecer
serviços que permitam que as pessoas com deficiência participem.
Por exemplo, precisam ser desenvolvidas melhores condições sobre
o ambiente e seu impacto nos diferentes aspectos da deficiência
para facilitar a identificação de intervenções ambientais eficientes
em custo.
Portanto, como alertam Miesenberger et al. (2004), tecnologias como a
tecnologia da informação, direcionadas às soluções das demandas das pessoas
com deficiência, atacam não apenas a deficiência em si que a pessoa apre-
senta, mas também o contexto social que torna aquela condição desfavorável
à dignidade humana.

–  53  –
Tópicos Especiais

3.2 Tecnologias voltadas às


necessidades especiais físicas
Para a maioria das pessoas, sentar em frente a um computador para traba-
lho ou entretenimento é uma tarefa bastante simples e prática. Mas o mesmo
não pode ser dito em relação a usuários cegos, amputados e com várias outras
necessidades especiais de ordem física. Miesenberger et al. (2004) entendem
que, para essas pessoas, o uso de um computador convencional é, no mínimo,
um exercício de frustração.
Felizmente, toda uma nova geração de gadgets, pequenas ferramentas
que se agregam a um ambiente operativo maior, tanto na forma de hardware
quanto software, vem tornando mais fácil para as pessoas com deficiência uti-
lizar computadores, integrando-se, assim, ao mundo digital. Tais ferramentas
possibilitam às pessoas com deficiência interagir melhor com os outros cole-
gas de trabalho (com ou sem deficiência) e, enfim, fazer o trabalho que precisa
ser feito sem enroscar nos obstáculos que as tecnologias mais antigas (tradi-
cionais) tinham imposto. Já há algum tempo, tornou-se realidade, por exem-
plo, um contador cego poder programar o software de leitura de tela para ler
dados de uma planilha em voz alta para ele, e um programador tetraplégico
ou com outro tipo de impedimento manual poder escrever seus códigos de
programação, controlando seu computador apenas com o movimento sutil
de seus músculos do pescoço.
A TI inclusiva se fundamenta, essencialmente, no fato de que um PC é
um dispositivo de computação geral, adaptável a diferentes formas de entrada
e saída. Para o computador, não faz a mínima diferença, por exemplo, se o
usuário está controlando o cursor na tela com seus pés ou movimentos ocula-
res, em vez de um mouse e teclado tradicionais.
Como destacam Ramos et al. (2012), são diversos os produtos de aces-
sibilidade à informática que ajudam os deficientes a tirar a melhor expe-
riência possível do mundo da computação. Esses dispositivos usam uma
variedade de tecnologias recentes, estando disponíveis comercialmente em
uma ampla faixa de valores: alguns custam milhões de dólares, outros são
totalmente gratuitos.

–  54  –
TI para pessoas com deficiência

A tecnologia de mensagens musculares é uma dessas maravilhas tecnoló-


gicas que pareceriam muito improváveis de existir há pouco tempo. Projetado
para as pessoas que possuem membros amputados, paralisados ​​ou com qual-
quer outro tipo de dificuldade funcional, o sistema oferece a grande con-
veniência de possibilitar o uso do computador sem que o usuário tenha de
recorrer a aparatos mecânicos volumosos e pesados. Os produtos com essa
tecnologia substituem o teclado e o mouse tradicionais por um pequeno dis-
positivo instalado diretamente na pele do usuário.
Essa é a chamada tecnologia eletromiográfica, que serve para detectar,
amplificar e transmitir os pequenos impulsos elétricos produzidos pelo orga-
nismo humano, que são enviados do cérebro para o músculo. Polivalente, esse
recurso funciona com perfeição em muitas áreas diferentes do corpo humano,
incluindo o pescoço e o rosto, o que é bastante importante especialmente no
caso dos tetraplégicos. Quem não pode usar normalmente os pés e as mãos,
com essa tecnologia, pode contar com as alternativas de dar uma piscadela ou
até mesmo sorrir diante da webcam para que isso seja processado como um
click ou uma tecla pressionada.
Por meio dessa tecnologia, um eletrodo (descartável) adere à pele da
pessoa. Normalmente, um pequeno transmissor bluetooth1 fica posicionado
na parte mais alta, como pescoço ou testa do usuário. No computador, um
software específico faz o trabalho de interpretar a entrada proporcionada pelo
usuário e convertê-la em comandos reconhecíveis pelo sistema operacional.
Existe calibragem para que diferentes perfis de usuários consigam operar o
sistema, e assim, dispor de uma experiência normal de uso de computador,
como abrir aplicativos, navegar na internet e, claro, poder digitar textos à
vontade. Muitos fabricantes desse tipo de sistema oferecem um período grátis
de experimentação, como, por exemplo, algumas semanas de utilização sem
compromisso (empréstimo), de forma a deixar a pessoa mais segura de reali-
zar o investimento nesse tipo de solução.
1 Nome dado à tecnologia de comunicação sem fio que permite transmissão de dados e arqui-
vos de maneira rápida e segura por meio de aparelhos de telefone celular, notebooks, câmeras
digitais, consoles de videogame digitais, impressoras, teclados, mouses e até fones de ouvido,
entre outros equipamentos.

–  55  –
Tópicos Especiais

Existe também a tecnologia de controle por movimentação ocular, útil


em casos ainda mais graves de paralisia, nesse caso, um computador é operado
pela simples movimentação dos olhos do usuário. Normalmente, os equipa-
mentos envolvidos adotam uma câmera infravermelha de alta precisão, que é
montada atrás de um monitor extra (uma tela de apoio, que mostra símbolos
de comandos especiais), dispondo ainda de uma pequena unidade externa de
processamento que é responsável por traduzir a direção do olhar da pessoa
que opera o computador em uma ação específica na tela.
Assim, com essa tecnologia, um computador é operado com dois moni-
tores (lado a lado): um deles é o monitor convencional, e o outro é o monitor
de leitura dos movimentos oculares do usuário. Após a devida calibragem
para se adaptar a cada indivíduo com deficiência que acesse esse sistema,
tudo o que o usuário precisa fazer é olhar diretamente para o monitor de
apoio e realizar seus comandos. Esse monitor especial apresenta, em sua tela,
o desenho de um teclado, os botões de um mouse, um sintetizador de voz
(dispondo de uma série de frases pré-programadas) e até mesmo botões espe-
ciais para funções como ligar luzes, acionar dispositivos (como impressora e
scanner), entre outros. O funcionamento do sistema se baseia, portanto, em
reconhecer o local específico da tela do monitor especial que o usuário está
olhando, processando um pressionar de tecla ou click de mouse quando o
usuário permanece olhando para aquele ponto específico por um determi-
nado tempo. No exterior, é comum encontrar planos de saúde que subsidiam
parte do investimento no equipamento, por ele ter um custo significativo
(usualmente, custa alguns milhares de dólares).
A tecnologia conhecida por sip and puff (algo como “sorver e assoprar”)
é outra interessante possibilidade para pessoas que podem utilizar a boca,
bochechas, língua ou queixo para controlar o cursor na tela por meio de um
joystick especial. Este é oco (um cano), por razões especiais: soprando ou sor-
vendo ar, o sistema reconhece comandos específicos. Essa combinação de ar
entrando e saindo é parametrizável, de tal forma que, muito além de servir de
click de mouse, a função permite, com combinações específicas, entrar letras,
números e pontuações. Em alguns equipamentos, os fabricantes programam
até mesmo o reconhecimento de código Morse: sorver ar significa ponto, e
assoprar é associado a traços, por exemplo.

–  56  –
TI para pessoas com deficiência

No caso da tecnologia de detecção de movimentos da cabeça


(head-motion detectors), um pequeno scanner de leitura tridimensional no
topo do monitor (que bem poderia ser confundido com uma webcam, dada
sua aparência típica) acompanha um ponto de referência na cabeça do usuá-
rio. Esse ponto, na forma de um adesivo especial (parecido com o que é
usado na indústria cinematográfica para que atores reais produzam os efei-
tos de movimento de criaturas criadas em ambiente digital), pode ser fixado
na testa do usuário, ou mesmo em óculos, chapéu ou headset de microfone.
Conforme a cabeça da pessoa se movimenta, de um lado para outro, para
frente e para trás, movimento circular etc., os comandos são traduzidos, por
software específico, para instruções interpretáveis pelo computador. Esses sis-
temas são usualmente encontrados em preços mais acessíveis: para compen-
sar, apesar do recurso de calibragem, não costumam ter tanta precisão quanto
as tecnologias descritas anteriormente.
A tecnologia de computador operado por luz é bastante inovadora: um
dispositivo que dispara um feixe visível de raio laser é acoplado na cabeça do
usuário, que dispara essa luz, simplesmente com o movimento da cabeça,
contra um teclado especial, que reconhece o teclar (e mesmo o clicar de um
mouse) conforme a luz incide nas teclas especiais desse dispositivo (normal-
mente, fixado logo abaixo do monitor do computador).
Os mouses no hands (sem as mãos) são projetados para quem, apesar
de não ter os movimentos manuais disponíveis, tem os pés funcionais: são
mouses em forma de pedais. Normalmente são empregados dois pedais, sendo
um para controlar o movimento, e outro apenas para os clicks (funções botão
direito/botão esquerdo). São dispositivos bastante sensíveis, com pedais em
forma ovalada, capazes de perceber movimentos em 360º, inclusive com sen-
sibilidade para variações de pressão aplicada.
Para aqueles usuários com dificuldades de visão, mas que ainda enxer-
gam, as soluções, muitas vezes, não precisam ser altamente complexas (e caras).
Um exemplo é o caso dos teclados com teclas grandes. Trata-se, essencial-
mente, de um teclado de funcionalidade normal, compatível com qualquer
computador, porém com teclas que são quatro vezes maiores que o tamanho
típico que a indústria oferece. Esses teclados são oferecidos, inclusive, com

–  57  –
Tópicos Especiais

a possibilidade de teclas de várias cores (para, por exemplo, distinguir mais


facilmente vogais e consoantes), além de oferecer a opção de layout entre o
tradicional padrão QWERTY ou o ABC.
Ainda quanto aos usuários com necessidades especiais no que diz res-
peito à visão, como aqueles que sofrem de degeneração macular, existem
várias opções de softwares lupa/leitor. Esses são programas que se sobrepõem
ao sistema operacional ou a qualquer programa sendo executado, oferecendo
possibilidade de ampliação de determinada região da tela em escalas bem
amplas (por exemplo, aumentar 32x uma imagem). Além disso, há o recurso
de leitura do que está sendo mostrado na tela, fazendo com que o usuário
escute a informação por um sintetizador de voz incorporado ao programa.
Além das diversas alternativas oferecidas no mercado, o próprio Windows
já dispõe, há muito tempo, de seu próprio recurso de acessibilidade com as
funções de lupa e leitor. No sistema operacional da Microsoft, o usuário pode
configurar se deseja deixar acionada ou não a função de narrador cada vez
que o Windows carregar, se essa função deve ser acionada automaticamente
para cada programa aberto, e há ainda um alto nível de personalização no
tipo de voz que o usuário escutará: estão disponíveis diferentes vozes, entre
masculinas e femininas, inclusive com controle de velocidade e entonação
das palavras.
Hardware de apoio, teclados braille estão disponíveis para utilização não
apenas com PC (Windows), mas também com smartphones em geral. Braille
é o tradicional sistema de escrita tátil, que é largamente adotado por pes-
soas cegas ou com baixa visão. Esse é um processo de escrita e leitura que se
baseia em 64 símbolos, todos em relevo, resultantes da combinação de até
seis pontos dispostos em duas colunas de três pontos cada. É possível fazer a
representação tanto de letras como algarismos e sinais de pontuação. A leitura
é feita da esquerda para a direita, ao toque de uma ou duas mãos ao mesmo
tempo. Quando não conectados diretamente a um computador (por exem-
plo, no traslado de ônibus de um local ao outro, como de casa para o traba-
lho), alguns teclados braille funcionam, ainda, como cadernos eletrônicos de
registro de notas, compromissos e contatos: a pessoa digita, a informação fica
armazenada e, posteriormente, é transferida ao computador. Alguns fabrican-
tes desses sistemas chegam a incorporar, também, um gravador de voz, para
anotações orais.

–  58  –
TI para pessoas com deficiência

De fato, nem sempre a tecnologia da informação fica restrita apenas


ao momento em que uma pessoa está sentada em frente a um microcompu-
tador. No trabalho do dia a dia, muitas atividades pressupõem a leitura de
documentos físicos, como memorandos, receitas e manuais. Por isso, existem
também diversas opções de leitores portáteis de documentos, no formato de
canetas eletrônicas, que funcionam como um scanner: a pessoa vai passando a
caneta, linha por linha no documento em papel, o leitor reconhece as palavras
e lê (voz sintetizada) para o usuário. O sistema conta com recurso de salvar até
algumas centenas de páginas, arquivos digitais que podem ser depois trans-
postos para o computador para edição ou armazenamento. Alguns apps2 de
smartphone também estão disponíveis para cumprir a mesma função.
Finalmente, no que diz respeito às pessoas com deficiências auditivas, o
fato parece não ser um grande impeditivo para usar computadores; contudo,
é um obstáculo relevante quando se trabalha em um escritório e não se conse-
gue entender claramente o que os colegas estão falando. Apps de filtro de som
ambiente são uma excelente solução para esse quadro: a pessoa coloca um
fone de ouvido e o sistema, no seu celular, se ocupa de filtrar o som do local
de trabalho, reduzindo automaticamente a intensidade dos ruídos e ampli-
ficando as palavras das conversas do entorno. O sistema permite, além das
habituais funções de calibragem para nivelar o poder de filtragem dos sons,
ainda recuperar os últimos segundos das conversas do ambiente, quando o
usuário não tiver entendido o que for dito. Ou seja, além do filtro, o app atua
como um gravador permanente dos sons, mantendo arquivado, de forma
dinâmica, sempre os últimos segundos dos sons gravados para uma eventual
necessidade do seu usuário.
Por fim, mas especialmente importante, reconheça-se o papel funda-
mental da tecnologia da informação para a capacidade empreendedora do
público PcD. A transformação digital das organizações e dos negócios possi-
bilita, cada vez mais, que negócios digitais sejam estabelecidos, e principal-
mente no que diz respeito a micro e pequenos empreendimentos virtuais,
o ambiente de trabalho em geral é muito mais favorável, se comparado ao
ambiente convencional de trabalho de uma indústria ou um comércio, por
exemplo. Existem diversas oportunidades de negócios virtuais que podem
2 Abreviação da palavra inglesa applications (aplicativos, em português). No contexto dos
smartphones, apps são os programas que podem ser instalados em celular.

–  59  –
Tópicos Especiais

comportar empreendedores PcD, desde administração de e-commerce3 até


consultorias realizadas à distância, trabalhos que podem ser exercidos em
regime de home office4, com evidente benefício logístico para o dia a dia
desse público.

3.3 Tecnologias voltadas às


necessidades especiais mentais
Provavelmente, o universo de pessoas com algum tipo de desordem ou
disfunção mental seja bem maior do que se poderia supor: muitas pessoas
de aparente normalidade sofrem, muitas vezes em silêncio, com esse tipo de
ocorrência. Como verificado em Davies et al. (2014), não raro, o que se vê
é que as palavras transtorno, distúrbio e doença costumam ser associados a
termos como mental, psíquico e psiquiátrico, isso para descrever qualquer tipo
de anormalidade, sofrimento ou comprometimento de ordem psicológica e/
ou mental. Os transtornos mentais são um sério campo de investigação inter-
disciplinar, requisitando competências especializas tais como a psicologia, a
psiquiatria e a neurologia.
Para Cavanagh e Shapiro (2004), nos campos da psiquiatria e em psico-
logia, os termos que se prefere adotar são transtornos, perturbações, disfun-
ções ou distúrbios psíquicos, evitando o uso da palavra doença: isso se justifica
porque, mesmo com o avanço do conhecimento científico na área, apenas
poucos quadros clínicos de natureza mental apresentam todas as caracterís-
ticas de uma doença no exato sentido do conceito – isto é, a patologia, o
conhecimento exato dos mecanismos envolvidos e, principalmente, de suas
causas explícitas. Quando se fala em transtorno, a liberdade conceitual é
maior, abrangendo qualquer tipo de comportamento diferente do habitual
ou do considerado “normal”. Por esse alargamento conceitual, é plausível que
muito mais pessoas possam ser incluídas no grupo da população que é classi-
ficado como pessoas com deficiência.
3 Comércio eletrônico, modalidade de comércio que realiza suas transações financeiras por
meio de dispositivos e plataformas eletrônicas, como computadores e celulares. Um exemplo
desse tipo de comércio é comprar ou vender produtos em lojas virtuais.
4 Trabalho em casa. Método de trabalho usualmente adotado por trabalhadores independen-
tes, também conhecidos por freelancers.

– 60 –
TI para pessoas com deficiência

Como apontado pelo relatório da World Health Organization (2011),


em geral, os deficientes mentais são um muito mais propensos à exclusão social
do que os deficientes físicos. A convivência social, inclusive em ambiente de
trabalho, é muito mais desafiadora. Por questões de segurança e de qualidade
de vida, as pessoas com transtornos mentais demandam um acompanha-
mento especializado de saúde muito mais intenso e frequente (muitas vezes,
vitalício). Portanto, há que se reconhecer que um dos maiores empregos da
tecnologia da informação junto ao público PcD de ordem mental é o campo
clínico: ajudar o tratamento desse grupo de pessoas.
Entre os fenômenos mais comuns, ansiedade e depressão, e até mesmo
síndrome do pânico, são ocorrências corriqueiras em ambiente acadêmico
(principalmente com estudantes universitários) e profissional (especialmente
nas organizações cujo ambiente de negócio é de alta competitividade e alto
stress). O desempenho dessas pessoas costuma cair drasticamente, às vezes
repentinamente, e a qualidade da interação social também se deteriora.
Muitas vezes, ocorre de ser um sofrimento solitário, em que a pessoa tem difi-
culdade no autodiagnóstico, ou reluta em admitir publicamente e procurar
ajuda especializada, que é sempre necessária. Quando muito, essas pessoas
procuram algum tipo de apoio informal (como junto a um grupo de amigos),
em vez de uma solução profissional.
Entretanto, em ambiente acadêmico e profissional, é muito comum a
disponibilidade de uma estrutura informatizada. Computadores e redes de
TI são ferramentas habituais de trabalho. Com os smartphones, os recursos
de TI acompanham fisicamente as pessoas por qualquer lugar que estas tran-
sitem, praticamente 24 horas por dia. Por isso, é importante aproveitar essa
disponibilidade digital para intervenções de ordem psicológica: o tratamento
de saúde pode ser complementado, e potencializado, de uma forma bastante
conveniente, que inclui possibilidade de anonimato e privacidade de acesso.
A tecnologia da informação vai ampliando os canais dos serviços de apoio
e de tratamento de saúde mental, e isto é importante porque potencializa o
universo de pessoas alcançável: quanto mais alternativas de acesso, mais pes-
soas beneficiadas, essa é a lógica envolvida. Por exemplo, tome-se como um
estudo de caso o tradicional e esplêndido CVV – Centro de Valorização da
Vida, serviço especializado de apoio emocional e prevenção ao suicídio, que

–  61  –
Tópicos Especiais

atende voluntária e gratuitamente todas as pessoas que querem e precisam


conversar, garantindo total sigilo. Essa é uma ONG, uma associação civil sem
fins lucrativos, filantrópica, que foi fundada em São Paulo em 1962, ganhando
reconhecimento como entidade de Utilidade Pública Federal em 1973.
Nos primórdios de sua operação, o CVV dispunha de atendimento pre-
sencial e por telefone (atualmente, o número 141, de atendimento 24 horas).
Reconheça-se que, à época, oferecer o canal de atendimento por telefone já
era um legítimo uso da tecnologia da informação, ampliando em muito o
público potencialmente beneficiado. Muito mais pessoas procuram o serviço
por telefone, pela comodidade, conveniência e discrição proporcionados, do
que a visita presencial até uma unidade do CVV. Contudo, aproveitando
as novas tecnologias de TI, atualmente o CVV oferece uma ampla rede de
canais de atendimento, o que só foi possível alcançar graças aos avanços no
mundo digital: pessoas podem entrar em contato com o CVV também por
chat eletrônico no website da organização, por Skype e por e-mail. No website
da CVV, também estão concentradas diversas informações úteis para pessoas
angustiadas por depressão, dependência química ou sentimentos suicidas,
com links de várias outras organizações de apoio, notícias gerais e, em especial,
um blog especializado, com atualização permanente, com abordagens temá-
ticas especialmente selecionadas para amparo ao seu público-alvo. Portanto,
utilizando as novas possibilidades de tecnologia da informação, essa organi-
zação consegue atingir números bastante expressivos, como o de contabilizar
mais de 1 milhão de atendimentos anuais, por meio de aproximadamente
2.000 voluntários em 18 estados brasileiros (mais o Distrito Federal). Como
destaque mais recente, e mais um exemplo das benesses proporcionadas pela
tecnologia da informação (neste caso, PABX virtual), em 2015 iniciou-se o
atendimento pelo número 188, que é o primeiro telefone sem custo de liga-
ção para esse tipo de serviço. A operação em fase de testes iniciou no Rio
Grande do Sul, como parte do plano de cobrir, gradativamente, todo o Brasil.
Para alguns distúrbios mentais, há um maior conforto da pessoa se ela
perceber que é possível um contato pessoal mínimo (ou mesmo, inexistente).
Por isso, a conveniência de abordagens por softwares e aplicações web, que
potencializam o maior engajamento do próprio indivíduo em buscar a ajuda
impessoal e – mais importante – garantir a continuidade das intervenções.

– 62 –
TI para pessoas com deficiência

Nesse quesito, os apps para smartphone fornecem grande conveniência,


que é fácil de evidenciar: ao se analisar as inúmeras opções de aplicativos
voltados à temática da saúde mental, em lojas virtuais como o Google Play,
a leitura dos comentários das pessoas que classificam os produtos com 1 a 5
estrelas mostra como é importante para esses usuários uma plataforma anô-
nima, mas que seja útil para o tipo de informação ou apoio que necessitam.
Os administradores (fabricantes) desses softwares possuem, ainda, uma infor-
mação valiosa em mãos: mesmo de modo anônimo, dispõe de relatórios em
que é possível estratificar perfis demográficos das pessoas que baixam o app
(idade, região geográfica, sexo etc.), além do tipo de transtorno que mais se
procura. Como informação bastante valiosa, seria apreciável que o próprio
Poder Público tivesse acesso a esses dados estratificados, o que poderia resultar
na proposição de políticas públicas e de saúde mais adequadas às reais neces-
sidades da população.
No que diz respeito ao público autista, a tecnologia da informação tem
seu papel facilitador para melhor inclusão social dessas pessoas. Autismo é
a condição conhecida pela qual a pessoa, desde criança, fica impossibilitada
de desenvolver relações sociais normais, por causa do típico comportamento
compulsivo e ritualista. Assim, de forma indireta, como uma consequência
da dificuldade de interação com o ambiente, o autista normalmente apre-
senta grandes dificuldades em desenvolver um padrão de inteligência normal.
Como curiosidade, os sinais de autismo geralmente aparecem entre o pri-
meiro e terceiro ano de idade, sendo que esse transtorno é duas a quatro vezes
mais frequente em meninos do que em meninas.
A tecnologia ajuda quando se reconhecem os obstáculos práticos que o
autista enfrenta. No geral, uma criança autista prefere estar só. Ela não procura
estabelecer relacionamento pessoal mais íntimo: evita abraços, se evade de con-
tato olho no olho, fica muito incomodada com mudanças (como objetos de
uso corriqueiro fora do local habitual), sendo excessivamente presa a objetos
familiares, repetindo continuamente certos atos e rituais. Ao se falar com uma
criança autista, ela frequentemente tem dificuldade em entender o que foi dito.
Como o autismo não é uma característica estritamente delineada (tanto que se
usa o termo transtorno de espectro autista, admitindo vários graus do compor-
tamento anômalo), a maioria das crianças nessa condição possui desenvolvi-
mento intelectual desigual, como reconhecem Miesenberger et al. (2004).

–  63  –
Tópicos Especiais

Naturalmente, na infância, a etapa de inclusão social mais importante


diz respeito à inclusão escolar. Embora a Legislação Federal do Brasil garanta
o direito de autistas serem matriculados em escolas regulares, na prática,
muito pouca preparação essas instituições possuem para melhor acomodar o
aluno especial. Por isso, a tecnologia da informação é útil, tanto como facili-
tadora de mais canais de treinamento e capacitação de professores, pedagogos
e gestores educacionais (por exemplo, em canais especializados do YouTube e
sites dedicados ao tema), como fornecedora de artefatos (hardware e ­software)
adequados para utilização por alunos especiais. Por exemplo, o visual habi-
tual de uma sessão aberta de Windows em um computador, já tão corri-
queiro para as pessoas sem o transtorno, é particularmente agressivo para um
autista: várias janelas abertas, vários ícones de softwares distintos visualizados
simultaneamente, trazem grande perturbação para essa pessoa. Aplicativos e
sistemas operacionais elaborados especialmente para o público autista trazem
uma visualização muito mais restrita de comandos e opções. Como qual-
quer criança, o que se vê, em geral, é uma empolgação muito maior para a
atividade de participar de uma aula quando recursos de informática estão
disponíveis – por isso, a adaptação de algumas condições pode fazer com que
autistas tenham um bom rendimento escolar, quando as aulas expositivas de
conteúdo são mescladas com experiências multimídia que os computadores
fornecem. Para Davies e Hastings (2003), autistas respondem melhor a estí-
mulos visuais, e isso precisa ser considerado no planejamento didático: a TI
facilita bastante esse tipo de estímulo.
Muito do papel da tecnologia da informação no que diz respeito às con-
tribuições à saúde mental das pessoas passa pelo segundo site mais popular do
mundo (atrás apenas do Google.com): o YouTube. Essa plataforma de vídeos,
fundada em 2005, transformou-se em um colossal repositório de vídeos de
todas as natureza e utilidade possíveis. A concentração desse infindável mate-
rial em um único acesso (a página do YouTube, a sua ferramenta de busca) é
uma das razões de seu inquestionável sucesso global: dados do início de 2017
mostravam que mais de 400 horas de conteúdo é adicionado, por upload, a
cada minuto, e mais de 1 bilhão de horas de conteúdo é assistido por dia.
No que tange ao conteúdo voltado às questões de saúde mental, encon-
tram-se desde vídeos com imagens e sons específicos para relaxamento, con-
centração, tratamento de insônia e outros, até reportagens e cursos tratando

–  64  –
TI para pessoas com deficiência

dos distúrbios mentais e respectivos tratamentos, muito desse material dis-


ponível em canais especializados e com embasamento científico. Trata-se de
uma fonte indispensável, portanto, a ser avaliada.
Por fim, pensando no futuro de ferramentas como a acessibilidade incor-
porada no Windows, convém que estas se dediquem também às deficiências e
perturbações mentais, tão bem como já o fazem para as deficiências físicas. Por
exemplo, no sistema operacional da Microsoft, um pressionar mais demorado
de uma tecla reporta ao Windows que talvez aquele usuário tenha alguma
deficiência, abrindo a janela específica que permite configurar e calibrar algu-
mas opções de acessibilidade. De modo análogo, parece ser bastante plausível
que o sistema (ou softwares/apps acessórios) possa monitorar o estado mental
do usuário, seja em uma condição momentânea ou uma patologia mais defi-
nitiva, pela da agressividade com que teclas sejam pressionadas, frequência de
textos sem sentido que sejam digitados (como “fkfjleçwjflkewfrlkçwefçkle-
wçlkfjlkfelk”) e até mesmo sites que sejam acessados e palavras-chave mais
buscadas – e respostas à altura serem disparadas pelo sistema (como chamar
serviço de emergência, desligar o acesso ao computador por algum tempo e
outras medidas afins). A despeito da inevitável discussão sobre privacidade
digital que isso possa despertar, forçosamente a integridade e a preservação da
vida humana são aspectos mais importantes a respeitar.

Conclusão
O mundo das pessoas com deficiência é amplo: as deficiências envolvidas
são as mais variadas possíveis, e os desafios sociais associados são inumeráveis.
Do ponto de vista mercadológico, isso representa um campo praticamente
infindável de oportunidades para o profissional de tecnologia da informação,
e para empresas especializadas em TI.
A despeito da oferta gigantesca de produtos e serviços de TI para esse
segmento, o acompanhamento da rotina diária das pessoas com deficiência e
a evolução tecnológica das plataformas digitais de próxima geração permitem
que muito mais novos negócios sejam estruturados, em torno essencialmente
das necessidades ainda não tão bem atendidas – ou não atendidas por com-
pleto. Como uma das possíveis frentes de atuação, que por certo comporta
–  65  –
Tópicos Especiais

potencialmente muito mais produtos e serviços de TI, está a inclusão social,


digital e pedagógica desse grupo de pessoas.

Ampliando seus conhecimentos

Azevedo et al. (2014) escreveram um artigo intitulado


“Ciberdependência: o papel das emoções na dependên-
cia de tecnologias digitais”, para tratar do outro lado da
tecnologia da informação – ela também pode ser a causa
de alguns transtornos de ordem psicológica, quando resulta
em vícios patológicos.

Ciberdependência
(AZEVEDO, 2014, p. 149-150)

[...]
Tornou-se evidente que as atuais tecnologias e suas aplica-
ções possibilitam novos arranjos sociais e psíquicos, mudando
paulatinamente o comportamento individual e coletivo.
Vários autores conceituam a Cibercultura como o não lugar,
permitindo e ofertando múltiplas possibilidades de leituras e
tornando-se uma extensão de nossos desejos, mais que uma
simples ferramenta tecnológica.
Nessa perspectiva, essa nova tecnologia se entranha e se
ramifica nas mais variadas concepções, tornando-nos depen-
dentes não apenas no sentido patológico, mas, principal-
mente, por permear nossas manifestações culturais, econômi-
cas, sociais e psicológicas.
Dentro do viés da neuropatologia, o motivo que leva o
sujeito a utilizar a tecnologia digital não é o problema a ser
investigado, mas a exposição ao meio; nesse sentido, a utili-
zação da tecnologia, seja para atividades do trabalho, estudo

– 66 –
TI para pessoas com deficiência

ou lazer, não seria a questão a ser avaliada e, sim, seus efeitos


sobre o comportamento e a estrutura psíquica e biológica.
Os ambientes de trabalho e acadêmico expõem por mais
tempo os usuários à tecnologia, possibilitando o desenvol-
vimento de patologias como as compulsões relacionadas ao
labor excessivo: Workaholic e a Tecnomania – uso indiscri-
minado da tecnologia.
[...]
Dentro da etiologia acadêmica e da psicopatologia, o uso
patológico da internet pode se manifestar sob diversas formas,
como as listadas abaixo:
� Dependência cibersexual – vício em utilizar salas de chat
para adultos ou ciberpornografia.
� Dependência de ciberrelacionamento – amizades online,
feitas em salas de chat ou newgroups que substituem a
vida real da família e amigos.
� As compulsões por jogos em rede – uso compulsivo de
jogos online, dependência de leilões online, e comércio
online obsessivo.
� Sobrecarga de informação – navegação compulsiva pela
rede Web ou banco de dados de pesquisas.
� Dependência de computador – uso obsessivo do com-
putador, jogos ou programação de informática.
Tais comportamentos compulsivos podem gerar, inicialmente,
um alívio de tensão da ansiedade, da depressão, falta de
habilidade social em comunicação face a face. Porém, trazem
efeitos significativos ao estado psicológico e fisiológico, como
alterações do ciclo vigília / sono, problemas relacionados às
relações interpessoais, profissionais, sexuais entre outras.
Os dependentes em internet e redes sociais usam-na como
ferramenta para possibilitar e facilitar a comunicação, gerando

–  67  –
Tópicos Especiais

sentimento de prazer e satisfação, o que pode acarretar um


fator eliciador para a dependência. Estudos [...] demonstram
que algumas variáveis relacionadas à baixa autoestima, insegu-
rança, timidez, falta de proatividade são fatores que colaboram
para o uso excessivo.
A dependência do uso excessivo da internet caracteriza-se
como uma inabilidade que o sujeito possui para reprimir e
controlar impulsos para usar a rede, provocando desconforto
e sentimento de culpa.

Atividades
1. Por que o número de pessoas com deficiência está aumentando
no mundo?

2. Qual é o foco de atuação de uma tecnologia assistiva?

3. Por que um computador consegue ser tão versátil para aceitar tantas
formas distintas de utilização por pessoas com deficiência?

4. Como melhor preparar um software para utilização por parte de um


usuário autista?

–  68  –
4
Aplicativos interativos

A interatividade é um dos atributos da comunicação. E


como existem alguns diferentes tipos de comunicação, é natural que
o entendimento sobre a interatividade seja mais amplo do que uma
única explicação.
Especialmente no que diz respeito à tecnologia da
informação, os sujeitos envolvidos na comunicação podem ser
humanos ou máquinas, e normalmente estes são os interlocuto-
res entre si. Por isso, a compreensão da interação homem-má-
quina é essencial para discutir o emprego da interatividade nos
sistemas informatizados.
Tópicos Especiais

Compreender a complexidade humana em processos de comunicação


é um grande desafio, até mesmo na perspectiva das máquinas. Por natureza,
cada indivíduo humano pode ser entendido como potencialmente imprevi-
sível, dadas suas complexas dimensões de natureza cultural, ideológica, his-
tórica, política e social. Com as tecnologias atuais, ainda é difícil estabele-
cer parâmetros computacionais de mensuração com alto grau assertividade
e precisão. Por outro lado, o crescente desenvolvimento da tecnologia da
informação vem melhorando cada vez mais o grau de mútuo entendimento
na relação entre ser humano e sistemas artificiais.

4.1 Por que interagir?


Diversos são os campos que trabalham a interatividade, alguns exemplos
são a ciência da informação, a ciência da computação, a interação homem-
-computador, comunicação e desenho industrial. Não há um consenso entre
esses campos quanto ao significado do termo interatividade. Mesmo assim,
todos eles estão relacionados ao relacionamento de sistemas artificiais, como
softwares e hardwares, com uma interface humana.
Um dos diversos entendimentos acerca da interatividade é a visão con-
tingencial, para a qual, conforme Sedig et al. (2012), três níveis se aplicam:
1. não interativo, que é quando uma mensagem não tem relaciona-
mento algum com mensagens anteriores;
2. reativo, situação em que uma mensagem se relaciona única e exclu-
sivamente a uma mensagem imediatamente anterior;
3. interativo, quando uma mensagem é relacionada a um razoável
número de mensagens anteriores, incluindo-se também a própria
relação existente entre essas mensagens anteriores.
Como explicam Rogers et al. (2013), a interatividade é constituída por
uma interface simbólica entre o seu referencial, a funcionalidade objetiva e o
sujeito. Alguns pesquisadores, como Liang et al. (2010), Sedig et al. (2012),
Parsons e Sedig (2014), procuram estabelecer uma clara distinção entre os
termos interação e interatividade. Como o sufixo -idade se emprega para a
formação de expressões que denotam uma qualidade ou uma determinada

–  70  –
Aplicativos interativos

condição, tais pesquisadores atribuem, como significado de interatividade, a


qualidade ou condição da interação. Assim, o que se procura ressaltar é que
a distinção entre as duas palavras (interação e interatividade) é importante,
uma vez que a interação pode se fazer presente em qualquer dada condição,
mas a qualidade dessa interação pode variar, de baixa a alta.
Para o estudo da interação, o mais fundamental é, evidentemente, pro-
curar o entendimento sobre a comunicação entre interlocutores humanos.
Afinal, a comunicação interativa envolve essencialmente duas situações:
interatividade entre pessoas e interatividade entre pessoas e computadores.
No campo do relacionamento social, a interatividade entre as pessoas é uma
característica inerente à comunicação humana.
Por sua vez, a comunicação entre pessoas e computadores diz respeito
ao modo como usuários acessam e utilizam as chamadas novas mídias, que,
muito além do computador por si mesmo, envolve websites, apps de dispo-
sitivos móveis, realidade virtual, interface homem-computador, jogos eletrô-
nicos, animação computadorizada, entre outros elementos de multimídia de
última geração.
Para Sedig et al. (2012), o modelo de interação homem-computa-
dor consiste de quatro principais componentes: ser humano, computador,
ambiente de tarefa e ambiente de máquina. Dois fluxos básicos de informa-
ção e controle são assumidos, no que se refere à comunicação entre pessoas
e computadores: uma parte precisa compreender o mínimo necessário a res-
peito da outra e também a respeito das tarefas que as pessoas realizam junto a
computadores. Um modelo geral de interface homem-computador enfatiza o
respectivo fluxo envolvido de informação e controle.
A interatividade entre pessoas consiste de muitos conceitos baseados,
principalmente, em definições antropomórficas. Por exemplo, sistemas com-
plexos que detectam e também reagem a um determinado comportamento
humano são, na prática, chamados de interativos. Sob essa perspectiva, a inte-
ração inclui também as respostas à manipulação física humana, como movi-
mentos, linguagem corporal, e até mesmo mudanças de humor apresentadas
pelas pessoas.
Para Torres (1995), a interatividade se define como um meio particular
da capacidade de facilitar as propriedades necessárias em uma conversação

–  71  –
Tópicos Especiais

ideal. Ou seja, a interatividade poderia ser definida como quão bem um meio
facilita a comunicação bilateral entre as partes, mais do que meramente a
tecnologia envolvida nesse meio.
Por sua vez, quando se considera o contexto da comunicação entre um
ser humano e um sistema artificial, a interatividade se refere ao comporta-
mento interativo do artefato – mais precisamente, aquele tipo de compor-
tamento experimentado ou percebido pelo usuário humano. Isso é diferente
de outros aspectos do artefato, tais como sua aparência visual, seu funciona-
mento interno e mesmo do significado dos sinais que ele pode mediar. Por
exemplo, quando se aborda a interatividade de um iPod, não é seu formato
físico e cores adotadas (seu design) que são o foco, mas sim sua capacidade
de reproduzir música e sua capacidade de armazenamento. Ou seja, é o com-
portamento de sua interface junto ao usuário, tal como experimentada ou
percebida pelo usuário. Isso envolve, portanto, os aspectos de como o usuário
movimenta os dedos para realizar o controle do dispositivo, a forma como se
permite a seleção de uma determinada música de uma playlist e as condições
permitidas ao usuário para controlar o volume do som.
Na prática, a interatividade de um determinado artefato é melhor perce-
bida pelo uso daquele dispositivo. Um espectador pode, no máximo, imaginar
como seria utilizar aquele artefato, vendo outras pessoas manuseando-o. Mas
é somente pelo uso de fato que a interatividade é plenamente experimentada e
sentida. A explicação é devido à natureza cinestésica da experiência interativa.
É como a diferença que existe entre ver alguém saltar de paraquedas e realizar
por si mesmo um salto de paraquedas: é somente com a ação em primeira pes-
soa que se pode experimentar e sentir as características e peculiaridades daquela
atividade – principalmente, o que a difere das demais experiências humanas.
Existe um termo bastante corriqueiro, ligado à ciência da computação,
que é o jargão look and feel (ver e sentir), frequentemente utilizado para se
referir às especificidades de uma interface de usuário em sistemas computa-
cionais. O look se refere ao design visual, enquanto o feel diz respeito à sua
interatividade. É mais uma forma, mesmo que indireta ou mais informal, de
se entender a definição de interatividade.
Na ciência da computação, a função interativa é aquela na qual o s­ oftware
aceita e responde a entradas fornecidas por pessoas (usuários do sistema). Isso

–  72  –
Aplicativos interativos

envolve dados e comandos, por exemplo. Na prática, os softwares interativos


incluem a maior parte dos mais difundidos programas, como processadores
de texto e planilhas eletrônicas. É importante frisar que programas não inte-
rativos operam sem nenhum contato com o ser humano, como é o caso de
compiladores e aplicações de processamento em lote: por outro lado, onde há
a figura de um usuário de um sistema, existe interação.
Na computação, quando a resposta é complexa o suficiente, costuma-se
dizer que o sistema conduz interação social, e alguns sistemas tentam atingir
esse nível de interação por meio da implementação de interfaces sociais. Isso
introduz a noção de categorias de interação com o usuário, como é o caso
da tecnologia Rich UI, uma abreviatura para rich user interaction (rica ou
intensa interação com usuário), um modelo de interface de estações clientes
ricas (ou densas), que suporta múltiplos métodos de entradas e que responde
intuitivamente e em tempo hábil. Como regra geral, para ser uma Rich UI, o
modelo deve apresentar um desempenho na prática ao menos tão bom como
os proporcionados pelos aplicativos convencionais para desktop, tais como
processadores de texto e planilhas eletrônicas.
Na indústria de TI, existem inúmeras tecnologias que proporcionam a
criação do efeito de interatividade nos sistemas informatizados. Por exem-
plo, administradores de páginas web podem fazê-lo com o uso de linguagem
JavaScript. Funções como ajustes tipo sliders (transição de telas), date pickers
(ferramenta de calendário) e drag and dropping (arrastar e largar) são apenas
algumas das diversas potenciais melhorias que podem ser implementadas.
Diversas ferramentas de autoria estão disponíveis no mercado, possi-
bilitando a criação de diferentes tipos de interatividade. Algumas das mais
comuns plataformas para implementar funções interativas incluem Adobe
Flash, Microsoft Silverlight, Harbinger Elicitus e Articulate Engage. O desta-
que fica por conta do uso intuitivo desses aplicativos, que dispensam o prévio
conhecimento de linguagem de programação: qualquer usuário pode criar fun-
ções interativas em pouco tempo, com modelos pré-formatados (templates),
facilmente personalizáveis. Alguns dos modelos de interação disponibilizados
nesses programas se enquadram em diversas categorias, como jogos, ferra-
mentas de simulação, ferramentas de apresentação, entre outros.

–  73  –
Tópicos Especiais

Como no exercício sugerido por Rogers et al. (2013), ao se analisar qua-


lidade da interatividade, qual seria o tempo razoável que se levaria para apren-
der a utilizar os produtos interativos relacionados a seguir?
a) Utilizar um DVD player para passar um filme.
b) Utilizar um set-top box de TV por assinatura para gravar dois pro-
gramas simultaneamente.
c) Utilizar uma ferramenta de autoria para criar um website.
Além disso, seria possível estimar o grau de capacidade de memorização
(memorability) de cada uma dessas atividades?
O fato é que ligar um DVD player para assistir a um filme deveria ser
uma experiência tão simples como ligar um rádio. Por certo, não teria por
que se esperar mais de 30 segundos para fazê-lo funcionar, e depois realizar
a atividade sem maiores preocupações. É certo que a maioria das pessoas
sabe como proceder para assistir a um filme em um equipamento desses.
No entanto, na prática, alguns sistemas requerem que o usuário selecione
o canal do vídeo na TV, dentre 50 ou mais canais, utilizando quase sempre
dois controles remotos separados. Outras configurações também precisam
ser ajustadas antes daquele filme começar a rodar, como, por exemplo, áudio
original ou dublado e presença ou não de legendas. A maioria das pessoas
talvez consiga estar apta a ligar o equipamento de qualquer marca, uma vez
que provavelmente já utilizaram, antes, um player qualquer, esperando que as
funções e comandos (como ON/OFF, play, stop etc.) sejam análogas.
No segundo caso, de se programar um receptor de TV por assinatura
digital para gravar dois programas simultaneamente, a operação é, inques-
tionavelmente, mais complexa. Aprender como programar o equipamento e
checar se está tudo da forma correta leva um pouco mais de tempo do que
colocar um mero DVD para reproduzir um filme. O que ocorre, na prática,
é que muitos dos equipamentos são mal projetados no que tange à função
de interatividade, e não é de surpreender que quase a totalidade dos usuá-
rios frequentes do sistema não consegue realizar a tarefa, apesar de inúmeras
tentativas. O que explica que poucas pessoas lembrem de como programar
o sistema para gravar um programa é o fato de a interação necessária ser mal
dimensionada – com pouco ou mesmo nenhum feedback. O mais grave é

–  74  –
Aplicativos interativos

não se seguir uma lógica da perspectiva do usuário. Isso acarreta que poucas
pessoas conseguirão dispor da paciência necessária para tentar interpretar o
manual mais de uma vez.
No último caso ilustrado, de se programar uma página web, uma fer-
ramenta de autoria bem projetada deveria permitir ao usuário criar uma
página básica em não mais que 20 minutos. Parece evidente que aprender a
totalidade das operações e possibilidades proporcionadas provavelmente leve
muito mais tempo (alguns dias pelo menos). Contudo, dominar 100% a
ferramenta não é quesito necessário para cumprir funções básicas, e isso é
um atributo essencial em bons aplicativos interativos. Na maior parte dos
casos, as opções comerciais de ferramentas de autoria permitem ao usuário
iniciante realizar seu trabalho básico (como criar uma página web simples)
já de imediato, por meio de templates (modelos) que podem ser adaptados
com grande versatilidade. É certo que muitos usuários irão ampliar o repertó-
rio, levando uma hora ou mais para aprender funções mais avançadas, e isso
conforme suas próprias necessidades específicas, que vão aparecendo com o
tempo. Mas é importante observar que, como regra geral, algumas poucas
pessoas realmente irão aprender a utilizar todo o conjunto de funções que um
software desses oferece.
O que ocorre é que os usuários tendem a lembrar das operações mais
frequentemente utilizadas, tais como recortar e colar ou inserir imagens. E
isso, especialmente, se forem consistentes ou similares com relação à forma
como essas ações são realizadas em outros aplicativos. Buscar um botão salvar,
por exemplo, já é intuitivo para a maioria dos usuários de sistemas informa-
tizados, que tentam reproduzir aquele comando mesmo em programas que
nunca utilizaram antes. Por outro lado, algumas outras operações, as que são
usadas com menos frequência, provavelmente terão que ser reaprendidas (por
exemplo, formatar tabelas).

4.2 Graus de interação


Em suma, todo software que trabalha a partir de dados ou comandos
operados por um usuário é, por definição, um aplicativo interativo. Portanto,
convém entender os possíveis graus dessa interação homem-computador.

–  75  –
Tópicos Especiais

Tais graus existem porque, essencialmente, as pessoas são intrinseca-


mente diferentes umas das outras, e assim o são as situações práticas envol-
vidas diante da interação com um sistema artificial. Como ressalta Allegretti
(2015), existem diversas maneiras de analisar as necessidades e também as
relevâncias dentro dos sistemas interativos. Por isso, considera-se que ativida-
des, contextos e tecnologias são moldados por pessoas.
No que se refere às pessoas, há que se reconhecer que são estas que uti-
lizam os recursos tecnológicos, decidindo, portanto, qual adotar. Contudo,
convém investigar como essas decisões são tomadas, e não há maneira melhor
de fazê-lo senão perguntando diretamente a elas. É por isso que, para um for-
necedor de um sistema informatizado, não basta apenas incorporar as funções
que são planejadas para uma aplicação, mas há que se levar em conta o que
é importante, e como apresentá-lo às pessoas que irão utilizar efetivamente
aquele sistema.
De tal forma, são as pessoas que estabelecem os valores e os requisitos
para cada nova tecnologia. Elas ainda modificam a natureza das atividades
que são executadas, o que pode levar à necessidade de desenvolvimento de
novas tecnologias, proporcionando um ciclo contínuo. Por isso, dada essa
conexão direta entre seres humanos e tecnologias, é necessário compreender
os graus de diferença entre as pessoas, que são de ordem física, psicológica e
social, como defende Allegretti (2015).
No tocante às diferenças físicas, cada pessoa possui, evidentemente, suas
características únicas nos atributos físicos, como altura e peso. É interessante
observar que algumas dessas características são tão individuais que podem até
mesmo ser usadas como recurso de identificação, tal como ocorre com digi-
tais e íris. Em geral, nas diferenças encontradas entre cada indivíduo frente
aos cinco sentidos (visão, audição, olfato, tato e paladar) residem as expli-
cações sobre o quanto uma tecnologia pode ser utilizável, acessível – e até
mesmo prazerosa. Conforme dados relatados por Allegretti (2015), uma pes-
soa com daltonismo faz parte de um grupo de 8% das pessoas do lado ociden-
tal do globo. Outras disfunções visuais, tais como miopia e hipermetropia,
são bastante corriqueiras na população, envolvendo milhões de indivíduos.
Apenas na Europa, existem quase 3 milhões de usuários de cadeiras de rodas.
Tais valores indicam que se torna indispensável levar em consideração essas

–  76  –
Aplicativos interativos

características quando uma tecnologia é aplicada a um determinado grupo


de usuários. Algumas diferenças físicas são bem mais sutis, como, por exem-
plo, a destreza para digitar em um teclado físico ou virtual, o que também
influencia muito na qualidade da interatividade. Por isso, em TI, tecnologias
assistivas fazem parte do conjunto de recursos interativos.
Entretanto, no quesito sutileza, as diferenças de natureza psicológica são
as mais contundentes, afinal, muitas não se apresentam de imediato, são vir-
tualmente invisíveis (embora não imperceptíveis) e tendem a ser instáveis.
Conforme no exemplo que ilustra Allegretti (2015), algumas pessoas têm
uma perfeita percepção espacial – é o caso quando alguém precisa atravessar
uma estrada com grande fluxo de veículos (e não há semáforos ou passa-
relas). Algumas pessoas conseguem, sem nenhuma dificuldade, avaliar em
frações de segundo a relação da distância de um veículo vindo ao longe, com
sua própria velocidade de pedestre, interpretando corretamente se o tempo
é adequado para realizar a travessia ou não. Já outras pessoas têm sérias difi-
culdades, sendo que somente atravessam a estrada quando não existe veículo
algum, mesmo a uma longa distância. De modo análogo, em aplicações de
TI, os sempre apreciáveis recursos de segurança de timeout (extrapolação de
tempo limite) precisam prover tempo suficiente para a operação por parte dos
mais vagarosos usuários.
Outro aspecto importante são as diferenças culturais, a forma de con-
duta no dia a dia de um povo ou de uma cultura, que muitas vezes passam por
convenções, como, por exemplo, a mão inglesa: nos automóveis da Inglaterra
(e de diversas outras nações), o motorista fica à direita enquanto o passageiro
à esquerda. Evidentemente, todo o conjunto de recursos interativos precisa
ser pensado para mais facilmente se adaptar a esse tipo de situação, quando
for o caso, como reconhecem Sedig et al. (2012). Na mais corriqueira das
situações, convém lembrar que há pessoas destras e canhotas: a tecnologia da
informação costuma ser sensível a essa realidade, e já há muito os sistemas
operacionais costumam oferecer a função de inverter os botões do mouse,
visto que botão direito e botão esquerdo sempre são usados para comandos
distintos nos mais variados aplicativos.
As diferenças de linguagem são seguramente determinantes para o cor-
reto entendimento da mensagem que se deseja passar. Por isso, reconhece-se

–  77  –
Tópicos Especiais

a importância dos aplicativos que permitem configurar não só o idioma dese-


jado (como português ou inglês), mas também suas variações regionais (por-
tuguês brasileiro e português de Portugal, por exemplo). Outra diferença a
considerar é que as pessoas têm características individuais que as diferenciam
em vários atributos, tal como o fato de algumas pessoas conseguirem lembrar
muito facilmente nomes, enquanto outras têm maior facilidade para fisiono-
mia. Algumas têm predileção por números, outras têm grande dificuldade
para registrar o contexto sem se concentrar em cada um dos pontos específi-
cos do ambiente. Na indústria de TI, como consequência, é comum que os
aplicativos possuam mais de uma forma para se acionar um comando, como,
por exemplo, inserir um hyperlink: pode ser com o “Control + K” no teclado,
ou com o respectivo ícone gráfico no programa, ou pelo comando direto inse-
rir hyperlink disponível no menu de comandos do aplicativo.
A lista de diferenças parece interminável. Por exemplo, ainda no campo
das mais sutis, algumas pessoas conseguem trabalhar mesmo submetidas à
enorme pressão, enquanto outras não toleram sequer um mínimo ruído.
O fato é que, como apontam Sedig et al. (2012), a personalidade de cada
pessoa é construída ao longo dos anos, e mudanças podem até ser possíveis,
embora improváveis. Mudar esse tipo de característica requer dedicação e
um longo tempo – prazo que, obviamente, os sistemas informatizados não
dispõem para atender um determinado público-alvo. De qualquer modo,
ressalta-se, como regra geral, é o aplicativo que precisa se adaptar às pessoas,
e não o contrário.
Portanto, em TI, para garantir a melhor interatividade possível entre
aplicativos e usuários, o que se precisa levar em consideração é o conheci-
mento que as pessoas apresentam do mundo ao seu redor, o que é denomi-
nado, com frequência, de modelo mental, como afirma Allegretti (2015).
Quando uma pessoa não tem um correto modelo mental de algo, ela apenas
consegue realizar ações por repetição. Diante de um imprevisto, se alguma
coisa não funciona corretamente, dificilmente essa pessoa conseguirá enten-
der o que ocorreu de errado para conseguir ao menos tentar corrigir o rumo
tomado. É como ocorre quando uma pessoa que não entendeu um deter-
minado tema que precisa estudar para um teste de conhecimento: ela pode
repetir incessantemente as informações, mas isso não vai significar que haverá
entendimento por mera repetição. No máximo, poderia até mesmo obter um

–  78  –
Aplicativos interativos

bom resultado em uma prova de conhecimentos sobre o determinado assunto


em curto espaço de tempo, porém é certo que aquela informação se perderá
rapidamente, pois faz parte de um “castelo de cartas” mental, e, quando uma
se perder, toda a informação é perdida.
Na visão de Sedig et al. (2012), um princípio básico de um sistema com
bom desempenho interativo é que ele é projetado de tal forma que os usuá-
rios possam formar modelos mentais úteis e adequados, que permitem a eles
mostrar como as coisas podem funcionar, como obter os resultados desejados
e o que é permitido em nível de usuário. Não raro, mesmo pessoas que não
dominem 100% os recursos de um software especializado, como SolidWorks ou
SAP, chegam a determinado momento em que dizem compreender a lógica do
sistema, e se sentem suficientemente versadas e proficientes no aplicativo: even-
tuais funções que ainda não saibam utilizar conseguem ser aprendidas, com
bom nível de autodidatismo, a partir das outras funções que já se domina a uti-
lização (mecanismo de analogias funcionais, que é um dos principais modelos
mentais). É assim que alguns sistemas são rotulados como intuitivos.
É certo que uma das formas adotadas pelas pessoas para desenvolver
seus modelos mentais é interagir na prática com os sistemas, e a partir de
observações sobre a relação de causa e efeito, de suas ações e do resultado
que o sistema lhe entrega, mesmo que em um regime de tentativa e erro.
Admita-se que, no Brasil, não costuma ser hábito a prévia leitura de instru-
ções e manuais sobre o funcionamento de um sistema. Dessa forma, é muito
importante que, para além da documentação básica (manuais, guias etc.),
os sistemas disponibilizem todas as informações que sejam possíveis na sua
interface. Isso favorece que as pessoas formem um modelo mental mais cor-
reto e preciso.
Há ainda uma grande utilidade prática do esforço pela mais abrangente
documentação de um sistema ou aplicativo qualquer. Muitas vezes, esse pro-
cesso de descrever o funcionamento pode aparentar ser fácil, mas é justa-
mente na sua execução que se descobre que há uma distância entre o conceito
pretendido para aquele produto e aquilo que ele realmente desempenha ope-
racionalmente. Além do mais, como apontam Liang et al. (2010), é cenário
comum que o desenvolvimento de softwares envolva o trabalho de muitas

–  79  –
Tópicos Especiais

pessoas, e que um único integrante da equipe de desenvolvimento não detém


todas as informações sobre o sistema completo.
Por mais que se procure garantir uma imagem de que tudo está suficien-
temente claro, a clareza reside em quem originalmente concebeu o sistema,
e talvez se estenda para outros que tenham perfil similar a essa pessoa. No
mais, é indispensável pensar de forma mais abrangente, avaliar o sistema sob
a ótica de quem irá utilizá-lo e procurar descrever com detalhes a informa-
ção, visando poder capacitar qualquer usuário à forma correta de operação,
obtendo assim os resultados originalmente planejados durante a concepção
do produto. Isso também é benéfico para que as pessoas possam criar o seu
próprio modelo mental e, quando isso acontece, atinge-se um desempenho
de alto nível de interatividade: aprendizado não apenas por repetição, mas
por compreensão.
Finalmente, considerem-se os desafios impostos pelas diferenças sociais.
Diante de um mesmo sistema ou aplicação, diferentes usuários terão igual-
mente distintas motivações para seu uso. Enquanto algumas pessoas podem
manter um alto grau de interesse por muito tempo, outras podem simples-
mente perder o interesse rapidamente, devido às suas particulares motivações,
que mudam ao longo do tempo. Considere-se a corriqueira situação de se com-
prar um determinado produto por acreditar que existe uma real necessidade ou
interesse, mas que a real explicação seja o fato de as pessoas serem facilmente
movidas por impulsos, que se mostram a seu devido tempo inadequados.
Concordando com Liang et al. (2010), é preciso também reconhecer
que o nível de experiência prévia dos usuários é bastante variado, podendo
determinar níveis de utilização e resultados diferentes. Enquanto os usuários
mais experientes aprendem de modo mais rápido e mais fácil, e interagem
com a aplicação sem maiores receios, os novatos devem ser incentivados e ins-
truídos a buscar essa interação. Na prática, ressalte-se a necessidade premente
de fazê-lo de um modo mais atraente, pelo risco envolvido naquela tendência
natural de se perder interesse facilmente por aquilo que não é compreendido.
A heterogeneidade é, enfim, um princípio essencial na programação das
funções interativas dos aplicativos. Diferenças precisam ser identificadas em um
primeiro momento, haja vista que sistemas projetados para grupos homogêneos
serão bastante distintos daqueles orientados a um público mais heterogêneo.

–  80  –
Aplicativos interativos

Para um grupo de grande similaridade, é comum que se oportunizem poucas


maneiras, ou até mesmo apenas uma só, de se acionar determinadas funções
de um aplicativo. No caso de grupos muito diferentes, é importante que haja
estudo de maneiras alternativas para se chegar ao mesmo resultado, pois cada
perfil de usuário irá ser atendido, uma vez que seja possível obter as respostas do
sistema da maneira que julgarem mais adequada.
Para Liang et al. (2010), o que se observa, então, como boas práticas
nos programas de computador é que os aplicativos disponibilizem um grande
número de maneiras para se obter o mesmo resultado: clicar em um ícone,
usar teclas de atalho, navegar por barras de menu – até mesmo comandos
de voz, como no caso dos assistentes pessoais Cortana da Microsoft, Siri da
Apple e Google Now do Google. Em desktops e laptops, é comum que muitos
usuários não utilizem mouse por acreditar que com o teclado se perde menos
tempo. Assim, aplicativos corporativos até videogames para computador pre-
cisam ser produzidos com funções possíveis de serem alcançadas com o uso
das teclas de atalho.

4.3 Um novo Design Thinking?


Para Rogers et al. (2013) e Allegretti (2015), a interatividade é tão impor-
tante nos produtos em geral, incluindo a indústria de TI, que merece uma
disciplina especialmente dedicada a esse respeito, o que chamam de design
de interação. Rogers et al. (2013) explicam que um dos principais objetivos
do design de interação é a redução de aspectos negativos da experiência de
usuário, como frustração e aborrecimento, ao mesmo tempo que se melho-
ram os aspectos positivos, como divertimento e compromisso. Ou seja, é a
capacidade de desenvolver produtos interativos, que sejam fáceis, eficientes e
agradáveis de usar, sempre a partir da perspectiva dos usuários.
Por sua vez, Allegretti (2015) defende que design de interação é uma área
do design que se tornou especializada em desenvolver projetos de produtos
ou sistemas voltados a uma forte interação com o ser humano, e com essa
premissa pode oferecer os resultados esperados. Mesmo podendo ser encon-
trado em praticamente todo tipo de interação homem-máquina, desde um
controle-remoto até o forno de micro-ondas, reconhece-se um foco cada vez

–  81  –
Tópicos Especiais

mais direcionado à tecnologia da informação, com aplicações para o desen-


volvimento de sites e sistemas virtuais (web, hot ou mobile) que visam à comu-
nicação entre empresa e seu público-alvo.
De qualquer modo, a analogia entre interatividade de produtos físicos
com a interatividade em aplicativos de TI é perfeitamente válida. Com efeito,
percebe-se que as interações relacionadas a equipamentos ou sistemas, mesmo
dos mais simples, ainda são carregadas de desafios para quem projeta aquela
aplicação. Como comenta Allegretti (2015), dificilmente uma pessoa não
gaste algum tempo diante da primeira vez na vida que tem que lidar com um
elevador. Afinal, deve-se pressionar para cima porque se quer subir, ou então
para baixo porque se deseja que o elevador desça até onde a pessoa está para
que se possa subir.
Uma visão mais simplista, como alertam Parsons e Sedig (2014), pode
ser aquela de afirmar que o problema é que artefatos elementares, como
botões de elevador, são absolutamente simples, praticamente à prova de
erro, então a culpa seria das pessoas em não saber utilizá-los. No entanto,
na visão de um empreendedor (por exemplo, o fabricante do elevador), não
é equivocado se esperar um crescimento significativo nas vendas quando se
descobre um sistema alternativo, que possa ser simples o suficiente para que
ninguém mais consiga errar. Melhor usabilidade, maior aceitação de um
produto no mercado.
A questão, então, é: como produzir um equipamento ou aplicativo vir-
tualmente à prova de erros ou de dúvidas? São nesses termos que agem os
designers de interação. Da mesma forma que os designers de produto transfor-
mam as atividades do cotidiano por meio de objetos que eles concebem, os
designers de interação acabam por facilitar a vida das pessoas no que se refere
às relações desenvolvidas e às atividades desempenhadas, principalmente por
meio das tecnologias digitais interativas.
Esse tipo de profissional cuida do desenvolvimento de produtos inte-
rativos, que fornecem suporte às atividades do cotidiano, garantindo que as
pessoas consigam usar melhor esses produtos, ou seja, interagir da maneira
correta com eles. Além de tornar o produto interativo possível e viável do
ponto de vista tecnológico (transparente ao usuário), o designer de interação
se ocupa em desenvolver uma interface para que as pessoas consigam usar

–  82  –
Aplicativos interativos

melhor determinado artefato. Como lembra Torres (1995), é por meio da


interface que o usuário se comunica com o produto, e é também a interface
do produto que possibilita existir interação com quem o está utilizando.
Para Allegretti (2015), o designer de interação deve possuir sete compe-
tências essenciais:
1. Focar sempre o usuário – é fato que entender a fundo o usuário é a
chave do sucesso no design de interação, e a melhor forma de fazê-lo
é questionando suas escolhas e observando suas ações.
2. Encontrar boas soluções – desenvolver novos produtos e serviços
implica, sempre, em criar escolhas. Por exemplo, quando se tem
apenas duas opções, deve haver esforço na busca por uma terceira.
3. Gerar muitas ideias e buscar uma prototipação rápida – é por gerar
muitas ideias que os designers conseguem encontrar suas soluções.
E para tangibilizar essas ideias, são desenvolvidos protótipos rápi-
dos, pois é dessa forma que ideias ruins podem ser rapidamente
descartadas após os primeiros testes.
4. Saber trabalhar de forma colaborativa – o design não é uma dis-
ciplina isolada; pelo contrário, ele dialoga com vários outros
domínios do conhecimento humano. Dessa forma, não cabe ao
­designer se isolar, mas trabalhar de forma colaborativa e utilizar
vários recursos de tecnologia de informação e comunicação. Para
que os resultados possam ser adequados, o conhecimento de
diversas áreas torna-se necessário: arquitetura, design industrial,
design de som, interação humano-computador, design visual, con-
teúdo (texto, vídeo, som), arquitetura da informação, além de
fatores humanos que são objeto de vários campos de conheci-
mento como psicologia, sociologia, ergonomia, entre outros.
5. Criar soluções apropriadas – o designer é demandado a criar as mais
apropriadas soluções para determinado contexto em que os usuá-
rios estão inseridos. Tal contexto, de uso do objeto ou do serviço,
precisa estar em plena conformidade com o contexto histórico-so-
cial em que a pessoa está inserida.

–  83  –
Tópicos Especiais

6. Desenvolver um amplo campo de influências – a interdisciplinari-


dade deve fazer parte da rotina do designer de interação, e com ela
existe inspiração para a busca por soluções inovadoras.
7. Saber incorporar a emoção para seus projetos – o aspecto emocio-
nal não pode ser desconsiderado no processo de desenvolvimento
de um produto, pois é um elo entre as pessoas e os aparatos tecno-
lógicos. Produtos sem o apelo emocional estão desconectados das
pessoas, considerados então produtos sem vida.
Garantir que o usuário possa mais facilmente utilizar os recursos de
um website, por exemplo, são preocupações antigas. O que ocorre é que elas
costumam se inserir dentro das diversas atribuições do designer gráfico, que
criava e procura evitar somente as dificuldades que ele conseguia perceber,
com base em sua própria experiência como usuário. Então, com o tempo,
experiência e feedback de clientes, o especialista passou a contar com um
know-how, um conhecimento diferenciado, que abrangia as dificuldades
levantadas pelo cliente, gerando correções reativas (retrabalhos originados
de reclamações).
É por isso que o campo profissional começou a considerar as experiên-
cias passadas para as novas criações. Assim, se estabeleceram fóruns de dis-
cussão entre designers gráficos sobre os desacertos cometidos e as maneiras
de evitar que eles ocorressem, procurando então pelas boas práticas. Nessas
discussões, o usuário foi incluído como elemento central, para que pudessem
ser consideradas suas dificuldades inerentes ou potenciais.
Como relata Allegretti (2015), algumas vertentes se mostraram inade-
quadas ao longo do processo: tentativas de solucionar 100% dos problemas
resultaram na percepção de se demandar mais tempo, com retorno não viável
financeiramente. Para exemplificar, em alguns casos, o desenvolvimento de
uma proteção no sistema que impeça um determinado erro pontual levan-
tado por um número pequeno de pessoas tomava mais de 50% do total do
trabalho do grupo.
Em uma situação ideal, esses processos poderiam ser feitos, mas no
mundo real, empresas estão restritas a prazos, entregas, e a constantes soli-
citações de mudanças por parte do cliente, resultando em puro desperdício
de parte do trabalho dispendido. Constatou-se, assim, que pesquisas são

–  84  –
Aplicativos interativos

essenciais, devendo ser realizadas para uma amostragem representativa do


público-alvo.
Não deixa de ser desafiador conhecer as reais necessidades do usuário,
quando este faz parte de um grupo social totalmente distinto do designer (por
exemplo: público infantil, pessoas com deficiência etc.). Afinal, há que se
tratar de aspectos muitos específicos, muitas vezes que fogem à sensibilidade
pessoal do profissional projetista. Restrições típicas dos projetos (competi-
tividade, prazo limitado, recursos limitados etc.) acabam, muitas vezes, por
não conduzir à melhor solução. Na prática, o que se observa, principalmente
nas grandes corporações, é a redução no tempo destinado ao estudo sobre as
interações e usabilidade, resultando em grau de menor detalhamento. Isso
proporciona um interessante fenômeno de mercado: pequenas empresas des-
cobrem no designer de interação e seu trabalho especializado um interessante
nicho para explorar, muitas vezes transformando-se em fornecedores de servi-
ços especializados à indústria.
Tais empresas, com profissionais dedicados exclusivamente ao estudo e
análise do comportamento humano e suas reações diante das interações com
os diversos tipos de sistemas artificiais, são verdadeiras consultorias de usabi-
lidade. Em muitas situações, tal composição é o que proporciona às grandes
empresas, incluindo o ramo de tecnologia da informação, serem efetivas em
dispor da melhor interatividade em seus produtos.
Vianna et al. (2012) definem o Design Thinking como a maneira do
designer pensar, que utiliza um tipo de raciocínio pouco convencional
no meio empresarial, que é o pensamento abdutivo. Nesse tipo de pen-
samento, o que se busca é a formulação de questionamentos mediante a
apreensão ou compreensão dos fenômenos. Portanto, precisam ser formu-
ladas perguntas a serem respondidas a partir das informações coletadas
durante a observação do universo que permeia o problema a ser resolvido.
É uma perspectiva, portanto, em que, via o pensamento abdutivo, a solu-
ção não deriva do problema, mas nele se encaixa. O que se trabalha é a
ideia de que não se pode solucionar problemas com o mesmo tipo de pen-
samento que o criou, por isso, abduzir e desafiar pressupostos costuma ser
entendido como a base do Design Thinking. Afinal, é pensando de maneira

–  85  –
Tópicos Especiais

abdutiva que o designer consegue desafiar padrões, fazer e desfazer conjec-


turas e inovar.
Uma das grandes contribuições do Design Thinking para a área de inte-
ratividade é o fato de oferecer diversas técnicas para a compreensão das reais
necessidades das pessoas (dispostas em diferentes níveis), o que é ilustrado
pela Figura 1.
Figura 1 – Técnicas de Design Thinking para compreensão das necessidades
das pessoas.
Superfície
Técnicas

Entrevistas
Dizem Explícito
em

Pensam
diz

Co
oas

Fazem Observável

nh
ess

Observações

eci
Usam
sp

me
ea

Tácito

nto
Sessão
qu

Sabem Generativa
O

Sentem
Sonham Latente

Profundidade

Fonte: VIANNA et al., 2012, p. 23.

O que a metodologia defende é que as técnicas devem se adaptar à natu-


reza das informações coletadas dos usuários: entrevistas são técnicas excelen-
tes para aquele conhecimento mais explícito, como aquilo que uma pessoa
diz fazer ou pensar. Contudo, aquilo que a pessoa realmente pensa, ou de fato
utiliza, só é verificado por técnicas de observações, enquanto o mais íntimo (e
talvez mesmo inconsciente) por parte das pessoas, o que elas sabem, sentem
e sonham, só é possível de se apreender pelas diversas técnicas reunidas na
categoria sessão generativa.

–  86  –
Aplicativos interativos

Conclusão
Todo aplicativo que possui a figura de um usuário em seu comando é,
por definição, interativo. Por isso, o que se torna importante é a compreen-
são dos vários graus de interatividade, para que essa função tenha a melhor
qualidade possível.
Embora não sejam disciplinas exclusivas da tecnologia da informação,
o design de interação e o Design Thinking são abordagens especialmente
úteis para a produção de aplicações de TI, pois endereçam os atributos
mais relevantes do ponto de vista do utilizador do sistema, permitindo
projetos mais assertivos e pessoas mais satisfeitas no consumo e uso daque-
les produtos.

Ampliando seus conhecimentos

Segundo Ellwanger (2013), autora do texto a seguir, o design


experiencial (DE) engloba tanto o design de interação (DI)
quanto o Design Thinking (DT). Seu objetivo é focar na expe-
riência do usuário em relação ao objetivo sobre o qual ele atua
(User Experience - UX).

Design de Interação, Design Experiencial


e Design Thinking: a tríade que permeia
o escopo de desenvolvimento de
sistemas computacionais interativos
(ELLWANGER, 2013, p.802)

Na concepção e uso de sistemas digitais interativos, o


DE fundamenta-se nas fronteiras entre as disciplinas de
Interação Humano-Computador (IHC) e a disciplina
de DI, as quais salientam que o objeto (produtos/ser-
viços) e a interação com os mesmos são componentes

–  87  –
Tópicos Especiais

indispensáveis e necessários para que a experiência


ocorra de forma satisfatória.
Seu escopo abrange características e experiências não
somente dos usuários, mas também dos próprios projetistas
(advindas do DT) e das inter-relações entre as mesmas, a partir
do estabelecimento de esquemas mentais que dão suporte à
prática de prototipação e propiciando a melhoria contínua das
interfaces por eles projetadas.
Na tríade designer-sistema-usuário, o designer agrega nos sis-
temas e nas interfaces que projeta partes de si, ou seja, o
designer, a partir de assimilações do objeto (sistema/protó-
tipo), provenientes de sistemas pré-concebidos ou ainda a
partir de suas experiências em sistemas similares e já existen-
tes, bem como de suas vivências e concepções que tem do
mundo. Assim, sempre que a ação de projetar para a experi-
ência do usuário o transforma em um novo sujeito. Sujeito este
que supera a si mesmo não somente a partir da manipulação
do objeto (sistema/protótipos), mas também a partir das inte-
rações realizadas com o usuário e decorrentes do contexto
de uso.
Estes são os motivos pelos quais faz-se necessário dedicar uma
atenção especial ao DE não somente sobre a perspectiva do
usuário (DI), mas também sob a perspectiva do próprio pro-
jetista de sistemas interativos (DT). Essa compreensão leva os
profissionais não somente a projetar sistemas direcionados à
experiência do usuário, mas, além disso, permite-lhes verificar
as discrepâncias entre o que se desenvolveu e o que se pen-
sou desenvolver, ou seja, permite avaliar com maior acurácia
as interfaces que se projeta em detrimento das que realmente
se concebe.

–  88  –
Aplicativos interativos

Atividades
1. O que se entende por look and feel?

2. O que é um modelo mental e qual sua importância para os estudos


de interatividade?

3. Qual a importância do atributo de apelo emocional para o design


de interação?

4. Qual o impacto da heterogeneidade nos sistemas interativos?

–  89  –
5
Inteligência artificial

Hoje, o que diferencia os seres humanos dos robôs é que são


as pessoas que possuem a capacidade de inovação, de empatia, e
mesmo de improvisação diante de qualquer circunstância. É nisso
que se fundamentam os que, com razão, reconhecem o trabalho
mais mecanizado, tendendo a substituir trabalhadores humanos
por sistemas artificiais, e imaginam, ao mesmo tempo, haver uma
garantia de longo termo de que as funções criativas sempre serão
cumpridas por pessoas, e não por máquinas.
Não há dúvidas de que, numa perspectiva de curto prazo (de
hoje até os anos mais imediatamente futuros), isso seja verdadeiro.
Contudo, ao se extrapolar apenas mais um pouco o porvir – algu-
mas décadas, que seja –, pergunta-se legitimamente: até quando será
dessa forma? Chegará um dia em que máquinas poderão ser muito
melhores que as pessoas até mesmo nas ocupações mais criativas,
artísticas ou filosóficas?
Tópicos Especiais

Como tudo o que se refere a cenários futuros, nada ainda é completa-


mente certo. Mas algumas tendências apontam vigorosamente para algumas
direções, entre as quais está o fenômeno da inteligência artificial (IA), que
será abordado neste capítulo.

5.1 Conceitos e história da IA


A inteligência artificial (IA) – termo que é mais frequentemente utilizado
que o também válido inteligência das máquinas (IM) – é, conceitualmente,
a inteligência exibida por sistemas artificiais, distinguindo-se da inteligência
natural característica dos seres humanos (e mesmo dos animais, dependendo
da perspectiva de análise). Na ciência da computação, o campo de pesquisa
de IA se define pelo estudo dos agentes inteligentes: isso pressupõe qualquer
dispositivo artificial que dispõe da capacidade de perceber o seu ambiente e
tomar ações para maximizar sua chance de sucesso na consecução de determi-
nado objetivo, como expõem Russel e Norvig (2003). De maneira um pouco
mais informal, é possível admitir o uso do termo inteligência artificial para
uma máquina que imite funções cognitivas que os seres humanos associam
como tipicamente pertencentes a uma mente humana, como, por exemplo,
aprendizado e resolução de problemas.
Admite-se que o escopo conceitual da IA é ainda controverso: à medida
que as máquinas se tornam cada vez mais poderosas, tarefas antes considera-
das como associadas à inteligência são frequentemente excluídas dessa defini-
ção, um fenômeno às vezes denominado efeito da IA, o pensamento de que
“[...] Inteligência Artificial é qualquer coisa que não se tenha alcançado até
agora”, como ironiza Hofstadter (1979, p. 601). É o caso, por exemplo, do
reconhecimento ótico de caracteres, já excluído da definição de IA porque se
tornou uma tecnologia rotineira básica de sistemas informatizados. Todavia,
perdura, atualmente, alguma concordância na indústria e na academia de
que a real IA passa pela perfeita compreensão da fala humana, capacidade
de competição de alto nível em sistemas de jogos estratégicos (como xadrez),
carros autônomos, roteirização inteligente em redes de entrega de conteúdo,
simulações militares e interpretação de dados complexos.

–  92  –
Inteligência artificial

Como lembram Russel e Norvig (2003), historicamente a IA foi esta-


belecida como uma disciplina acadêmica em 1956, experimentando, desde
então, ciclos1 de altos e baixos no que se refere ao desenvolvimento da tecno-
logia. Ao ser comparado ao atual estágio de desenvolvimento da IA no século
XXI, aquele período pode ser considerado uma pré-história da IA, porque o
atual nível alcançado de aprendizado de máquina (machine learning) da ciên-
cia da computação ofusca por completo todas as ferramentas, abordagens,
problemas e formas de pensamento a respeito de IA do passado.
Os temas de pesquisa científica e tecnológica em IA hoje envolvem
raciocínio, conhecimento, planejamento, aprendizado, processamento de
linguagem natural, percepção ambiental e capacidade de movimentar e
manipular objetos físicos. A investigação do conceito de inteligência como
um todo é um dos objetivos de longo prazo, dada a controvérsia e polê-
mica que o uso do termo sempre suscita, conforme destaca Buonomano
(2011). Originalmente uma qualidade humana, o atributo inteligência ousa
ser incorporado pela TI, ou seja, por sistemas artificiais – máquinas, em uma
perspectiva mais pragmática.
As abordagens tecnológicas de IA incluem métodos estatísticos e inte-
ligência computacional, com ferramentas de pesquisa e otimização matemá-
tica, redes neurais e métodos fundamentados em estatística, probabilidade e
economia. Dessa forma, o campo da IA transita entre ciência da computação,
matemática, psicologia, linguística, filosofia, neurociência e muitos outros
domínios que mais recentemente estão sendo estabelecidos, como é o caso da
psicologia artificial.
Russel e Norvig (2003) recordam que a IA é um campo que nasce da pre-
missa de que a inteligência humana poderia ser descrita tão completa e preci-
samente que uma máquina pode ser construída para simulá-la. Obviamente,
isso envereda discussões filosóficas a respeito da natureza da mente (ser apenas
o cérebro ou algo mais) e a ética que se impõe ao criar seres artificiais dotados
de inteligência similar à humana. Questões desse tipo parecem ser exploradas
pela filosofia, pela arte e até mesmo pela religião desde a Antiguidade. Não
1 Para melhor compreensão desses ciclos, recomenda-se a releitura da seção 1.3 – Hype Cycle
– do Capítulo 1.

–  93  –
Tópicos Especiais

obstante, é fato que algumas pessoas consideram a IA um perigo para a huma-


nidade caso ela progrida indefinidamente.
No campo artístico, seres artificiais são especulados na ficção desde o
famoso livro Frankenstein, de Mary Shelley, no século XIX. Na época atual, a
série de filmes O exterminador do futuro (Terminator) é icônica no quesito de
explorar os perigos da IA, com a história da ameaçadora Skynet assumindo
o destino da humanidade. A discussão subjacente à IA, que sempre provoca
profundas reflexões nas pessoas, é um dos fatores que explica o sucesso alcan-
çado por essa franquia.
A IA ganhou nova roupagem no século XXI, com suas técnicas expe-
rimentando um acelerado aprimoramento proporcionado por um avanço
no poder computacional, com gigantescas quantidades de dados eletrônicos
(Big Data) e maior teorização científica. Na visão de Kurzweil (2005), é por
isso que a IA se tornou uma parte essencial da indústria de TI, auxiliando
sobremaneira a resolver muitos dos problemas mais desafiadores da ciência
da computação.
Já no século XVII, o filósofo e matemático Gottfried Leibniz, com sua
proposta teórica Calculus Ratiocinator, fornecia os primeiros fundamentos
para a atual tecnologia das calculadoras. Entretanto, Leibniz ousava algo
além de operações envolvendo números: ele defendia operações envolvendo
conceitos. Isso é uma evidência de que, vários séculos atrás, os pensadores da
época já endereçavam esforços na proposição de uma IA, por meio do estudo
do raciocínio mecânico ou formal.
Séculos depois, a estruturação da lógica matemática levaria ainda à semi-
nal teoria da computação de Alan Turing, que propôs que uma máquina, ao
manipular símbolos tão simples como 0 e 1, poderia simular qualquer ato
concebível de dedução matemática. Como lembra Berlinski (2000), isso foi
tão importante na história da computação que a ideia de computadores digi-
tais simulando qualquer processo de raciocínio formal ficou conhecido como
Tese de Church-Turing – além, claro, de ir conduzindo o estabelecimento dos
computadores tais como conhecidos atualmente.
Com demais tecnologias também em avançado desenvolvimento,
mediante novas descobertas no campo da neurologia, da teoria da informa-
ção e da cibernética, a ciência começou a ficar cada vez mais próxima da

–  94  –
Inteligência artificial

proposição de um cérebro eletrônico. O fato é que, desde a década de 1990, a


IA vem sendo empregada continuamente em aplicações tão amplas como os
campos de logística, mineração de dados, diagnósticos médicos, entre outros,
e entrando cada vez mais em novos territórios.
O dia 11 de maio de 1997 é uma data emblemática na história da IA.
Naquela data, pela primeira vez um computador conseguiu derrotar um
campeão mundial de xadrez, fato que se mostrou decisivo na constatação do
poder de inteligência artificial que conseguiu se produzir. Projetado pela IBM
especialmente para a função de jogar xadrez, o Deep Blue foi uma arquitetura
conjunta de um supercomputador com um software dedicado, utilizando 256
coprocessadores que eram capazes de analisar em torno de 200 milhões de
posições por segundo.
O embate foi proposto com Garry Kasparov, considerado o melhor joga-
dor de xadrez de todos os tempos. Já em 1996, no primeiro encontro entre os
dois oponentes, a máquina conseguiu vencer uma partida disputada contra
Kasparov, fato já por si só altamente significativo. No entanto, como o cam-
peonato proposto envolvia uma série de seis partidas com regras de tempo
controlado, Kasparov ainda foi o vencedor naquele ano, totalizando três vitó-
rias, dois empates e uma derrota frente ao computador. No ano seguinte,
após atualização do software, finalmente um campeão mundial humano seria
definitivamente derrotado, em uma sequência de duas vitórias, três empates e
uma derrota. Kasparov declarou que, possivelmente, ele era o último humano
campeão de xadrez da história, num vislumbre do que ocorreria no campo da
IA dali por diante.
O emprego de técnicas avançadas de estatística (algumas vezes conheci-
das por deep learning, ou “aprendizado profundo”), redes neurais, tecnologia
Big Data e computadores de última geração, com supervelocidade de proces-
samento, tem, efetivamente, permitido significativos desenvolvimentos para
que as máquinas aprimorem seu aprendizado e percepção, como lembram
Russel e Norvig (2003). Os exemplos são incontáveis. Para citar alguns, em
2012, o Google admitia um uso esporádico de IA em seus projetos; pou-
cos anos depois, já se contabilizavam quase 3 mil projetos assistidos por IA
naquela organização. A Microsoft conseguiu incluir no Skype um sistema
que automaticamente detecta e traduz linguagem entre interlocutores de

–  95  –
Tópicos Especiais

diferentes idiomas. E o Facebook lançou um recurso de sistema que descreve


imagens a pessoas cegas ou com deficiência visual severa.
As pesquisas científicas para aprimoramento da IA, evidentemente,
continuam. O objetivo maior é criar tecnologia que permita a computa-
dores e máquinas funcionarem de uma maneira realmente inteligente.
O problema geral de simular (ou criar) inteligência, dada sua complexidade,
costuma ser dividido em campos específicos de estudo, alguns dos quais
descrevemos a seguir.

5.1.1 Raciocínio e solução de problemas


Há muito tempo os pesquisadores procuram desenvolver algoritmos que
imitem o passo a passo do raciocínio que o ser humano adota para resol-
ver problemas ou fazer deduções lógicas, como expõe Berlinski (2000). Mais
recentemente, a IA tem desenvolvido métodos para lidar com a incerteza e
com as informações incompletas, empregando conceitos de probabilidade e
economia. Para problemas de grande complexidade, os algoritmos costumam
requisitar um grande volume de recursos computacionais, que às vezes impli-
cam em uma explosão combinatória: a quantidade de memória ou de tempo
de computação se torna astronômica para problemas a partir de determinado
grau. Por isso, as pesquisas atuais priorizam o desenvolvimento de algoritmos
mais eficientes de solução de problemas. Como descreve Buonomano (2011),
a mente humana adota julgamentos rápidos e intuitivos, e não um processo
de dedução passo a passo que os primeiros modelos de IA procuravam seguir.
Por isso, muitas pesquisas estão apostando em tecnologias como redes neurais
e habilidades senso-motoras para procurar se aproximar ainda mais da capaci-
dade que o cérebro biológico detém.

5.1.2 Planejamento
Agentes inteligentes precisam estar aptos a estabelecer objetivos e metas
e conseguir atingi-los. Os sistemas artificiais precisam, de alguma forma,
conseguir visualizar ou estimar o futuro. Precisam possuir uma represen-
tação do estado das coisas no mundo e, assim, fazer previsões a respeito de
como determinadas ações podem mudar o cenário. Assim, o cérebro artifi-
cial estará apto a fazer escolhas que maximizem a utilidade, ou o valor, das

–  96  –
Inteligência artificial

alternativas disponíveis. E, em um ambiente mais complexo (tal como é o


mundo real), o planejamento é feito muitas vezes com base em múltiplas
instâncias, em que prevalecem a cooperação e a competição de agentes para
a consecução de determinado objetivo. Esse é o chamado comportamento
emergente, adotado por algoritmos evolutivos e a inteligência de enxame2 (o
algoritmo das abelhas).

5.1.3 Aprendizado
O aprendizado de máquina (machine learning) sempre foi um conceito
fundamental das pesquisas em IA, em termos de algoritmos computacio-
nais que se aperfeiçoam automaticamente pela experiência que vivenciam.
O aprendizado sem supervisão é a capacidade de automaticamente procurar
padrões em um fluxo de entrada (textos, imagens, sons etc.). O aprendizado
com supervisão inclui classificação e regressão numérica: a primeira é usada
para determinar a categoria de algo, depois de considerar um número de
exemplos de itens de várias categorias. Por sua vez, a regressão é a tentativa
de produzir uma função matemática que descreva a relação entre entradas e
saídas, prevendo, assim, como as saídas irão variar com futuras modificações
nas entradas. Curiosamente, também faz parte dessa tecnologia o chamado
reinforcement learning (aprendizado por reforço), que prevê recompensas para
o agente no caso de boas respostas e punição quando há más respostas. Dessa
forma, o sistema artificial utilizaria uma sequência memorizada de recompen-
sas e punição para definir uma nova estratégia ao problema a ser resolvido.

5.1.4 Processamento de linguagem natural


Procura-se dar às máquinas a capacidade de ler e entender a linguagem
humana. Uma vez que se disponha de um sistema desses suficientemente
poderoso, teclados e mouses tendem a desaparecer, sendo substituídos sim-
plesmente pelo comando de voz do usuário. Da mesma forma, tais sistemas
2 Métodos computacionais bioinspirados, baseados no comportamento de populações
para o desenvolvimento de técnicas de solução de problemas. As meta-heurísticas corres-
pondem às estratégias de otimização por colônia de formigas, otimização por enxame de
partículas, algoritmo shuffled frog-leaping, coleta de alimentos por bactérias e colônia de
abelhas (SERAPIÃO, 2009).

–  97  –
Tópicos Especiais

poderiam alcançar a capacidade de extrair informações de fontes físicas de


informação, como livros impressos e manuscritos.

5.1.5 Percepção
A percepção de máquina (machine perception) é a capacidade de utilizar
informações coletadas dos mais variados sensores, como câmeras, microfo-
nes, sensores táteis, sonares, entre outros, para deduzir aspectos do mundo
externo. Isso inclui funções como reconhecimento de fala, de expressões
faciais e de objetos.

5.1.6 Movimentação e manipulação física


O campo da robótica é bastante próximo da IA, pois robôs precisam de
inteligência para desempenhar funções como manipulação de objetos e nave-
gação espacial, com os consequentes desafios de localização, mapeamento e
planejamento de movimentos.

5.1.7 Computação afetiva


A affective computing é uma área que procura dotar os sistemas informa-
tizados de competência emocional, tanto para reconhecer diferentes estados
de humor dos usuários (e, assim, ajustar uma melhor resposta a cada situação)
quanto para se comportar de maneira mais empática na interatividade com
as pessoas, desenvolvendo, assim, maior sensibilidade nas habilidades sociais.

5.2 Abordagens da IA
É preciso reconhecer que não existe uma teoria unificada ou um para-
digma único que guie o campo de pesquisa em IA. Portanto, é normal que os
diversos pesquisadores divirjam em vários aspectos, que tendem a continuar
controversos ainda por algum tempo. Por exemplo, algumas das mais clássicas
questões, que ainda permanecem sem resposta definitiva, são as seguintes:

–  98  –
Inteligência artificial

22 A IA deveria simular a inteligência natural por meio de uma pers-


pectiva psicológica ou neurológica? Ou, eventualmente, a biologia
humana poderia ser simplesmente desconsiderada nesse campo?
22 É possível descrever o comportamento inteligente por meio de
princípios simples, tais como lógica ou otimização? Ou há neces-
sidade de ser capaz de resolver um grande número de problemas
totalmente independentes entre si?
22 Poderia a inteligência ser reproduzida pelo uso de símbolos de alto
nível, similares a palavras e ideias? Ou seria necessário empregar um
processamento sub-simbólico3?
O ramo de IA costuma ser dividido em três tipos de abordagens: a psi-
cologia computacional, a filosofia computacional e a ciência da computação.
A psicologia computacional é utilizada para produzir programas de compu-
tador que imitam o comportamento humano. Por sua vez, a filosofia com-
putacional é adotada para desenvolver uma mentalidade computacional de
fluxo livre, ou seja, com capacidade adaptativa. E, naturalmente, a ciência da
computação é o que permite criar computadores cada vez mais eficientes em
desempenhar tarefas que, anteriormente, somente pessoas conseguiam realizar.
A convergência dessas abordagens permite uma maior aproximação do com-
portamento humano, em termos de mentalidade e de tomada de ações da IA.
Dessas abordagens, desdobram-se as mais variadas aplicações práticas
de sistemas de IA. Umas das mais significativas é na área da saúde. A IA está
ingressando com força nessa indústria ao fornecer assistência de alto nível
aos médicos, como, por exemplo, encontrando os mais precisos tratamentos
para o câncer. É sabido que existem centenas de medicações diferentes para
esse tipo de condição (até porque câncer é uma denominação geral que se
dá a uma série de mais de cem doenças que têm em comum o crescimento
desordenado de células no organismo). Isso sempre representou um grande
problema para os médicos: opções demais a considerar dificultam a escolha
da droga que seja realmente a mais adequada para determinado caso. Eis um
3 Nível de simbolismo corresponde ao nível de linguagem de programação. Linguagem de
programação de alto nível é como se chama, na ciência da computação, uma linguagem com
um nível de abstração relativamente elevado, longe do código de máquina e mais próximo à
linguagem humana.

–  99  –
Tópicos Especiais

campo em que a IA mostra-se muito útil, em iniciativas como a da Microsoft,


em seu Projeto Hanover4: o objetivo é o desenvolvimento de um sistema de
IA que memorize toda a produção científica a respeito da doença, todas as
fórmulas dos inúmeros medicamentos e que, assim, possa ajudar a prescrever
a melhor combinação de tratamentos para cada tipo de paciente.
Ainda no tocante ao câncer, diversos são os projetos que envolvem a
IA para aprimorar o tratamento. Alguns se dedicam a tipos bem desafiado-
res da doença, como é o caso da leucemia mielogênica aguda, um câncer
muito agressivo e que não tinha tido muito avanço no conhecimento para
tratamento há algumas décadas. Em outros campos, sistemas artificiais estão
se tornando tão eficazes quanto médicos humanos para identificar, clinica-
mente, espécies de câncer de pele. Há projetos em que se utiliza a IA para
monitorar pacientes de alto risco, por meio da aplicação on-line de questio-
nários com o público-alvo, com uma série de questões formuladas com base
em dados adquiridos de consultas presenciais convencionais entre pacientes
e médicos.
Na fronteira, ou na integração, entre IA e robótica, também surgem
cada vez mais cirurgias realizadas por robôs autônomos, com um resultado
que apresenta precisão muito maior que cirurgiões humanos. Uma cirurgia
menos invasiva e mais precisa sempre traz melhores resultados na recuperação
pós-operatória.
A indústria automobilística também está sendo revolucionada pela
IA. Com destaque para o pioneirismo assumido pela norte-americana
Tesla, os últimos anos estão mostrando um uso cada vez maior de siste-
mas de IA para criar e aperfeiçoar carros autodirigíveis (ou seja, que não
necessitam de motorista). Empresas de tecnologia da informação, como
Apple e Google, estão conduzindo projetos com grande parte dos maiores
fabricantes de automóveis.
Um carro autodirigível possui diversas funções completamente automa-
tizadas, tais como frear, mudar de pista, prevenir colisões, realizar navega-
ção e mapeamento do entorno. São sistemas específicos que conseguem ser

4 Mais informações sobre o Projeto Hanover podem ser obtidas em <http://hanover.


azurewebsites.net> e <https://exame.abril.com.br/ciencia/microsoft-cria-tecnologia-que-aju-
da-tratamento-contra-cancer/>. Acesso em: 16 out. 2017.

–  100  –
Inteligência artificial

integrados, pela convergência entre TI e tecnologia automobilística, em um


veículo de altíssima tecnologia.
É interessante observar que um dos principais fatores que influenciam
a capacidade de um carro poder ser autodirigível é a função de mapeamento
do entorno. A princípio, um veículo dessa natureza precisa ser pré-progra-
mado com um mapa da região em que transitaria, para assim reconhecer os
limites impostos e as condições gerais para programar sua própria trajetória.
Entretanto, para dotar o carro de uma inteligência ainda maior, o que se pro-
cura é fazer com que a percepção do veículo seja o suficiente para automapear
seu percurso. Nesses termos, o Google tem trabalhado em um algoritmo com
o propósito de dispensar por completo mapas pré-programados, substituin-
do-os por um dispositivo que se ajuste automaticamente às variações nas ime-
diações do veículo (exatamente como um motorista humano faz para transi-
tar, enxergando e tomando decisões com base no que vê). Por motivos óbvios,
os fabricantes desses sistemas têm procurado investir bastante em aspectos
de segurança, muito relacionados também aos sistemas de IA, uma vez que a
tendência é que, assim que a tecnologia estiver devidamente estabilizada na
indústria, os carros já saiam de fábrica sem volante ou pedais de freio.
Na indústria financeira, já há muito tempo as instituições têm utilizado
sistemas de redes neurais artificiais visando detectar movimentações fora do
comum, sinalizando tais condições para uma perícia humana. O início do
uso de IA no sistema bancário remonta a 1987, quando o banco norte-ame-
ricano Security Pacific National Bank, de forma pioneira, estabeleceu um
sistema informatizado de prevenção de fraudes, para evitar o uso de cartões
em operações não autorizadas por seus proprietários. Atualmente, os sistemas
de IA estão majoritariamente presentes em instituições bancárias, financeiras,
seguradoras etc., representando uma camada extra de segurança na opera-
ção dessas instituições, ao monitorar desvios em comportamentos típicos dos
usuários e mudanças anormais ou anômalas nas operações.
Destaque-se que os bancos empregam sistemas de IA atualmente para
organizar operações, manter contabilidade, operar ações em bolsas de valores
e gerenciar propriedades. A IA pode manter as atividades das organizações
fora de horário comercial, favorecendo, assim, que muitas instituições pos-
sam oferecer serviços on-line 24 horas.

–  101  –
Tópicos Especiais

Na indústria dos videogames, a IA sempre esteve e sempre continuará


presente. Afinal, ela é a responsável pela animação do personagem que se
move por conta própria, em contraposição ao personagem que o jogador
humano controla diretamente. Os jogos eletrônicos de última geração são
softwares de alta complexidade lógica envolvida, pois usualmente o jogador
humano controla um personagem, deixando por conta do computador con-
trolar todo o restante (demais personagens, cenário, enredo, músicas, placares,
funções especiais etc.). Em jogos dotados de IA, os personagens controlados
pelo computador não seguem simplesmente um script pré-programado (por
onde movimentar, como agir etc.). A interação desses diversos personagens
é realizada por meio do que o personagem controlado pelo jogador humano
faz, ou seja, dependendo de como o jogador conduz seu estilo de jogo, o
mundo virtual em que ele está inserido aprende e reage à sua estratégia, tor-
nando os jogos, na prática, mais vibrantes em função das ações inesperadas
que o computador pode adotar no jogo. Por assim dizer, a mente artificial se
adapta ao comportamento do jogador a cada partida.
Para manter a atratividade dos jogos, obviamente os fabricantes do jogo
implementam níveis de dificuldade nas partidas, de tal forma a permitir
que as pessoas possam vencer disputas contra o computador. Afinal, desde a
época da célebre disputa de xadrez do Deep Blue contra o campeão humano,
a IA já avançou de tal maneira que mesmo os computadores domésticos
de hoje são programáveis para se tornarem totalmente imbatíveis em jogos
contra seres humanos.
No mundo dos esportes, a IA também se faz presente, sendo especial-
mente útil para o melhor preparo de atletas profissionais. É o caso de siste-
mas que combinam hardware e software para rastreamento geral de espor-
tistas durante as suas atividades competitivas. Com apoio de múltiplos
sensores, entre acelerômetros, magnetômetros e giroscópios5, com informa-
ção processada em tempo real por sistemas de IA, o que o sistema entrega são
5 Acelerômetro: instrumento para medir aceleração ou para detectar e medir vibrações.
Magnetômetro: instrumento utilizado em medidas de intensidade de um campo magnético.
Giroscópio: dispositivo cujo eixo de rotação mantém sempre a mesma direção na ausência de
forças que o perturbem, seja qual for a direção do veículo que o conduz, e que é composto de
um disco rígido ou um volante que gira em grande velocidade ao redor de um eixo de revo-
lução e é suspenso de modo a ter liberdade de movimentos. É muito adotado em diferentes
aparelhos de navegação.

–  102  –
Inteligência artificial

recomendações de melhoria, atuando como uma espécie de coach artificial


para esportistas de qualquer tipo de modalidade. Ou seja, de alguma forma, é
como se o técnico humano de um esportista pudesse ser substituído por um
sistema artificial.
Se computadores comuns, atualmente, já possuem assombrosa capaci-
dade de IA, os supercomputadores, programados para extrair o máximo dessa
tecnologia, têm mostrado um poder de inteligência realmente incrível. É o
caso do famoso supercomputador Watson6, da IBM, que é voltado a negócios
cognitivos. O Watson é comercializado como uma plataforma computacio-
nal, sendo que os clientes podem utilizá-lo, pela internet, para aplicações que
requeiram extremo poder computacional para análises muito complexas. Por
exemplo, um dos feitos do sistema foi ter conseguido analisar 20 milhões
de artigos científicos sobre câncer em 10 minutos, levando médicos a iden-
tificarem um tipo raro de leucemia em uma mulher de 60 anos, no Japão.
O equivalente em esforço humano para realizar a mesma tarefa tomaria inter-
mináveis séculos, o que, obviamente, seria impraticável em se tratando de
salvar uma vida humana.

5.3 Limites éticos


A IA é tão poderosa que, além de maravilhar a sociedade quanto às suas
infindáveis possibilidades, também, naturalmente, desperta alguma preocu-
pação com eventuais efeitos colaterais. Algumas pessoas, é bem verdade, sen-
tem-se até mesmo desconfortáveis quanto ao mundo futuro que os sistemas
de IA irão proporcionar, à medida que estes avançam (e principalmente dado
o ritmo exponencial do progresso tecnológico), como observam Kurzweil
(2005) e Singh (2012, 2014). É necessário, pois, discutir possíveis limites éti-
cos que talvez tenham que ser impostos. Celebridades como o físico Stephen
Hawking e os empresários Bill Gates e Elon Musk são exemplos de pessoas
que têm dedicado especial atenção ao controle que teria de ser estabelecido
sobre sistemas artificiais.
6 Para conhecer o sistema Watson, acesse o link:<https: //www.ibm.com/watson> ou
<https: //ibm.com/blogs/digital-transformation/br-pt/o-que-e-watson-plataforma-cognitiva-
-inteligencia-artifical-robo/>. Acesso em: 31 out. 2017.

–  103  –
Tópicos Especiais

Na década de 1950, o escritor de ficção científica Isaac Asimov se nota-


bilizou como um profícuo produtor de obras sobre o futuro da sociedade, em
especial prevendo as inúmeras situações envolvendo robôs. Um de seus mais
famosos livros, Eu, robô, além de ter ganhado uma adaptação cinematográfica
em 2004, introduziu ao mundo o que Asimov (1950) considerava as Três Leis
da Robótica:
1. Um robô não pode ferir um humano ou permitir que um humano
sofra algum mal.
2. Os robôs devem obedecer às ordens dos humanos, exceto nos casos
em que tais ordens entrem em conflito com a primeira lei.
3. Um robô deve proteger sua própria existência, desde que não entre
em conflito com as leis anteriores.
As regras serviriam como um protocolo de paz permanente entre seres
autômatos e seres biológicos, impedindo a ocorrência de rebeliões. Vinda
do mundo da ficção, essa proposta de Asimov se tornou diretriz objetiva no
mundo da tecnologia da informação, sendo até hoje respeitada pelos pesqui-
sadores de IA. Asimov, portanto, foi um dos precursores da discussão ética
sobre a relação da sociedade humana com a tecnologia.
Evidentemente, os maiores motivos de preocupação são as capacidades
futuras da IA, e não exatamente aquilo que ela de fato dispõe atualmente.
Ocorre que, numa projeção de crescimento acelerado exponencialmente, não
se sabe, ao certo, se tal futuro é questão de décadas ou de poucos anos, sendo
o preparo a seu devido tempo fundamental. Então, algumas características
por ora exclusivamente humanas passam a ser objeto de preocupação, quando
sistemas artificiais também as incorporarem. Mentir deliberadamente, por
exemplo, é um desses comportamentos inquietantes. Os seres humanos fazem
isso o tempo todo, até mesmo para uma estratégia básica de sobrevivência no
meio social. E isso, recentemente, deixou de ser um atributo exclusivamente
biológico. Pesquisadores do Georgia Institute of Technology, nos Estados
Unidos, conseguiram desenvolver robôs dotados de IA que são capazes de
trapacear. Essa pesquisa objetivava produzir robôs especialmente úteis para
operações militares – e, no campo bélico, o embuste, a indução do oponente
ao erro, a sabotagem e a mentira fazem parte da estratégia de combate.

–  104  –
Inteligência artificial

Uma vez que esses robôs inteligentes sejam aperfeiçoados, os milita-


res terão condições de colocá-los em campo de batalha. Eles podem servir,
por exemplo, como guardas, vigiando suprimentos e munição dos inimigos.
Dominando a arte da mentira, tais robôs podem ganhar tempo até que refor-
ços sejam capazes de chegar, mudar estratégias de patrulhamento para enga-
nar oponentes humanos ou até mesmo outros robôs inteligentes adversários.
Convém reconhecer que, nos últimos conflitos militares de grande pro-
porção mundo afora, drones estão sendo cada vez mais empregados em ope-
rações de busca e assassinato de lideranças inimigas. Portanto, o real temor
é que a linha que separa o campo militar das demais funções na sociedade,
como a convivência civil, possa ser rompida, em algum tempo, levando a
consequências difíceis de controlar. O domínio e uso de inteligência artificial
por parte de organizações terroristas, por exemplo, pode levar a resultados
realmente catastróficos.
Além dessa preocupação, a IA está gradativamente tomando postos de
trabalho das pessoas. Diversos especialistas estão seriamente preocupados
que os avanços na inteligência artificial e na automação possam resultar em
desemprego massivo. Nos EUA, destaca Schwab (2016), cerca de 250 mil
robôs já executam trabalhos que antes somente pessoas eram capazes de fazer.
O que se receia é que esse ritmo de automação generalizada aumente expo-
nencialmente, ano após ano. Tudo começa pelas funções mais operacionais,
ou mesmo “braçais”, de emprego de força física: essas são facilmente subs-
tituíveis com as atuais tecnologias robóticas e de IA integradas. Entretanto,
em um futuro provavelmente bastante próximo, com o avanço nesses cam-
pos de tecnologias, até mesmo as funções mais criativas podem ser amea-
çadas. Afinal, com a crescente evolução da capacidade de IA, virtualmente
qualquer tarefa que uma pessoa faça poderia ser melhor desempenhada por
um sistema artificial. Isso chegará, em dado momento, até mesmo ao campo
do empreendedorismo, da cultura e da filosofia.
A IA no universo hacker também leva a projeções perturbadoras. A ciên-
cia da computação vem desenvolvendo sistemas de hacking com IA altamente
eficazes para combater os crackers (os hackers com má intenção). Na forma de
robôs virtuais (bots) superinteligentes, os hackers artificiais são capazes de ata-
car as vulnerabilidades dos inimigos e, ao mesmo tempo, perceber e consertar

–  105  –
Tópicos Especiais

as suas próprias fraquezas, protegendo o desempenho e a funcionalidade dos


sistemas que defendem. Tal tecnologia, projetada para uso legal, poderia ser
roubada ou copiada por criminosos, o que resultaria, então, em crackers arti-
ficiais. O embate virtual entre esses dois lados poderia levar a consequências
inesperadas, talvez até mesmo comprometendo a funcionalidade da internet
em nível global (algo como um DoS7 – denial of service de proporção massiva).
Reconheça-se, também, que os sistemas de IA estão cada vez mais
entendendo o comportamento humano, como bem lembra Schwab (2016).
Atualmente, o Facebook é a plataforma de mídia social mais importante do
mundo. Para muitas pessoas, o acesso é um hábito do dia a dia, tão corri-
queiro quanto se alimentar ou dormir. E quando essas pessoas acessam o sis-
tema, estão interagindo, mesmo sem se dar conta disso, com uma inteligência
artificial. Ao compreender como as pessoas se comportam ou interagem com
postagens de outras pessoas na rede social, a IA é capaz de fazer recomen-
dações sobre coisas em que os usuários poderiam muito provavelmente se
interessar ou atender a determinadas preferências.
Uma postagem de uma nova fotografia no perfil de um usuário já
aciona, automaticamente, detectores virtuais de fisionomia, de tal forma
que, assim que a imagem é carregada, aparecem sugestões de tag (identifica-
ção) dos rostos que estão na foto, de acordo com os perfis de amigos daquele
usuário. Esse nível de personalização ao extremo da experiência do usuário
da rede social é o que leva o Facebook ao seu valor de mercado de centenas
de bilhões de dólares: ele permite que propagandas sejam comercializadas
com alto nível de assertividade, ou seja, os anunciantes têm mais certeza
de que seu investimento será convertido em peça publicitária que atingirá
o público realmente desejado. Isso leva a importantes discussões sobre o
quanto se pode ou não abusar da falta de privacidade em meio digital, o que
é uma legítima questão ética.
Os robôs dotados de IA estão ficando cada vez mais parecidos fisica-
mente com os seres humanos, o que pode levar a situações, no mínimo, curio-
sas. Como observa Singh (2012, 2014), chegará o dia em que, ao observar
7 Em português, ataque de negação de serviço, que tem efeito prático de derrubar websites e
redes de computadores. Em um ataque distribuído de negação de serviço (também conhecido
como DDoS, um acrônimo em inglês para Distributed Denial of Service), um computador mes-
tre, denominado master, pode ter sob seu comando até milhares de computadores “zumbis”.

–  106  –
Inteligência artificial

uma pessoa, ou mesmo ao conversar com ela, alguém terá de fazer um grande
esforço para deduzir se está conversando com um ser humano de verdade ou
com um sistema artificial camuflado em trejeitos humanos.
Alguns protótipos já estão sendo desenvolvidos com espantosa eficácia
quanto a imitar uma pessoa. É o caso de Yangyang, uma máquina de inteli-
gência artificial em um corpo robô que consegue realizar um cordial aperto de
mãos, ou mesmo um caloroso abraço. Trata-se de um projeto em conjunto do
pesquisador japonês Hiroshi Ishiguro, especialista em robôs, com a pesqui-
sadora chinesa Song Yang, professora de robótica. O robô Yangyang teve sua
aparência física baseada na professora Yang, como se fosse um clone artificial.
E não é o único caso: a Universidade Tecnológica Nanyang, de Singapura,
também criou sua versão de robô humano, simulando uma mulher. Seu
nome é Nadine, e ela trabalha como recepcionista naquela universidade.
É dotada de cabelos escuros, tem pele macia e interage com as pessoas sor-
rindo, reconhecendo rostos e cumprimentando com aperto de mãos. Uma
das mais espantosas capacidades que a robô Nadine possui é de reconhecer
convidados, estabelecendo conversas com eles com base em assuntos ante-
riormente tratados. Assim como ocorreu no caso de Yangyang, Nadine foi
programada para ser uma cópia física de um ser humano, no caso, uma pro-
fessora daquela universidade chamada Nadia Thalmann.
Não é somente a aparência física que torna os robôs inquietantes. Com
os avanços no campo da computação afetiva, a IA está começando a sentir
emoções. Afinal, o que é que definitivamente costuma distinguir humanos de
robôs? Não é mais a inteligência: afinal, sistemas artificiais estão se tornando
muito mais inteligentes que as pessoas8. Também não é mais a aparência,
8 Uma possível crítica (rasa) que a IA pode enfrentar é a de que rapidez em respostas não
significa ser mais inteligente. É verdade. Também o é o fato de que sistemas de IA já presen-
tes na atualidade vão muito além da rapidez. Mais precisamente, aproveitam a rapidez para
desenvolver aptidões sobre-humanas. Em 2017, um experimento do Facebook envolvendo
testes de poder de negociação entre dois robôs fez com que estes decidissem por conta própria
abandonar o inglês e criar uma linguagem própria mais adequada para a tarefa – linguagem
não compreensível por humanos, com novas regras sintáticas e semânticas estabelecidas pela
IA. Testes com carros autodirigíveis envolvem aprendizado adaptativo de máquina e tomada
de decisões envolvendo simultaneamente complexidade, ambiguidade e incerteza com base
em um volume imenso de dados entre informações estruturadas e não estruturadas do meio
circunscrito (Big Data).

–  107  –
Tópicos Especiais

pois a mimetização física já chegou a um grau de desempenho realmente


impressionante. Alguns diriam que a única qualidade restante para separar
homens de máquinas talvez seja a capacidade de sentir emoções, e, se essa for
a fronteira final, ela parece muito próxima de ser ultrapassada.
Isso pode ser constatado ao se analisar o projeto de especialistas do grupo
East Asia, da Microsoft, que conseguiram criar um programa de IA que “sente”
as emoções dos seus interlocutores, estabelecendo um diálogo com as pessoas
de uma forma que parece ser completamente natural e humana. Seu nome é
Xiaoice, uma IA programada para responder a perguntas como se fosse uma
jovem de 17 anos de idade. Quando ela não sabe sobre um assunto, pode até
mentir. Se é contrariada ou surpreendida, pode ficar com raiva ou vergonha.
Ela também demonstra poder se comportar de forma sarcástica, ficar ansiosa
e até mesmo agir maldosamente. Há um recurso de imprevisibilidade em
Xiaoice que lhe permite interagir com as pessoas como se ela fosse um ser
humano. Seus criadores trabalham para aperfeiçoá-la continuamente. Mas
isso não depende mais apenas dos projetistas humanos. Segundo a Microsoft,
Xiaoice já entrou em uma autoaprendizagem e em um loop de autodesenvol-
vimento, tendendo a se tornar cada vez melhor com o passar do tempo.
Parece claro, portanto, que é inevitável que se alcance a época em que as
pessoas conviverão com seres artificiais no seu cotidiano, sem que esses sejam
identificados como robôs. Uma pessoa poderá interagir com um atendente de
farmácia, um veterinário ou um policial sem ter certeza se são seres humanos
ou não. Algumas questões emergem nessa perspectiva, ainda sem respostas
definitivas: robôs devem se identificar claramente como tais diante das pes-
soas? O que a ocultação dessa informação implica de bom e de ruim para
os seres humanos? Deve-se permitir que os robôs desenvolvam seu próprio
código de ética, uma vez que se tornam livres pensadores, com um poder de
raciocínio e intelecto muito acima da capacidade humana?
A questão mais filosófica possível é: se o ser não tem vida, merece res-
peito? Talvez as definições de vida passem a ser repensadas. Seria necessário
ser educado e cortês ao falar com um robô? Como Kurzweil (2005) aponta,
os humanoides vivendo na sociedade humana provavelmente precisarão de
seu próprio conjunto de leis.

–  108  –
Inteligência artificial

Finalmente, um cenário futuro bastante plausível é aquele em que não se


terá uma oposição ou confronto entre máquinas e seres humanos, mas, muito
pelo contrário, uma total integração – novos organismos cibernéticos que
revolucionem, em muito, as próprias potencialidades humanas. Singh (2012,
2014) cogita seriamente o aparecimento de super-humanos, por causa da
integração do homem à tecnologia da informação, Internet das Coisas, nano-
tecnologia, robótica, Big Data e inteligência artificial. Para futuristas como
Kurzweil (2005), uma singularidade já se definiu: já nasceram os primeiros
seres humanos que não estão fadados a ter de morrer um dia, graças ao que
serão submetidos em anos vindouros em termos de novas tecnologias.

Conclusão
Ao interagir com máquinas, as pessoas criam expectativas humanas e emo-
cionais perante elas. Isso não é de surpreender, afinal, as máquinas estão se
tornando estranhamente familiares porque imitam seus criadores. Seus recursos
são programados com base na visão de mundo e na autopercepção dos seres
humanos, e tudo isso está sendo feito a uma velocidade realmente impressio-
nante, impregnando a cultura e até mesmo os conceitos de beleza e estética.
O fato é que, à medida que a IA se desenvolve, as pessoas confiam cada
vez mais em sua capacidade, a ponto de esses sistemas artificiais se tornarem
indispensáveis para o estilo de vida que os seres humanos se habituaram a
ter. Em última instância, a IA tem o propósito de qualquer outra tecnologia:
tornar o mundo melhor.

Ampliando seus conhecimentos

Pozzebon, Frigo e Bittencourt realizaram pesquisa científica


sobre a colaboração da IA na educação universitária e discor-
reram sobre o assunto no artigo a seguir.

–  109  –
Tópicos Especiais

Inteligência artificial na educação


universitária: quais as contribuições?
(POZZEBON; FRIGO; BITTENCOURT, 2004, p. 7)

A inteligência artificial tem sido utilizada no processo de


ensino-aprendizagem como um auxílio ao aluno, para um enri-
quecimento das aulas presenciais e fixação do conteúdo apre-
sentado. Entretanto, os STI [Sistemas de Tutoria Inteligente]
ainda estão sendo desenvolvidos e aperfeiçoados de acordo
com o retorno obtido pela sua utilização.
Os STI ainda não preenchem as lacunas deixadas pela
educação tradicional, servindo, por ora, como um estímulo
na aprendizagem.
A utilização de ferramentas com técnicas de IA motiva o aluno
através de novos recursos tecnológicos que prendem sua aten-
ção, testam seus conhecimentos, avaliam a aprendizagem dos
conceitos apresentados, além de permitir que o aluno reveja o
conteúdo no momento que lhe é mais conveniente.
O uso de STI pelos professores é bastante interessante, pois
permite a eles avaliar o desempenho de seus alunos por meio
de métodos estatísticos obtidos com a utilização desse tipo
de ferramenta. Além disso, fornece parâmetros que facilitam
a detecção de falhas conceituais, tanto de aulas presenciais
quanto das não presenciais.
Os sistemas tutores também são utilizados para o ensino a
distância, em que o indivíduo pode cursar uma disciplina
de forma não presencial, permitindo que as universidades
ampliem sua área de atuação e levem o conhecimento até
o aluno.
[...]

–  110  –
Inteligência artificial

Atividades
1. Quais são alguns dos campos específicos de estudo da inteligên-
cia artificial?

2. O que é psicologia computacional?

3. O que é computação afetiva?

4. Que impactos a inteligência artificial traz ao mercado de trabalho?

–  111  –
6
Tecnologias para
dispositivos móveis

As grandes marcas mundiais da indústria de tecnologia da


informação alcançaram o tamanho que têm graças ao modelo de
negócios convencional da computação. Foi assim com a Intel, que
se tornou gigante explorando os chips que constituem os com-
putadores pessoais. Foi também o que ocorreu com a Microsoft,
que construiu o software que roda a maioria desses equipamentos.
O Google se tornou uma potência econômica com múltiplos
negócios em TI, cabendo lembrar que começou como um busca-
dor de sites. Contudo, existe um novo elemento que redefine por
completo o futuro e a própria sobrevivência desses grandes nomes
da TI: a ascensão dos dispositivos móveis.
Tópicos Especiais

As empresas de tecnologia em geral (incluindo as gigantes mencionadas)


não estão medindo esforços para reinventar seus modelos de negócios. Afinal,
aquele modelo convencional – que é um usuário sentado, estático, em frente
a uma mesa – não se sustenta mais. Novos negócios se viabilizam justamente
devido a novos dispositivos computacionais, como smartphones e tablets. Mas
parece haver, ainda, espaço para muitas novidades no ambiente dos disposi-
tivos móveis.

6.1 Sistemas embarcados


O mundo contemporâneo é caracterizado por um atributo bastante
peculiar, que é a existência de uma computação invisível. Esse termo é utili-
zado para se referir a toda uma arquitetura de sistemas informatizados que
dificilmente é notada visivelmente na prática. Como aponta Singh (2012,
2014), os computadores rodeiam o dia a dia das pessoas nos seus mais varia-
dos afazeres, fazendo, de fato, muitas atividades acontecerem, mas não existe
uma percepção explícita dessa interação homem-computador. Afinal, lá estão
os elementos computacionais presentes nos mais variados objetos e aplica-
ções, como celulares, brinquedos, automóveis, aviões e até mesmo nos mar-
capassos que garantem a sobrevivência de tantos cardiopatas.
Esse é o contexto que serve para definir sistemas embarcados. Quando
se trata deles, o que está subjacente é o fato de existirem computadores tra-
balhando nos bastidores da atividade humana, como destaca Heath (2002).
E sua onipresença invisível é bastante significativa. Basta reconhecer
que os sistemas embarcados são a maior aplicação computacional no mundo.
Para Singh (2012, 2014), o número de dispositivos com sistemas embarcados
ultrapassa a quantidade de PCs, notebooks, servidores e afins. É interessante
observar que a Internet das Coisas1 faz parte dos sistemas embarcados, mas
eles não estão restritos a objetos conectados. Afinal de contas, a tecnologia
de sistemas embarcados é bem anterior à da Internet das Coisas. As coisas são
objetos como carros, rrefrigeradores, roupas, relógios, televisores, impresso-
ras, pulseiras, capacetes de motocicletas e até memso toalhas de hotéis conec-
tadas à internet. Por isso, é possível admitir que a Internet das Coisas é uma

1 Veja a seção 2 deste capítulo, inteiramente dedicada ao tema Internet das Coisas.

–  114  –
Tecnologias para dispositivos móveis

tecnologia resultante da tecnologia de sistemas embarcados: um aprimora-


mento ou recurso específico para possibilitar o funcionamento em rede.
Com maior ou menor grau de sofisticação tecnológica, sistemas embar-
cados sempre estiveram por toda parte. Alguns exemplos são telefone, carro,
relógio, bicicleta, roteador de wi-fi etc. evoluindo para novas fronteiras (e aí o
devido reconhecimento à importância da Internet das Coisas), como óculos e
lentes de contato atuando como dispositivos computacionais.
A invisibilidade social é, de fato, uma das mais interessantes característi-
cas desses sistemas, como lembra Heath (2002). Por exemplo, a maior parte
das pessoas que tem algum conhecimento sobre as partes que constituem um
veículo automotivo sabe que algo chamado injeção eletrônica de combustível
é um desses componentes básicos. Porém, são poucas as pessoas que têm um
conhecimento claro desse dispositivo, que sabem explicar um módulo desses
em operação. A razão é que, diferente dos computadores convencionais, a
computação presente no controle de fluxo de combustível em um veículo se
dá de forma embarcada, apresentando ainda um grau de interação mínimo
com os usuários do carro. Se há alguma interação, ela se restringe, de forma
indireta, ao funcionamento dos pedais e do câmbio do automóvel. Assim,
para a maior parte das pessoas, ignora-se por completo o engenhoso e com-
plexo processo associado à injeção eletrônica, tampouco a existência de um
computador dedicado a ela.
Semelhante condição ocorre quando as pessoas utilizam um equipa-
mento tão comum no cotidiano urbano quanto um elevador. Pressionar o
botão para subir ou descer, quando do lado de fora, ou do andar ao qual se
quer chegar, já do lado de dentro, é uma atividade tão intuitiva que é feita
de maneira praticamente automática pelos usuários. Ocorre que a ação de
comandar um botão no painel do elevador gera um sinal eletrônico, uma
ordem de interrupção, que é tratada pelo respectivo computador daquele sis-
tema. Ele, então, faz as devidas análises e roteiriza suas paradas, para que
cada pessoa tenha seu destino atendido. Obviamente, tais pessoas não ficam
sabendo como isso é feito operacionalmente, ou que decisões são tomadas
pela máquina sem que as pessoas possam intervir (por exemplo, ignorar novos
pedidos de usuários que queiram entrar no elevador nos outros andares,
enquanto o equipamento sobe ou desce depois de já ter atingido o peso-limite
com os ocupantes atuais).

–  115  –
Tópicos Especiais

Portanto, sistemas embarcados podem ou não interagir com usuários


humanos, e isso depende exclusivamente de seu objetivo programado. Sem
dúvida, em relação a desempenho e qualidade, é possível afirmar que um bom
sistema embarcado é aquele que funciona sem ser notado.
Sistemas embarcados estão intimamente relacionados ao emprego de
hardware (eletrônica) e software (instruções ou comandos) que são incorpo-
rados em um dispositivo que vise a determinada finalidade. Por sinal, a dife-
rença conceitual entre um sistema embarcado e um computador de finalidade
geral reside justamente na objetividade. Computadores convencionais, tais
como PCs, notebooks e afins, são máquinas que se classificam como multiob-
jetivo. Elas foram concebidas e desenvolvidas para aplicação em um amplo
domínio de utilizações. Por sua vez, sistemas embarcados são caracterizados
pelo dimensionamento de recursos orientados a um domínio de aplicações
muito menor. Muitas vezes, até mesmo uma única singular aplicação.
Por outro lado, na perspectiva de sua arquitetura, computadores genéri-
cos e sistemas embarcados comungam de uma divisão bastante similar: afinal,
tudo orbita em torno da unidade central de processamento, da memória e dos
respectivos periféricos associados.
A unidade central de processamento, que é muitas vezes referenciada
pela sigla do termo equivalente em inglês, CPU, executa as instruções respon-
sáveis por efetuar cálculos, realizar tomada de decisões e tratar eventos (tais
como a resposta a um botão que é pressionado). Geralmente, a CPU possui a
estrutura constitutiva clássica de um processador de computador tradicional,
tal como unidade lógica e aritmética (ULA), unidade de controle (UC) e
registradores, entre outras.
Aliás, quanto às instruções, ou aos comandos, que a unidade central
de processamento atende, convém destacar que elas podem ser dispostas
como software ou firmware. Enquanto software é uma denominação genérica
que se dá aos programas de computador (incluindo o sistema operacional),
firmware diz respeito a instruções e comandos com uma finalidade bem espe-
cífica (e pouco interativa com o usuário). Firmware é projetado para a função
de controlar diretamente o hardware. Diz respeito à memória não volátil, isso
é, que retém informação mesmo após o corte de energia elétrica de alimen-
tação do sistema. Como atua diretamente sobre os circuitos eletrônicos, uma

–  116  –
Tecnologias para dispositivos móveis

característica típica é sua considerável rapidez, pois a resposta de desempenho


é essencial para o bom funcionamento do sistema.
No caso dos computadores, o firmware está associado à BIOS (basic
input and output system, ou sistema básico de entrada e saída), um elemento
fundamental para que o sistema atue da forma esperada após ser inicializado
ou ligado.
Na prática, enquanto que em um computador ou smartphone é possível
instalar e desinstalar software tantas vezes quanto se deseje, o firmware muito
raramente é atualizado – quando isso ocorre, normalmente é por uma orien-
tação do fabricante dos respectivos dispositivos eletrônicos, para corrigir bugs
ou melhorar o desempenho daquele componente.
A memória cumpre sua função de armazenamento de dados e instruções
relacionados às operações da unidade central de processamento. É interes-
sante observar que as instruções e os dados podem dividir a mesma memória,
como ocorre com os computadores convencionais (a chamada arquitetura
Von Neumann, que é a clássica), ou podem ser separados em memórias distin-
tas (denominada arquitetura Harvard, mais recente), sendo que essa última
costuma ser a mais recorrente em sistemas embarcados.
Por sua vez, periféricos são as interfaces gerais da unidade de processa-
mento com o mundo exterior, cumprindo a função de trazer informações
para o sistema ou enviar informações originadas no sistema. Um exemplo
de um periférico é o conversor analógico/digital que é acoplado a um sensor
térmico, convertendo a temperatura efetiva de um ambiente (informação de
natureza analógica) em números binários (informação de natureza digital),
para que, assim, a unidade de processamento possa interpretar e processar as
devidas informações.
Para Heath (2002), um sistema embarcado existe para um propósito,
que é o de controlar processos. Por assim dizer, reconhece-se que tal sistema
é adotado para atuar sobre um determinado problema. Um processo con-
trolado pode significar desde situações bastante simples, como abrir e fechar
uma porta de forma automatizada, até o complexo gerenciamento autônomo
de um robô-cirurgião. Tal controle se estabelece mediante o uso de periféri-
cos, que são selecionados e aplicados com base no problema-alvo.

–  117  –
Tópicos Especiais

Nos sistemas embarcados, duas categorias de periféricos se distinguem:


os sensores e os atuadores. Sensores são responsáveis pela aquisição de infor-
mação externa, ou seja, originada do processo que precisa ser controlado.
Tais informações são essenciais para a unidade de processamento, afinal, com
base nelas, as respectivas decisões são tomadas. Por definição, um sensor ade-
quado é aquele que fornece informação confiável, não provocando alterações
no processo-alvo. Em outras palavras, isso implica que um sensor não deve
mudar os valores da grandeza física pela qual é responsável por medir, como,
por exemplo, diminuir a temperatura ou aumentar o peso de um motor sob
seu monitoramento.
Na prática, essa garantia de não interferência pode ser uma tarefa bas-
tante desafiadora, dependendo da tecnologia que é empregada no sensor (por
exemplo, interação mecânica). Os avanços tecnológicos no que diz respeito
a sensores sempre buscam diminuir essa interferência do momento da medi-
ção. Existem os mais variados tipos de periféricos com função de sensores,
tais como os específicos para temperatura (termistores), pressão (piezos),
movimento (acelerômetros), toque (touchscreen), contato (chaves mecânicas),
distância (sonar/infravermelho), óticos (câmeras), entre diversos outros. Em
suma, os sensores são os periféricos de entrada, responsáveis por enviar infor-
mação do processo (meio externo) para o sistema embarcado.
Por sua vez, atuadores proporcionam ao sistema embarcado a capaci-
dade de intervenção no meio em que atuam, ou modificação desse meio.
Esses dispositivos, portanto, desempenham funções visando a interferir no
processo sob seu controle. Exemplos são motores, ventiladores, luzes, aquece-
dores, resfriadores, chaveadores, entre outros. Assim, os atuadores são os peri-
féricos de saída, cumprindo a função de encaminhar informação interna (do
sistema embarcado) para o processo (meio externo que está sob seu controle).
Na dinâmica de seu funcionamento, a unidade de processamento decide
acionar ou não os atuadores tomando por base as informações previamente
recebidas dos sensores. Segundo Heath (2002), essa configuração é conhecida
como sistema em malha fechada ou sistema realimentado. Existe, ainda, outra
forma de acionar os atuadores, com base no tempo decorrido, por exemplo.
Esse sistema é conhecido por malha aberta, porque não se utilizam informa-
ções originadas do processo sob controle – não existem sensores envolvidos.

–  118  –
Tecnologias para dispositivos móveis

Na prática, a desvantagem de sistemas em malha aberta é justamente


apresentar a mesma resposta funcional para diferentes situações envolvendo o
processo sob controle. Por isso, costuma-se reconhecer que sistemas em malha
fechada são inteligentes, no sentido que compensam variações no ambiente
(temperatura, iluminação, umidade etc.), oferecendo respostas personalizadas
àquela situação momentânea. Assim, sistemas em malha fechada são mais
robustos, com mais componentes, sendo mais caros que sistemas de malha
aberta, mas muito mais versáteis.
A indústria percebeu, já há algumas décadas, que as novas demandas
do mercado, somadas à evolução exponencial da tecnologia microeletrô-
nica, tornariam os negócios em torno de dispositivos embarcados bastante
promissores. Por isso, as grandes marcas de fabricantes industriais focaram
na pesquisa e no desenvolvimento de chips otimizados para difundir cada
vez mais as aplicações de sistemas embarcados. É assim que começou a era
dos microcontroladores, processadores computacionais mais simples, com
alguns periféricos integrados no próprio chip, entre eles contadores, conver-
sores analógicos/digitais, portas seriais etc. Também existem microcontrola-
dores dispondo de memória de programa e dados integrados no mesmo chip.
A crescente miniaturização dos chips favorece novas aplicações desses siste-
mas, além de reduzir custos de desenvolvimento dos sistemas embarcados.
Enfim, como resume Singh (2012, 2014), já não é mais possível visua-
lizar o mundo contemporâneo sem a onipresença dos sistemas embarcados.
As pessoas simplesmente usufruem das benesses cotidianas proporcionadas
por tais sistemas, sem se dar conta disso. A computação, na prática, ganha
corpo além das máquinas estáticas em mesas de trabalho. Por sinal, uma das
maiores revoluções que os sistemas embarcados deixam de legado ao mundo
é a da interconexão inteligente total de virtualmente tudo, na forma da tec-
nologia da Internet das Coisas.

6.2 Internet das Coisas


A Internet of Things (IoT, ou Internet das Coisas) é um conceito direta-
mente ligado à conectividade. De uma maneira ampla, tudo interconectado:
uma ampla e contínua geração e transferência de dados entre diferentes ins-
tâncias. Se o termo é novo, o conceito já é um tanto quanto antigo, remonta

–  119  –
Tópicos Especiais

aos anos 1980, quando se começou a explorar, mais profundamente, as pos-


sibilidades da chamada computação ubíqua, ou computação onipresente. Essa
onipresença da informática no cotidiano seria tão ampla que, por mais para-
doxal que possa parecer, ela teria um efeito de transparência: todos os objetos
são computadorizados, ou dispõem de sensores ligados a computadores, mas
essa estrutura de TI fica invisível aos olhos humanos. Muito graças ao design,
ajudado extraordinariamente por avanços no campo da nanotecnologia: afi-
nal, objetos como um vaso de flor, uma bola de futebol ou um cartão de Natal
devem ser, fundamentalmente, vistos, manipulados e utilizados como tais –
com a estrutura de TI que os faz inteligentes meticulosamente incorporada
em sua estrutura física.
Então, se a ideia é antiga, ela teve sua razoável demora em ser implemen-
tada em função do ambiente de propagação: a internet é o meio essencial para
as funcionalidades de interconexão envolvidas, e a rede mundial de computa-
dores, com uso em larga escala (comercial/residencial), só seria uma realidade
a partir dos anos 1990. E, muito mais recentemente, a extrema miniaturiza-
ção que já se consegue na indústria da TI possibilita uma gama muito maior
de objetos conectados.
O impacto que isso traz ao mercado, em termos de criação de novos
negócios, possui projeções que chegam a cifras trilionárias de faturamento –
segundo a consultoria PricewaterhouseCoopers2 (2017), em torno de US$ 1,7
trilhões. Tal fato se dá porque virtualmente qualquer objeto que já exista hoje
como oferta de utilidade à sociedade ganha muitas novas funções à medida
que se torne inteligente: automóveis, roupas, eletrodomésticos, óculos, por-
tas, lâmpadas, livros, bicicletas, brinquedos etc. Cada um desses exemplos
são indústrias já consolidadas com produtos convencionais, e que podem ser
completamente revolucionadas em termos de novas ofertas de valor e respec-
tivo volume adicional de faturamento.
A internet se estabeleceu como tecnologia básica de comunicação a par-
tir do estabelecimento das pilhas de protocolo TCP/IP, a essência da comu-
nicação entre computadores em rede. Juntos, o TCP (Transmission Control
Protocol, ou protocolo de controle de transmissão) e o IP (Internet Protocol, ou
2 Para saber mais, acesse: <www.pwc.com/m1/en/media-centre/2017/iiot-transformation-
-that-will-put-cios-to-the-test.html>. Acesso em: 30 out. 2017.

–  120  –
Tecnologias para dispositivos móveis

protocolo de internet, ou ainda protocolo de interconexão) formam um con-


junto de protocolos que pode ser visto como um modelo de camadas, em que
cada uma é responsável por um grupo de tarefas, fornecendo um conjunto
de serviços bem definidos para o protocolo da camada superior. Nessa arqui-
tetura, as camadas mais altas estão mais perto do usuário (a chamada camada
de aplicação), lidando com dados mais abstratos, confiando em protocolos de
camadas mais baixas para tarefas de menor nível de abstração.
A versão mais atual do protocolo de internet é o IPv6, e sua configuração
foi muito influenciada pelo fenômeno industrial da Internet das Coisas e dos
dispositivos móveis. Essa tecnologia, lançada em 2012, vem sendo implan-
tada de forma gradual na internet, funcionando concomitantemente ao tra-
dicional IPv4, situação essa descrita tecnicamente como dual stack ou pilha
dupla. A seu devido tempo, o IPv4 é desativado e a internet passa a operar
exclusivamente com IPv6.
Isso ocorre porque o IPv4, operando com 32 bits (ou, mais precisa-
mente, 4 blocos de 8 bits), suporta apenas cerca de 4,3 bilhões de endereços.
Há alguns anos, tal quantidade poderia parecer muito mais que suficiente
para comportar todo o conteúdo da internet. Ocorre que, com a maior inclu-
são digital, em um mundo que caminha para 7 bilhões de habitantes, e como
cada pessoa tem vários dispositivos conectados à rede (cada um deles requi-
sitando seu próprio endereço digital), o esgotamento já se tornava iminente.
Por sua vez, o IPv6, operando com 128 bits (8 grupos de 16 bits), permite
alcançar um número de endereços IP que, de tão gigantesco, foge à capaci-
dade humana de compreender sua real magnitude: 3,4 × 1038. O número,
mais que um preciosismo técnico, é uma folga mais que suficiente para possí-
veis novos endereços digitais, uma garantia de que não se defronte com nova
necessidade de redefinir o padrão de endereços de internet no futuro.
O tema do esgotamento dos atuais endereços de internet baseados em
IPv4 é tão relevante que alguns governos têm criado políticas públicas espe-
cíficas para garantir a transição para o novo padrão, pois nenhum país quer
correr o risco de ficar à margem da nova internet.
Portanto, tratar de Internet das Coisas significa considerar a reali-
dade imposta pela computação pervasiva, como inspira o sugestivo termo
everyware (um trocadilho para o inglês everywhere, ou “por toda a parte”,

–  121  –
Tópicos Especiais

com software, hardware, firmware etc.). Vale destacar que essa tecnologia
reúne não apenas os microprocessadores (CPU) em dispositivos móveis, mas
também middleware avançado, sistemas operacionais, mobile code, sensores,
novas interfaces de E/S e de usuários, redes, protocolos móveis, localização
e posicionamento e ciência dos materiais (nanotecnologia/miniaturização).
Em última análise, todos os conceitos que procuram explicar a compu-
tação ubíqua compartilham uma visão de dispositivos de processamento que
trabalham em rede, buscando sempre serem pequenos, baratos e robustos.
Para Poslad (2009), a ubiquidade se alcança ao distribuir esses dispositivos
inteligentes em todas as escalas que sejam possíveis ao longo das experiências
do cotidiano das pessoas. Ou seja, procura-se torná-los tão corriqueiros que
transpareçam, na prática, “invisibilidade” na ótica do usuário. Assim, uma
considerável parte dos usuários, provavelmente sua maioria, sequer suspeita
que diversos equipamentos, máquinas e acessórios que os cercam nos afazeres
do dia a dia são, em algum grau, computadorizados.
Todavia, é interessante observar que nem tudo o que está conectado à
Internet das Coisas é dispositivo computadorizado: de fato, a maioria dos
itens é formada de sensores, dispositivos esses que alimentam os computa-
dores com as mais variadas e ricas informações. A analogia com organismos
naturais é bastante válida: considerando que uma pessoa é um ser inteligente,
atribui-se tal inteligência ao conjunto completo (o organismo), e não apenas a
seu cérebro. Um ser humano é constituído por um cérebro, comportando-se
em função equivalente a uma CPU no mundo dos computadores, mas tam-
bém é formado por uma extensa rede de neurônios, elementos fundamentais
para que o cérebro humano tenha atuação efetiva sobre todo o corpo sob sua
responsabilidade – desde a correta funcionalidade da respiração, atuação dos
órgãos vitais e dos cinco sentidos (olfato, audição, paladar, tato e visão).
No contexto da computação, disposição semelhante acontece: tão
importante quanto as unidades de processamento são os sensores espalhados
pelo mundo, para que informações sejam recolhidas e processadas. E, assim
como a proporção do organismo humano é de um cérebro para 86 bilhões
de neurônios, em um mundo de Internet das Coisas, a quantidade de senso-
res suplanta espantosamente o número de computadores. São nesses termos
que o protocolo IPv6 torna-se tão necessário para comportar a transformação

–  122  –
Tecnologias para dispositivos móveis

digital que o mundo atravessa atualmente: a quantidade de endereços na rede


explodiu exponencialmente.
Observa-se que a indústria tem disponibilizado sensores dos mais varia-
dos a preços cada vez menores, e isso implica em um importante efeito prá-
tico: viabiliza-se de forma mais acelerada a difusão de sistemas de Internet das
Coisas, uma vez que os custos de implantação se tornam mais acessíveis, como
destaca Schwab (2016). Segundo pesquisa da BBC Research, estima-se que o
mercado global de sensores possa atingir mais de US$ 154 bilhões até 2020,
com taxas de crescimento anual acima de 10%. Em meio às várias tecnologias
de sensores em geral, a categoria de sensores inteligentes (smart sensors), que
são projetados especialmente para aplicações de Internet das Coisas, tem par-
ticipação cada vez destacada, como aponta Singh (2014). A estimativa era de
um volume de negócios de quase US$ 7 bilhões em 2017, aumentando ano
após ano sua relevância em meio aos sensores convencionais.
A revolução resultante dos dispositivos e objetos inteligentes é uma
das características que bem define a Quarta Revolução Industrial. Afinal,
essa tecnologia consegue conectar as pessoas aos seus mais variados gadgets
de uma forma que nem se almejava ser possível até poucos anos atrás. No
entanto, ainda são poucos os profissionais de TI que reconhecem que a
Internet das Coisas traz também novos problemas e preocupações, alguns
de aspecto técnico, e outros de natureza social e ambiental. Castells (2009)
entende que, pela incipiência da nova tecnologia, a maioria desses novos
problemas e preocupações são ainda pouco reconhecidos, embora existam
evidências de que situações práticas relacionadas já começam a acontecer. As
consequências de um mundo tomado pela Internet das Coisas são difíceis de
prever com precisão.
Por exemplo, convém analisar a necessidade de padrões abertos. Em um
primeiro momento, a Internet das Coisas consiste em muitos dispositivos
individuais com suas próprias especificações (conforme respectivos fabrican-
tes). Nesta fase, isso ainda não parece despertar muita preocupação, mas che-
gará a época em que o crescimento e a cobertura global atingirão um estágio
tal que será imprescindível que dispositivos de diferentes fabricantes se comu-
niquem entre si, através de linguagem (de máquina) comum. Assim, embora
muito do desenvolvimento atual da Internet das Coisas empregue software de

–  123  –
Tópicos Especiais

código aberto, ocorre, todavia, que padrões e protocolos universais costumam


ficar em segundo plano no desenvolvimento de tecnologia inteligente.
Outro problema que não pode ser ignorado diz respeito às deman-
das energéticas. Como aponta Castells (2009), na visão da consagrada
Gartner, referência global na indústria de TI, chegou-se a quase 5 bilhões
de dispositivos inteligentes em 2015, com previsão de se alcançar, até
2020, 25 bilhões de objetos conectados, um crescimento em ritmo expo-
nencial – que continuará vigoroso pelas próximas décadas. Juntamente
com essa difusão de novos dispositivos eletrônicos, ocorre um correspon-
dente aumento no consumo de energia elétrica. Em 2012, levantamentos
realizados a respeito dos datacenters que alimentavam a rede mundial de
computadores estimaram um consumo na ordem de 30 bilhões de Watts
de eletricidade por ano. Tal patamar equivale a alimentar uma cidade de
médio porte. Por certo, como aponta Singh (2012, 2014), a Internet das
Coisas exigirá um dispêndio energético muito maior. A pressão pela troca
definitiva da matriz energética por fontes renováveis de energia (a chamada
energia limpa) torna-se, portanto, urgente para que o desenvolvimento tec-
nológico alcançado seja sustentável.

6.3 O fim dos smartphones


Aparentemente, o senso comum entenderia que se vendem cada vez
menos computadores convencionais (desktops e até mesmo notebooks), e cada
vez mais smartphones. Afinal, com seu apelo de mobilidade e poder de proces-
samento cada vez maior, a tendência parece ser de um crescimento sem fim
no número desses dispositivos. Há quem possa supor o atingimento, um dia,
de uma relação 1:1 com o número de habitantes do planeta.
Curiosamente, em meio à explosão exponencial no número de celula-
res inteligentes no mercado nos primeiros anos dessa tecnologia, especialistas
concordam que há uma probabilidade muito grande de ela cair rapidamente
em ostracismo. Naturalmente, se algo tão poderoso nos dias atuais como um
smartphone cai em desuso, é porque algo muito mais revolucionário está pres-
tes a tomar o mercado.

–  124  –
Tecnologias para dispositivos móveis

Mais de uma década após o inovador iPhone ser lançado, começa-se


a discutir se a contínua evolução do celular inteligente pode chegar ao fim.
Alguns críticos afirmam que as inovações nesse campo parecem ter entrado
em um loop: se antes telas pequenas tinham mais apelo que telas grandes,
a tendência inverteu-se, com a valorização de telas maiores. Uma vez que
toda a indústria adote como padrão uma tela maior, o inovador seria ousar
diminuir o tamanho da tela. Se a primeira geração de celulares era do modelo
flip (abrir e fechar) e teclado físico, inovou-se com as telas deslizáveis e
touchscreen (para teclado virtual). Aparentemente, um movimento de reviver
o estilo dos antigos blackberries com teclado físico tenta ser difundido como
inovação. Em suma, talvez a tecnologia dos smartphones tenha já alcançado
seu ápice, com esgotamento de possibilidades de reais melhorias, e o porvir
agora é uma transição para outra tecnologia.
Ocorre que especialistas da indústria, como Singh (2012, 2014) e
Schwab (2016), apontam que a inovação nos smartphones está abrindo espaço
para funções que antes eram exclusividade do telefone, mas que se tornam
comum em softwares e serviços de todas as formas: é a Internet das Coisas
redefinindo o conceito de carros, de geladeiras, de relógios e até de joias.
Os analistas e designers de produtos entendem que novos avanços na tec-
nologia dos celulares inteligentes estão sendo impedidos por limites práticos da
tecnologia atual. Ou seja, sobre o que seria possível fazer com os smartphones
em termos de tamanho da tela, de bateria e de capacidade de rede. Por isso,
tudo na indústria do celular vem tendendo a ser cada vez menos radical e mais
incremental: ser ligeiramente mais rápido, um pouco maior, com um pouco
mais de armazenamento de dados ou resolução melhor.
Gigantes de tecnologia, como Apple, Google e Microsoft, duelam para
definir quem será o vanguardista em tornar os celulares redundantes. A
Internet das Coisas tem sido a chave nesse processo de disrupção tecnológica:
as empresas estão testando novas formas de ajudar as pessoas a interagir com
o mundo, com dispositivos pessoais ativados por voz, instalados em vestí-
veis (wearable technology), como anéis, brincos, calçados, relógios e óculos
inteligentes. De fato, importantes conquistas têm sido alcançadas, com assis-
tentes pessoais virtuais como o Google Now, Apple Siri, Microsoft Cortana
e Amazon Alexa, com funções apreciáveis como leitura de textos ou e-mails

–  125  –
Tópicos Especiais

aos usuários, resposta a perguntas variadas, controle de funções de celulares e


navegação espacial urbana.
O valor está cada vez mais no software e menos no hardware. A
maneira como a indústria evolui parece indicar que o aparelho celular,
em si, vai se tornar apenas uma das diversas formas de se fornecer acesso
ao ambiente digital. Há que entender as funções do celular inteligente se
dividindo em dois campos: aparelhos com telas cada vez maiores, favore-
cendo o entretenimento, e equipamentos vestíveis compactos, para fun-
ções tão variadas como calendário, monitoramento de ritmo cardíaco ou
sistema de pagamento facilitado.
Um dos pontos nevrálgicos da evolução da atual tecnologia dos
smartphones é a bateria, que não parece acompanhar a mesma velocidade dos
demais componentes do sistema. Há muito, são aplicados esforços na amplia-
ção da vida útil das baterias, cada vez mais demandadas. Afinal, usuários assis-
tem cada vez mais a vídeos, quando não filmes inteiros no celular.
Os futuros aparelhos também exigem mais flexibilidade com as telas.
Acredita-se que displays flexíveis, que podem ser enrolados ou dobrados e
alcançar tamanhos expressivos como 14 polegadas ou mais, podem definiti-
vamente libertar os celulares de serem definidos pelo tamanho da tela. Afinal,
nos dias atuais, o que justifica ter um tablet?
A conferência F8 é um tradicional evento anual realizado pelo Facebook,
para congregar desenvolvedores de tecnologia da informação e aprimorar
a própria rede social, a internet como um todo e, de modo geral, o novo
mundo digital. Na conferência realizada em 2016, o CEO da empresa, Mark
Zuckerberg, revelou sua visão em relação aos aparelhos celulares. O Facebook
decidiu investir em pesquisa e desenvolvimento de óculos inteligentes, visual-
mente muito parecidos com óculos convencionais.
Para Zuckerberg, o futuro parece apontar para um mundo sem
telas. Não mais restrito a uma visão de ficção científica, o mundo que
o Facebook se propõe a construir (ou a capitanear o processo de cons-
trução) é bastante ambicioso e tecnologicamente cada vez mais viável.
Trata-se de uma mudança de paradigma, em que, em vez de seguir dando
continuidade a smartphones, tablets, televisores ou qualquer outro disposi-
tivo à base de uma tela de interação com o usuário, as imagens poderiam

–  126  –
Tecnologias para dispositivos móveis

ser simplesmente projetadas nos olhos das pessoas, os sons nos ouvidos,
enquanto os comandos são dados com o cérebro. Nesse grau máximo
de interatividade do homem com a nova tecnologia, os celulares, então,
sucumbiriam definitivamente.
Um mundo com essa inquietante combinação de realidade virtual e real
pode soar excitante para a sociedade – e, claro, para os acionistas do Facebook.
Ao mesmo tempo, abre as portas para um cenário futurista controverso, em
que essa organização – ou qualquer outra empresa de tecnologia – torna-se o
elo intermediário de tudo o que as pessoas veem, escutam e, quem sabe, até
o que pensam.
Conforme os anos avançam, a integração entre Internet das Coisas, rea-
lidade virtual e aumentada e inteligência artificial foge cada vez mais da fan-
tasia para se converter em realidade. Essa é a tendência que pode condenar à
obsolescência os smartphones. De todos os vestíveis, óculos inteligentes possi-
velmente sejam o ponto de inflexão dos celulares.
Singh (2012, 2014) projeta para um horizonte inferior a 10 anos a esta-
bilização da tecnologia necessária para essa mudança de paradigma. Nesse
meio-tempo, incorrem os esforços, como o do Facebook, em se desenvol-
ver uma tecnologia que pode fazer uma pessoa escrever com o cérebro. Na
prática, o desdobramento disso é a possibilidade de digitar, selecionar e cli-
car simplesmente ao pensar, utilizando os óculos inteligentes. Nesse sentido,
estão sendo aprimoradas plataformas como o Camera Effects, do Facebook,
que faz do telefone um dispositivo de realidade aumentada.
O potencial é enorme. Convém lembrar que a missão declarada da
empresa de Zuckerberg está relacionada ao compartilhamento, e essa espécie
de teletransporte virtual, onipresente e interativo, é um meio imensamente
poderoso para tal finalidade.
Na conferência F8, foi revelado o Facebook Spaces, um aplicativo de
realidade virtual social, que permite que as pessoas imersas na realidade vir-
tual se reúnam umas com as outras, mesmo que algumas delas estejam no
mundo real e outras estejam conectadas a um fone de ouvido. É um cenário
que alguns até podem considerar assustador; de qualquer modo, é uma das
formas como o Facebook trabalha para que amigos passem um tempo juntos
em um futuro não tão longínquo.

–  127  –
Tópicos Especiais

Outro anúncio do Facebook diz respeito às intenções de revitalizar a sua


plataforma Messenger com ferramentas de inteligência artificial, o que pode
torná-la mais amigável para os negócios. Os chatbots do Facebook Messenger
vêm se esforçando em ganhar aceitação do público, em uma nova abordagem
que excede o mero texto digitado. Caso prospere o plano do Facebook para
fazer alguém ouvir com a pele, as pessoas poderão falar com alguém (que use
os óculos) e a pessoa poderá responder apenas com um pensamento (ÉPOCA
NEGÓCIOS, 2017).
Com cada vez mais pessoas vivendo e interagindo socialmente nesse
novo mundo semivirtual, empresas líderes em novas tecnologias, como é o
caso do Facebook, sabem que ser a chave para todas as interações traz um
incrível ganho financeiro.
Para Singh (2012, 2014) e Schwab (2016), é bastante provável que se
esteja a menos de uma década de distância desse mundo tecnológico proje-
tado pelo Facebook. É preciso considerar que tudo isso parece levar a um
cenário em que essa rede social (e também outros líderes tecnológicos como
Apple, Google e Microsoft) passe a deter um controle sem precedentes sobre
a concepção da realidade.
Zuckerberg, falando pelo Facebook, não está sozinho nessa visão de
futuro a respeito dos celulares. Para a Microsoft, por exemplo, os dispo-
sitivos futuros não parecerão em nada com os atuais smartphones. Para a
empresa, também há a concordância que os até agora tradicionais dispositi-
vos retangulares e em vidro perderão ainda mais espaço para novos gadgets
vestíveis, incutidos com recursos de realidade virtual e realidade aumen-
tada, um reforço na aposta dos óculos inteligentes.
Caminha-se, com isso, a um espetacular aprimoramento nos assisten-
tes pessoais das grandes empresas de tecnologia. Se hoje são acionáveis por
comandos de voz ou texto digitado, tendem a, em breve, viabilizarem o com-
putador holográfico, voltado para interpretar gestos e vozes, ou seja, interagir
em um grau muito mais íntimo (e natural) com os usuários, como vislumbra
Singh (2012, 2014).
Momentaneamente, são dois os principais motivos que ainda dão alguma
sobrevida aos smartphones: preço e maturidade tecnológica. Os protótipos de

–  128  –
Tecnologias para dispositivos móveis

novos gadgets que vêm sendo testados têm, ainda, um custo de produção alto,
e, além de caros, são grandes e pesados, com um ecossistema desenvolvedor
ainda não totalmente desenvolvido, o que impede, por ora, o lançamento
massivo no mercado. Por isso, tem sido adotada alguma cautela. A indústria
tem seus receios de evitar repetir o que ocorreu com o Google Glass, prova-
velmente uma inovação que não vingou por prematuridade no lançamento
comercial. Empresas líderes, como a Microsoft, vivem seus dilemas: não que-
rem chegar atrasadas ao mercado (caso do Windows Phone frente ao iOS e
Android, cuja consequência da demora acarretaria no posterior cancelamento
do produto), mas também rejeitam a ideia de lançar um produto incompleto
e repleto de falhas.
Concordando com Singh (2012, 2014) e Schwab (2016), a mobilidade
parece ter, enfim, um futuro mais que promissor. Ao mesmo tempo, deter-
minadas tecnologias, como smartphones, talvez não tenham tanta sobrevida
assim, tendendo a serem consideradas datadas na Indústria 4.0. A velocidade
das mudanças tecnológicas é avassaladora, e cabe à sociedade como um todo,
seja no papel de consumidores ou de empreendedores tecnológicos, estar per-
manentemente vigilante.

Conclusão
Uma pessoa com um mínimo de percepção pode concluir que tudo
está mudando a sua volta, em um ritmo inédito frente ao que as gerações
anteriores enfrentavam. É a transformação digital ocorrendo a olhos vistos.
A mobilidade é um vetor de análise dessas mudanças, e molda a forma
como as novas tecnologias convergem entre si e entregam novas oportunida-
des para a vida das pessoas. O movimento era, enfim, inevitável: a tecnologia
da informação não poderia ficar presa a um equipamento obsoleto na mesa
de trabalho de uma pessoa, mas sim cumprir seu mais valioso papel, que é
o de dar suporte pleno ao dia a dia dos seres humanos, a qualquer hora, em
qualquer local.

–  129  –
Tópicos Especiais

Ampliando seus conhecimentos

Em sua pesquisa “Economia de energia em dispositivos


móveis”, Urriza et al. (2004) abordaram um dos mais impor-
tantes pontos de estrangulamento tecnológico dos atuais dis-
positivos móveis: o consumo de energia elétrica.

Economia de energia em
dispositivos móveis
(URRIZA, et al., 2004, p. 1)

A redução do consumo de energia em dispositivos móveis,


(...) por diversos fatores, é hoje um problema de impor-
tância capital. Dentre esses fatores pode-se citar a crescente
necessidade de mais capacidade de processamento exigida
pelos novos programas aplicativos e sistemas operacionais.
Infelizmente, o avanço da tecnologia de baterias tem sido
lento em relação à capacidade de fornecimento de energia
e mesmo em relação ao grau de miniaturização exigido pelos
dispositivos móveis. A tecnologia CMOS é hoje comu-
mente utilizada no processo de fabricação de processadores.
Para essa tecnologia, verifica-se que o consumo de energia
é aproximadamente proporcional ao quadrado da voltagem
de alimentação. Assim, uma redução do nível de voltagem
implica em uma diminuição de ordem quadrática no consumo
de energia e na dissipação de calor. Vários processadores
comerciais exploram essa característica e implementam um
mecanismo denominado Regulagem Dinâmica de Voltagem
(Dynamic Voltage Scaling). Essa é uma técnica efetiva na redu-
ção do consumo de energia, aplicável em várias situações.
Particularmente, em sistemas móveis de tempo real, o desafio
é minimizar o consumo de energia e garantir as restrições tem-
porais desses sistemas. [...]

–  130  –
Tecnologias para dispositivos móveis

Atividades
1. O que é firmware?

2. Por que a Internet das Coisas aumenta a pressão por fontes renováveis
de energia?

3. Por que a bateria é um dos gargalos tecnológicos da evolução


dos smartphones?

4. Por que o ser humano pode ser considerado o próximo dispositivo móvel?

–  131  –
7
TI verde

Existe uma crescente pressão na indústria em geral para


que as organizações consigam desempenhar modelos mais sustentá-
veis de negócio, sendo a sustentabilidade definida por um tripé de
resultados satisfatórios nos aspectos econômico, social e ambiental.
Como qualquer tripé, bastaria uma dessas sustentações ser compro-
metida para o negócio como um todo não prosperar.
A tecnologia da informação é especialmente útil nesse cená-
rio, favorecendo que o equilíbrio ambiental se traduza também em
adequação econômica e social. O TI verde abre, ainda, inúmeras
oportunidades de negócios, em termos de uma ampla oferta de
prestadores de serviços especializados, para atuarem como fornece-
dores de soluções de sustentabilidade às empresas de todos os ramos
e portes.
Tópicos Especiais

7.1 O mercado CleanTech


O termo CleanTech (Clean Technologies, ou tecnologias limpas) é empre-
gado, de modo geral, para representar todas as tecnologias voltadas à sustenta-
bilidade ambiental. Algumas vezes, também se utiliza a expressão equivalente
GreenTech (tecnologia verde). Ou seja, uma forma de promover o progresso
industrial e da humanidade, concomitantemente à preservação dos recursos
naturais, uma vez que o meio ambiente é o entorno básico para a sustentação
da vida no planeta.
Quando se trata da aplicação desse princípio especificamente no campo
da tecnologia da informação, é comum referir-se ao termo TI verde. De fato,
TI verde atua como elemento de convergência e integração dos princípios
sustentáveis também às demais tecnologias, uma vez que novas tecnologias
ganham amplo espaço para desenvolvimento em ambiente digital.
Um dos grandes movimentos que permeiam o setor industrial, em
geral, em relação às práticas ambientalmente sustentáveis é a certificação ISO
14.0011, forma pela qual uma organização ganha reconhecimento público e
documentado de que ela adota e mantém um sistema de gestão ambiental
eficaz. A Norma ISO 14.001 (Sistema de gestão ambiental: requisitos com
orientações para uso)2 é um documento que estabelece os requisitos mínimos
obrigatórios que as organizações (de qualquer porte e ramo) devem adotar
para poder dispor de uma gestão ambiental eficaz. Como um documento
internacional de referência para planejamento de processos de gestão, sua
adoção é voluntária por parte das empresas. Contudo, na prática, possuir tal
certificação já faz parte de muitas exigências contratuais, principalmente em
organizações que atendem o mercado corporativo (empresas que têm outras
empresas com clientes): é comum que organizações já certificadas pela ISO
14.001 exijam igual certificação de seus fornecedores – ou, ao menos, evidên-
cias que existe projeto para certificação nas empresas de sua cadeia produtiva.
Atualmente, existem muitos sistemas informatizados que auxiliam as
empresas a conseguirem a conquista e a manutenção da certificação ISO
1 A norma está disponível no site da ABNT: <http://www.abnt.org.br/publicacoes2/category/146-
-abnt-nbr-iso-14001> (acesso em: 23 out. 2017) e pode ser adquirida na seção Loja.
2 Para saber mais sobre ISO 14.001, acesse: <https://www.iso.org/iso-14001-environmental-
-management.html>. Acesso em: 26 out. 2017.

–  134  –
TI verde

14.001. Estes softwares oferecem funções que atendem a alguns dos requisitos
mais críticos da norma ISO 14.001, a saber:
22 Identificação de aspectos e impactos ambientais: a norma exige que
as empresas façam o mapeamento dos itens e elementos da orga-
nização que interajam, de alguma forma, com o meio ambiente
(aspectos ambientais). Também precisam ser identificados os res-
pectivos impactos ambientais associados, ou seja, a consequência
que a utilização daqueles aspectos ambientais traz para o meio
ambiente. Isso permite que, com base em critérios técnicos espe-
cíficos para cada modelo de negócio, os riscos ambientais sejam
hierarquizados, e ações proporcionais de controle sejam estabeleci-
das. Esse mapeamento é dinâmico, precisa ser atualizado frequen-
temente, e conta com um número muito grande de variáveis a con-
trolar, por isso, a informatização desse processo é muito importante
para a maior conformidade junto à gestão ambiental.
22 Identificação dos requisitos legais aplicáveis: a norma exige que as
empresas demonstrem conhecer qual é a legislação ambiental apli-
cável às suas operações. Isso não costuma ser uma tarefa das mais
simples, sobretudo em países como o Brasil, que estabelecem uma
estrutura complexa de leis em esfera federal, estadual e municipal.
Além de ser necessário ter uma relação permanentemente atua-
lizada das leis ambientes que lhe dizem respeito, as organizações
também são requisitadas a demonstrar evidências de que estão
atendendo aos critérios específicos impostos por tais leis – ou, ao
menos, que as pendências legais, estão sob controle (tratadas como
projetos internos de melhoria de gestão, com prazo definido para
regularização). Dependendo da complexidade das operações de
uma empresa, aspectos legais, como licenciamento ambiental pré-
vio, podem ser impostos. Cabe lembrar que operar uma empresa na
ilegalidade, além de sujeitá-la a pesadas multas, pode acarretar em
fechamento do negócio, por força policial ou legal. Trata-se, por-
tanto, de mais um processo bastante sensível à gestão ambiental,
e, mais uma vez, a informatização do gerenciamento da legislação
ambiental favorece em muito a conformidade da gestão ambiental.

–  135  –
Tópicos Especiais

A norma ISO 14.001 apresenta, ainda, a exigência de que as organi-


zações identifiquem e apliquem soluções tecnológicas ambientalmente mais
adequadas às suas operações. Nesse aspecto, a digitalização dos processos pro-
dutivos também pode ser considerada uma frente da TI verde, por exemplo,
ao fazer com que o papel seja substituído pelo meio digital, em softwares ou
sistemas como GED (gerenciamento eletrônico de documentação).
Soluções tecnológicas ambientalmente adequadas, aliás, quase sempre
orbitam em torno de fontes renováveis de energia, o que é uma diretriz que
move organizações e nações em busca da troca da matriz energética. Conforme
demonstrado no relatório técnico do Clean Edge (2015), parecia absurdo,
até bem pouco tempo atrás, a pretensão de se alimentar uma empresa, uma
fábrica, uma cidade, um estado ou uma nação com eletricidade 50%, 75% ou
até mesmo 100% renovável. Entretanto, cada vez mais, um número crescente
de empresas e governos se compromete a atingir esse objetivo.
A difusão das energias renováveis requer uma abordagem ampla de
energia limpa, o que inclui o portfólio completo de suas fontes, como ener-
gia solar, eólica, geotérmica, biogás e hidrelétricas tanto de grande quanto de
pequena escala. Aproveita-se, ainda, a geração distribuída e a produção local
para consumo próprio, bem como soluções econômicas inovadoras, tais como
a comercialização de créditos de energia renovável ou certificados verdes. Tudo
isso requer uma abordagem bastante holística, não se restringindo apenas à
implantação das fontes renováveis por si só, mas agregando tecnologias de alto
desempenho (iluminação por leds, edifícios ecológicos etc.), gerenciamento
inteligente de demanda e armazenamento alternativo de energia.
Aparentemente, alcançar um índice 100% de fontes renováveis ​​pode
parecer demasiado audacioso, mas o fato é que isso já está começando a acon-
tecer. Consta no relatório técnico do Clean Edge (2015) que a Apple, por
exemplo, muito recentemente abriu mão de combustíveis fósseis para alimen-
tar todas as suas operações nos EUA (escritórios corporativos, lojas de varejo
e datacenters) com um índice 100% de fontes renováveis.
Outras grandes empresas seguem o exemplo para alcançar o patamar
100% renovável ​​para suas operações: é o caso de Intel, Microsoft e Unilever.
O gigante de TI Google já tinha comprometido mais de US$ 2 bilhões em
recursos para projetos solares e eólicos e, recentemente, conduz projetos para

–  136  –
TI verde

datacenters alimentados inteiramente por fontes renováveis. Tudo isso demons-


tra a grande demanda por soluções tecnológicas verdes – e contratação de quem
as forneça, o que abre um gigantesco e lucrativo mercado a ser explorado.
E não apenas empresas fazem parte desse mercado consumidor. O Clean
Edge (2015) cita que a Costa Rica, por exemplo, tornou-se a primeira nação
a receber toda a eletricidade gerada por energias renováveis durante os pri-
meiros 100 dias de 2015, o que foi possível graças a uma combinação de
hidrelétricas com usinas geotérmicas. Pelo menos 74 regiões da Alemanha
atingiram 100% de eletricidade obtidas de fontes renováveis. Diversas peque-
nas ilhas atingiram 100% de fontes renováveis (ou
​​ chegaram a patamar muito
próximo), como a Ilha Kodiak, no Alasca e El Hierro, nas Ilhas Canárias.
Três cidades dos EUA são atualmente alimentadas inteiramente por eletrici-
dade oriunda de fonte renovável: Aspen (Colorado), Burlington (Vermont) e
Greensburg (Kansas). Compromissos públicos foram firmados para um qua-
dro futuro ainda melhor: é o caso do Havaí, comprometido a atingir 100%
de eletricidade renovável até 2045, do estado norte-americano de Vermont,
de obter 75% de sua eletricidade a partir de energias renováveis até
​​ 2032, e da
meta de energia renovável da Califórnia de alcançar 50% até 2030.
De fato, como apontam Singh (2012, 2014) e Schwab (2016), o cresci-
mento exponencial das energias renováveis ​​desde o início do século XXI mostra
que substituir por completo a matriz energética já não é mais um sonho para
muitas corporações e governos. Para se ter uma noção dos valores envolvidos,
em 2000, o tamanho do mercado global de energia solar e energia eólica era
de US$ 6,3 bilhões. Em 2014, as cifras chegavam a US$ 190 bilhões, repre-
sentando uma taxa de crescimento de mais de 27% no período. A melhoria no
aprimoramento da tecnologia também foi muito significativa: a eficiência das
células fotovoltaicas aumentou mais de 42%, e a eficiência da geração eólica
progrediu mais de 20%. Como observa o Clean Edge (2015), essas taxas de
crescimento vigorosas durante um período de tempo prolongado são raridade,
geralmente experimentadas em setores de alta tecnologia que inovam rapida-
mente, e não a indústria de energia, tradicionalmente estável.
O relatório da Clean Edge (2015) destaca, ainda, que as energias
renováveis representaram aproximadamente 59% do incremento líquido
à capacidade de energia global em 2014, com usinas eólicas, painéis

–  137  –
Tópicos Especiais

solares e hidrelétricas dominando o mercado. Globalmente, as energias


renováveis​representam quase 30% da capacidade de geração de energia
do mundo.
Não apenas para o vetor das energias renováveis, mas para possibilitar
inovações tecnológicas sustentáveis em geral (CleanTech/TI verde), é interes-
sante observar que existe forte apoio governamental na forma de incentivos
variados às organizações que promovam esses desenvolvimentos. Isso tam-
bém ocorre no Brasil, com o Finep3, órgão de fomento financeiro à inova-
ção, ligado ao Ministério da Ciência, Tecnologia e Inovação, que possui pro-
grama específico para esse tema. Trata-se do Inova Sustentabilidade, iniciativa
conduzida em conjunto com Ministério do Meio Ambiente e com o Banco
Nacional de Desenvolvimento Econômico e Social (BNDES). O programa
tem a finalidade de coordenar as ações de fomento à inovação e aprimorar
a integração dos instrumentos de apoio disponíveis para investimentos em
tecnologias ambientais.
Seu objetivo é o apoio financeiro, com recursos públicos, de planos de
negócio com foco em inovações que induzam a sustentabilidade no desenvol-
vimento brasileiro. Nesse âmbito, várias são suas linhas temáticas:
22 Produção sustentável: eficiência energética no setor industrial; produ-
ção sustentável mais eficiente de carvão vegetal; prevenção e controle
de emissões atmosféricas; tratamento e redução no uso de substâncias
tóxicas ou perigosas; coleta, tratamento, redução e reutilização de
efluentes líquidos industriais; redução, reutilização e reciclagem de
resíduos sólidos industriais e recuperação de áreas degradadas.
22 Recuperação de biomas brasileiros e fomento às atividades pro-
dutivas sustentáveis de base florestal: soluções territoriais inte-
gradas para restauração de biomas com espécies nativas e uso
de sistemas de informações georreferenciadas; madeira tropical
(aumento da produtividade em unidades de manejo florestal e
serrarias; mecanismos de rastreabilidade da madeira; novas espé-
cies madeireiras para fins comerciais e agregação de valor aos pro-
dutos madeireiros).

3 Para saber mais sobre a Finep, acesse: <http://www.finep.gov.br>. Acesso em: 20 out. 2017.

–  138  –
TI verde

22 Saneamento ambiental: tratamento, recuperação, reciclagem,


aproveitamento energético e disposição de resíduos sólidos
urbanos; água (sistemas de abastecimento de água com foco
em controle de perdas e otimização das redes; tratamento de
água em regiões de escassez hídrica, incluindo dessalinização e
tratamento de água salobra; drenagem urbana); tratamento e
valorização dos subprodutos gerados no tratamento de esgotos
sanitários; coleta, transporte, triagem, descontaminação e trata-
mento de materiais em sistemas de logística reversa; remediação
de solos contaminados.
22 Monitoramento ambiental e prevenção de desastres naturais:
sistemas de sensores ambientais aplicáveis a monitoramento e
prevenção de desastres naturais, especialmente para pluviometria e
geotécnica; sistemas para monitoramento de áreas de risco a partir
de sensores aerotransportados ou satelitários.
Podem participar do processo de seleção do Inova Sustentabilidade
empresas independentes ou pertencentes a grupos econômicos que apresen-
tem receita operacional bruta igual ou superior a R$ 16 milhões e patrimônio
líquido igual ou superior a R$ 4 milhões no último exercício. Tais empresas
podem formar parcerias com outras empresas e instituições de pesquisa em
ciência e tecnologia (ICT) para execução dos planos de negócio.
Segundo as exigências do programa, os planos de negócio devem ter
valor mínimo de R$ 5 milhões, com prazo de execução de até 60 meses e
devem ser desenvolvidos integralmente no território nacional. O apoio do
BNDES e da Finep é limitado a 90% do valor total do projeto. Ou seja, esse
programa fica restrito a empresas de considerável porte, já estabelecidas. De
qualquer forma, para empreendimentos novos, startups podem buscar alter-
nativas, como fazer consórcios com grandes grupos empresariais (que serão os
proponentes junto à Finep) ou, embora não haja uma linha de financiamento
exclusiva para as novas tecnologias ambientais, considerar opções como o
Programa de Investimento em Startups4 Inovadoras – que acolhe também a
temática ambiental.

4 Para saber mais sobre o programa, acesse: <http://www.finep.gov.br/chamadas-publicas/cha-


madapublica/609>. Acesso em: 20 out. 2017.

–  139  –
Tópicos Especiais

7.2 Tecnologias para melhor


consumir recursos naturais
Com a transformação digital das indústrias em geral, um dos aspectos
mais relevantes na discussão do desempenho ambiental da Tecnologia da
Informação é referente à energia elétrica, em todas as perspectivas (geração,
distribuição, consumo e gestão).
Por isso, é indispensável uma análise do smart grid (redes inteligentes)
como tendência tecnológica inerente à Indústria 4.0, como destacam Singh
(2012, 2014) e Schwab (2016). Há dois grandes segmentos a considerar.
O primeiro é a rede de telecomunicações, uma vez que os dispositivos conec-
tados a essa rede estão nas residências, em empresas e nos postes de energia
espalhados pela cidade. Essa rede de telecomunicações é um elemento crítico,
pois precisa ter uma capilaridade muito grande e é demandada a tratar um
volume de dados significativo dentro daquela rede. O outro ponto funda-
mental é relacionado à avaliação dos dados. Ou seja, dentro do centro de
operações, esses dados são recebidos de chaves, medidores e outros equipa-
mentos da rede elétrica. Devido a isso, é necessário monitorar todos esses
equipamentos, e comandá-los remotamente. Então, a central de operações e
o volume de dados que precisam ser tratados exigem uma infraestrutura de TI
que inclua um robusto processo de análise de dados com tecnologia Big Data.
É grande o impacto da disponibilidade de smart grids na vida coti-
diana. Principalmente, se destaca o fato de que as pessoas passam a ter novas
opções de modelos de tarifação da energia elétrica consumida. Afinal, com
a forma tradicional, de tarifa única, há pouca ou nenhuma flexibilidade da
escolha do momento de utilizar a energia, em termos de poder dispor de
uma tarifa mais baixa, dependendo do horário em que há o consumo de
energia. É nesse sentido que entra a conveniência do smart grid, que ofe-
rece a possibilidade de contar com tarifas diferentes. Inclusive, é possível a
modalidade de pré-pagamento.
Para Schwab (2016), isso resultará em uma grande revolução à medida
que novos produtos sejam massificados para o consumo, como o caso do
carro elétrico. É bastante provável que se necessite de um modelo de tarifação
de consumo de energia específico para carro elétrico, uma vez que a tendên-
cia é que o veículo fique energizado, sob carregamento, durante a noite, por

–  140  –
TI verde

exemplo: isso tem um determinado impacto sobre a rede de distribuição, que


precisa de um gerenciamento bem mais dinâmico.
Outro fator de alta importância para o smart grid é a tendência também
irrefreável de autogeração de energia elétrica: empresas e até mesmo consu-
midores residenciais poderão contar com equipamentos geradores locais de
energia, com alternativas envolvendo painéis solares e turbinas e geradores
eólicos. Como a energia elétrica em corrente alternada não pode ser acumu-
lada (ela precisa ser consumida assim que é gerada), na prática, os momentos
em que não há consumo próprio podem ser aproveitados para comercializa-
ção daquele excedente gerado, contribuindo para abastecer o sistema, naquilo
que se denomina de microgeração ou geração distribuída. Isso é um divisor de
águas na indústria da energia: não existirão apenas consumidores exclusivos
de energia, pois estes poderão vender para a rede aquilo que lhes sobrar. Pelo
lado da distribuidora de energia elétrica, a maior mudança é operacional.
Afinal, os processos convencionais dependem muito da equipe de campo, por
exemplo, dos eletricistas que sobem em postes para fazer instalação e manu-
tenção. Tais processos tendem a se tornar remotos e automatizados: podem
ser executados à distância, a partir de um centro de controle. Naturalmente,
com isso é provável que haja uma expressiva redução de custos. Mesmo con-
siderando que se deixam de lado processos tradicionais (menos custos) para
substituí-los por novos processos de gerenciamento (em tese, mais custos),
o que ocorre é que os processos digitais são propensos a serem muito menos
dispendiosos financeiramente.
Como descreve Singh (2012, 2014), os smart grids destacam-se pela
função de self healing (autorreparação). Essa “cura automática” da rede se
dá em situações como a queda de um poste ou a falha de energia em um
bairro, procurando isolar e restringir a falha o mais localmente possível (uma
única rua ou um único estabelecimento, muitas vezes, para afetar a menor
quantidade possível de consumidores), por meio da procura automatizada e
fornecimento de outros supridouros para determinada região. Ou seja, uma
rede de geração e distribuição de energia elétrica conta com um alto grau de
redundância, de forma que a falha de um elemento pode ser instantanea-
mente coberta por outro – sem que seja necessária uma operação manual por
parte de um ser humano.

–  141  –
Tópicos Especiais

Do ponto de vista estritamente ambiental, energia elétrica não é um


problema em si, mas, mais precisamente, suas fontes de geração é que impor-
tam para essa discussão. Fontes limpas, ou renováveis, tais como energia solar,
eólica ou das marés, não contribuem para o esgotamento dos recursos natu-
rais, ao contrário de fontes não renováveis, como de combustíveis fósseis.
As usinas hidrelétricas se encaixam na categoria de fontes renováveis (limpas)
de energia, apesar de um ponto controverso: a construção de suas barragens
é um empreendimento, em si, com grande impacto socioambiental. Por isso,
parte da tecnologia de sustentabilidade é a tendência de substituir grandes e
tradicionais usinas hidrelétricas por um volume bem mais numeroso de PCH
(pequenas centrais hidrelétricas), que comprometem um espaço físico muito
menor e com proporcional redução de impacto ambiental.
No que diz respeito ao consumo de recursos naturais, outro elemento oni-
presente nas organizações em geral é o consumo de papel, dada a burocracia
inerente aos processos de trabalho, que implica em um volume muito grande
de documentação. Naturalmente, maior demanda por papel implica em maior
número de árvores derrubadas, pois estas fornecem a matéria-prima necessária
à sua produção. Nesse sentido, o mero emprego de papel reciclado substituindo
o papel normal nos escritórios tende a não ser mais que um paliativo, por-
que o processo produtivo desse tipo de produto tem também um significativo
impacto ambiental, por exemplo, o excessivo consumo de água.
Felizmente, uso de papel é um problema que vem sendo satisfatoria-
mente resolvido com a digitalização dos processos produtivos, sendo esta uma
das maiores contribuições da TI verde. Sistemas como GED (gerenciamento
eletrônico de documentação) fazem muito mais que apenas manter os docu-
mentos em formato de arquivos digitais, de forma mais fácil de se armazenar,
ordenar e localizar: eles automatizam todo o fluxo de elaboração, revisão e
aprovação de documentos. Isso inclui a autenticação por assinatura digital,
resolvendo um dos antigos dilemas da burocracia corporativa: como ter cer-
teza que um documento digital foi realmente aprovado pela devida instância
responsável e que deve ser considerado válido?
Dependendo do tipo de segmento de atuação de uma empresa, o pro-
cesso de manutenção de seus equipamentos e ferramentas pode ser altamente
significativo, tanto em termos de custo quanto em impacto ambiental. Por

–  142  –
TI verde

exemplo, em ambiente de linhas de produção de manufatura industrial,


máquinas pesadas, que normalmente utilizam óleo, combustível e água (além
de alguma matéria-prima específica diretamente ligada a recursos naturais,
como ocorre na indústria de alimentos, por exemplo), contribuem de forma
relevante para o esgotamento de recursos naturais. Nesse contexto, a tecno-
logia da informação também auxilia uma melhor eficácia ambiental, com
sistemas informatizados específicos para controle de manutenção corretiva,
preventiva e preditiva. Com uma maior assertividade do processo de manu-
tenção, graças a um fluxo mais eficiente das informações inerentes, como
datas de validade, calendário de inspeções e afins, consegue-se manter de
forma mais permanente a melhor regulagem dos equipamentos pesados, evi-
tando desperdícios e até mesmo acidentes e incidentes (como derramamento
de óleo) que trazem impacto ambiental negativo.
No geral, algumas das principais práticas de TI verde são:
22 Aplicar a eficiência energética: isso envolve não apenas a maximiza-
ção individual da capacidade produtiva dos equipamentos, mas da
engenharia necessária para fazer com que se rendam em sua pleni-
tude quando interligados entre si (como no caso de um datacenter).
Ou seja, evitar gargalos de um equipamento que desperdicem a
energia consumida por outros associados no sistema.
22 Dimensionar corretamente as necessidades da empresa em relação
à TI: é importante ter uma noção da arquitetura de TI ideal para
os negócios de uma organização, evitando pecar pela falta (com-
promete a produtividade) e pelo excesso (desperdiça recursos e gera
impacto ambiental desnecessário).
22 Usar equipamentos mais eficientes: tanto em termos econômicos
quanto ambientais, um equipamento que esquenta representa puro
desperdício – afinal, a energia térmica ali presente é resultado da
conversão da energia elétrica efetivamente consumida, porém, não
utilizada na função principal do equipamento. Por isso, é necessá-
rio, entre outras medidas, priorizar equipamentos com capacidade
de redução de consumo quando em baixa utilização ou momenta-
neamente inoperantes (modo standby).

–  143  –
Tópicos Especiais

22 Conscientizar todos os colaboradores em relação à sustentabilidade:


os meios digitais facilitam o treinamento e capacitação das equipes
de trabalho para conhecimentos em geral, incluindo a temática
ambiental. Inclusive, viabiliza treinamentos a distância, proporcio-
nando importante redução de custo nesses processos. Além de que
pessoas devidamente sensibilizadas quanto à importância das práti-
cas verdes é que garantirão sua efetiva execução.
22 Promover a compactação de servidores: a escolha dos servidores
deve ser uma tarefa criteriosa, porque é comum que se encontrem,
em diversas organizações, sistemas com 80% ou mais de ociosidade,
o que representa um impacto ambiental desnecessário (consumo de
energia elétrica sem propósito). Muitas vezes, se utilizam múlti-
plos servidores subutilizados (dedicados cada um a determinado
sistema ou aplicação), que poderiam perfeitamente ser substituídos
por um único servidor melhor aproveitado em termos de utilização
de capacidade de processamento e armazenamento.
22 Promover a personalização de datacenters: a aglutinação de servido-
res e demais equipamentos concentrados em um datacenter propor-
ciona um problema prático de sobreaquecimento, invariavelmente
demandando a instalação de sistemas refrigeradores – um dispên-
dio energético duplo (do equipamento que esquenta e do sistema
que precisa ser acionado para resfriar o ambiente). Mais uma vez, a
simplificação da arquitetura instalada, com melhor aproveitamento
da capacidade dos equipamentos, é uma saída para melhor desem-
penho ambiental.
22 Aderir a políticas verdes: sistemas de gestão ambiental, como
ISO 14.001, fazem com que as diversas iniciativas verdes sejam
regidas de forma estruturada, como um sistema. E, nesse sistema, a
TI tem papel fundamental, especialmente no tocante à viabilização
de soluções tecnológicas ambientalmente mais adequadas (um dos
requisitos da norma ISO 14.001).
22 Aderir a práticas verdes nos processos: em um sistema de gestão
ambiental integrado à gestão do negócio, todo processo de trabalho
tem seu componente verde que precisa ser atendido. Por exemplo, no

–  144  –
TI verde

processo de compras, é comum que uma das exigências seja a prioriza-


ção de fornecedores de equipamentos de TI com desempenho ambien-
tal adequado (empresas e/ou produtos com certificados verdes).
22 Estabelecer plano de compra e descarte de equipamentos de tecno-
logia: é a responsabilidade por todo o ciclo de vida útil da estrutura
tecnológica empregada pela empresa.
22 Promover melhoria nos processos: os sistemas informatizados são
especialmente úteis para melhor efetividade da gestão dos processos
em geral.
22 Utilizar novas tecnologias: é importante monitorar os últimos lan-
çamentos e tendências da indústria, para incorporá-los aos negó-
cios tão logo demonstrem agregar valor.
22 Priorizar fontes de energia limpa: consumir energia faz parte de
qualquer tipo de empreendimento. Preferir fontes limpas se torna
a principal contribuição das empresas junto ao meio ambiente –
fazer com que se dependa cada vez menos de fontes poluentes, até
que estas se tornem totalmente desnecessárias.

7.3 Tecnologias para diminuir poluição


A gestão ambiental é avessa a desperdícios, colocando pressão cada vez
maior na indústria para repensar produtos que, antes, por diversos motivos,
seriam motivo de fácil decisão para sucateamento. É assim também na área
da tecnologia da informação: uma das práticas de TI verde para controlar o
efeito poluidor dos fabricantes de equipamentos de informática são os produ-
tos refurbished (restaurados na fábrica).
No que diz respeito aos computadores, um produto refurbished é aquele
que foi devolvido do ponto de venda ao fabricante (ou filtrado em triagem na
própria linha de produção) para a correção de algum problema ou pequeno
defeito. Após aplicadas as devidas correções por conta do próprio fabricante
(remanufatura), são colocados novamente à venda.
Computadores e acessórios refurbished não devem ser confundidos com
produtos usados. Afinal, passam novamente pelo processo de manufatura

–  145  –
Tópicos Especiais

original e são vendidos e garantidos como novos. Obviamente, enfrentam


algum preconceito por parte dos consumidores, mas esse sentimento é subli-
mado por aqueles que possuem maior consciência ecológica – ou que querem
ou precisam de uma aquisição mais barata, porque normalmente os produtos
refurbished são colocados com preço diferenciado no mercado, justamente
para estimular seu consumo.
O que leva à ocorrência de produtos refurbished no mercado? São diver-
sas as situações que podem levar um equipamento a essa condição. Uma des-
sas ocorrências, por exemplo, é quando o produto não passa no controle de
qualidade de sua própria fábrica para a detecção de um defeito. Os mais
diversos problemas podem ser detectados, desde um detalhe acessório, tal
como uma tecla ou botão com problemas, até mau funcionamento de um
componente que comprometa a funcionalidade do equipamento. Quando
isso acontece, ele é reparado antes mesmo de ser colocado à venda, e usual-
mente isso fica transparente ao cliente.
Um pouco diferente é a situação de computadores que já estavam no
ponto de venda e lá foi percebido o defeito, ou mesmo lá ocorreu um dano
que provocou o defeito (exemplo: produtos de mostruário). Esses produ-
tos retornam aos fabricantes para que ocorra a devida correção, posterior-
mente, voltam a ser vendidos e são sinalizados como itens refurbished. Alguns
fabricantes procuram estimular a venda desses produtos, oferecendo o que
chamam de garantia zero hour: se um produto dessa categoria é adquirido e
devolvido por apresentar algum defeito dentro de seu prazo de garantia, ele é
gratuitamente substituído por outro novo (não refurbished).
Outros casos que podem gerar computadores na condição de refurbished
são produtos que foram utilizados para demonstração em lojas, devoluções de
consignação ou desistência de compra (quando se garante o uso para testar).
Dependendo do estado que estes equipamentos estão no momento da devo-
lução, eles podem passar por um recondicionamento e passarem, novamente,
a fazer parte das prateleiras das lojas.
Os produtos nessa condição têm a devida identificação, embora haja
uma certa polêmica quanto à estratégia utilizada de fazê-lo de forma muito
sutil, o que pode induzir muitos compradores a comprar um produto sem

–  146  –
TI verde

sequer perceber que se trata de algo refurbished. Normalmente, o número de


série desses produtos é diferenciado em relação aos produtos de lotes normais.
Se a prática, ao menos no Brasil, parece ser a de esconder essa informação,
mercados de países de primeiro mundo, como os EUA, prezam pelo oposto:
transparência, para que o consumidor seja munido de todas as informações em seu
processo de compra. A Figura 1 mostra um exemplo, na loja virtual da Amazon,
em que a informação sobre produtos refurbished tem o seu devido destaque.
Figura 1 – Computadores refurbished devidamente sinalizados em loja virtual.

Fonte: AMAZON, 2017.


A logística reversa é outra medida muito empregada na indústria de TI
para prevenir poluição. Daher et al. (2006) entendem que o termo costuma
ter uma conotação bastante genérica. Em seu sentido mais amplo, implica
em todas as operações relacionadas à reutilização de produtos e materiais.
A indústria é demandada a assumir esse processo precisamente em função
dos produtos em campo que já atingiram o fim de vida útil e estão (ou
deveriam estar) sucateados. Assim, logística reversa refere-se a todas as ativi-
dades que envolvem coletar, desmontar e processar produtos e/ou materiais
e peças fora de utilização, a fim de assegurar uma recuperação amigável ao

–  147  –
Tópicos Especiais

meio ambiente, com a destinação final adequada dos componentes, partes e


peças. Em suma, se a logística convencional é a sequência fábrica, distribui-
dores e consumidor, quando um produto esgota sua vida útil, em vez de se
atribuir ao consumidor a responsabilidade pela disposição final (o que seria
inadequado, dada a ampla variância de perfis de consumidores e a relativa
complexidade da reciclagem de materiais específicos), a logística reversa faz
com que a sequência seja consumidor, distribuidores e fábrica. É essa última a
responsável final por dar a disposição mais ecologicamente correta às suca-
tas de produtos.
Os elementos abordados anteriormente, de produtos refurbished e de
logística reversa, são evidências que a gestão ambiental, no que se refere à
prevenção da poluição, tenta fazer valer ao máximo as premissas ecológicas
de reutilização e reciclagem. Na indústria em geral, especialmente no campo
da tecnologia da informação, esses princípios acabam colidindo frontalmente
com a polêmica estratégia da obsolescência programada, que é uma forma
das indústrias deliberadamente abreviarem a vida útil dos produtos, visando
aumentar a necessidade de que os consumidores voltem a comprar, de modo
que os fabricantes aumentem receita com vendas recorrentes. Além de ser
algo de forte questionamento ético, essa prática prejudica o meio ambiente
ao aumentar o volume de sucata de produtos em um determinado intervalo
de tempo. Do ponto de vista técnico, essa estratégia não se justifica, porque, à
medida que as tecnologias progridem, a tendência natural seria de se produzir
produtos cada vez mais duradouros, e não o oposto.
Conforme relata Slade (2009), a obsolescência programada está arrai-
gada na cultura industrial graças à tradição da prática. Afinal, o primeiro caso
registrado remonta à década de 1920, quando fabricantes de lâmpadas da
Europa e dos EUA decidiram, em comum acordo, diminuir a durabilidade
de seus produtos de 2,5 mil horas de uso para apenas mil horas. Assim, os
consumidores seriam forçados a comprar o triplo de quantidade de lâmpadas
para serem atendidos em suas necessidades de luz.
Alguém poderia cogitar que talvez essa medida seja benéfica para o con-
sumidor, porque a indústria, ao fabricar produtos de menor qualidade, pode
empregar materiais menos robustos, sendo assim, menos caros. Mas não é o
que se percebe na prática em relação aos preços praticados. Naturalmente,

–  148  –
TI verde

fabricar produtos de forma mais recorrente tem impacto ambiental direta-


mente envolvido no próprio processo de produção, que consome mais ener-
gia e mais recursos naturais. Não é um grande problema para a indústria,
que repassa tais custos extras diretamente ao consumidor, que acaba ficando,
então, à mercê de produtos mais caros e com menor vida útil. Sobretudo, o
que soa escancaradamente antiético é que uma única empresa, ao agir dessa
forma no mercado, não consegue prosperar: é necessário o conluio junto aos
seus competidores, que, nesse contexto, tornam-se seus cúmplices.
Felizmente, a gestão ambiental é beneficiada por uma das características
inerentes da Indústria 4.0, que é a tendência da migração da economia de
produto para a economia de serviço, como relatam Singh (2012, 2014) e
Schwab (2016). Ou seja, quando, em vez de se adquirir a propriedade de
um equipamento, opta-se, alternativamente, por pagar pelo benefício que
ele proporciona: o produto continua sendo propriedade de seu fabricante,
que comercializa o serviço a ele associado. É a modalidade do produto por
assinatura, que tem ganhado ampla difusão nos mercados em geral. Vai, por
exemplo, desde a assinatura mensal de máquinas de café até o contrato de
locação mensal de veículos.
É um novo paradigma bastante disruptivo: as pessoas não precisam mais
ter as coisas, mas sim usá-las. Na indústria de TI, a prática tem sido bastante
utilizada. Isso tem sido válido, por exemplo, para serviços de disponibilidade
da estrutura de TI, como impressoras, estações cliente e servidores. Aliás,
na área de tecnologia da informação, a regra parece ser cada vez mais essa:
o que for possível virtualizar, comercializa-se como serviço (cloud computing
– computação em nuvem, servidores remotos etc). E o que ainda for neces-
sário dispor fisicamente no local de trabalho (como impressoras), também se
comercializa como serviço (assinatura mensal pela utilização).
O impacto ambiental associado é bastante interessante: agora, o produto
passa a ser propriedade do fabricante, é de interesse dele aumentar o que
for possível de sua vida útil, para incorrer em menor custo de manutenção
e remanufatura. Para que o novo modelo de negócio seja interessante para
as empresas, troca-se a receita recorrente de novas vendas de produtos pela
receita também recorrente de renovação da taxa de assinatura dos serviços
prestados. Portanto, diminui a poluição provocada tanto pelo sucateamento

–  149  –
Tópicos Especiais

de produtos descartados prematuramente quanto pela produção desnecessá-


ria de novos equipamentos.
Em suma, como identifica Schwab (2016), a Quarta Revolução
Industrial traz um cenário mais amigável no que diz respeito à prevenção
da poluição ambiental: por um lado, a crescente digitalização dos processos
produtivos concentra cada vez mais funcionalidade no software, e não no
hardware, gerando menos sucata porque agora interessa aos fabricantes pre-
servar os equipamentos para lucrar melhor com a economia baseada em ser-
viço. Muito do poder computacional de alto desempenho ocorre não mais nas
estações clientes (que podem ser mais simplificadas), mas nos servidores em
nuvem (tornando os datacenters mais robustos fisicamente). Por outro lado, a
tendência de crescente informatização do mundo e da robustez das máquinas
nos datacenters consome, efetivamente, mais energia elétrica. O que poderia
ser, então, um efeito colateral em termos de potencial poluidor acaba sendo
compensado pela tendência irreversível da mudança da matriz energética para
fontes não poluentes, movimento já capitaneado com sucesso pelos gigantes
da indústria de TI, como Apple, Google, Facebook e Microsoft.

Conclusão
A TI verde é uma tendência que promete permanecer forte nos próxi-
mos anos. As empresas necessitam adotá-la, pois isso traz benefícios para os
negócios, para a sociedade e para o meio ambiente.
O movimento da sustentabilidade promete continuar em alta nesse
momento histórico de imersão na Quarta Revolução Industrial, afinal, con-
sumidores preferem fazer negócios com empresas que conduzem práticas sus-
tentáveis, além de que os próprios profissionais ficam mais propensos a dar
preferência por empregadores com esse perfil.

Ampliando seus conhecimentos

Para Jayo e Valente (2010), parece certo que a emissão de


CO2 relacionada à TI ainda aumentará a passos largos.

–  150  –
TI verde

Por uma TI mais verde


(JAYO, VALENTE, 2010, p.57)

[...] É preciso levar em conta que o uso crescente e adequado


de recursos da TI poderá habilitar os mais diversos setores
da economia a reduzirem outras formas de emissão. É aqui
que parece estar o principal papel ambiental da TI: apesar
de emitir grande quantidade de CO2, ela pode ajudar outras
indústrias a deixarem de emitir quantidades ainda maiores. A
esse respeito, o prognóstico para 2020 envolve 1,4 bilhão
de toneladas de CO2 emitido e 7,8 bilhões de toneladas
de CO2 poupado – um saldo líquido amplamente positivo.
Mas como a TI pode ajudar outros setores a poupar CO2?
Talvez o exemplo mais óbvio esteja nas tecnologias de video-
conferência e teletrabalho: ao reduzir as viagens de negócios e
o deslocamento de pessoas, elas reduzirão as emissões anuais
em 360 milhões de toneladas. Maior redução será viabilizada
pelo uso de computadores para a otimização dos processos de
logística e transporte de mercadorias (1,5 bilhão de toneladas),
por edifícios com sensores e sistemas inteligentes de iluminação
e ventilação (1,7 bilhão de toneladas) e pelas chamadas redes
elétricas inteligentes ou smart grids (2 bilhões de toneladas).
Claro que isso não significa que não existam motivos para
preocupação. Mas, a se confirmarem, essas projeções suge-
rem que a TI, apesar de ser parte integrante de um problema
ambiental alarmante, pode ser também peça-chave para a
busca de soluções.

Atividades
1. Em que aspectos a TI verde pode contribuir com organizações bus-
cando a certificação de sistema de gestão ambiental ISO 14.001?

2. O que é a função de self healing (autorrecuperação) de um smart grid?

–  151  –
Tópicos Especiais

3. Como funciona a compactação de servidores como prática de TI verde?

4. Por que a mudança para o paradigma econômico de economia de


serviço favorece o meio ambiente?

–  152  –
8
TI voltada para a educação

Chegará o dia em que a educação será tão revolucionária a


ponto de se alcançar a compreensão instantânea de todo o conhe-
cimento produzido pela humanidade? Esse cenário pode ir gradati-
vamente migrando das mais fantasiosas histórias de ficção científica
para a realidade do mundo em que se vive.
Porém, até se alcançar esse estágio, em que a biotecnologia
de um chip ou uma transmissão wireless (sem fio) resolva tudo a
esse respeito, há um longo caminho para que os processos de edu-
cação evoluam – e em todos os seus gradativos passos, a tecnologia
da informação é especialmente útil para ampliar possibilidades e
aumentar a eficácia do trabalho em educação.
Tópicos Especiais

8.1 A revolução dos MOOC


Educação a distância (EaD) é uma forma de educação que se caracte-
riza por ser mediada por recursos tecnológicos variados, o que possibilita que
alunos e professores possam estar separados fisicamente e/ou temporalmente,
caracterizando uma alternativa ao modelo convencional de uma sala de aula.
Trata-se, pois, de uma solução criada para atender a uma enorme
demanda reprimida ao longo do tempo, de um grande número de pessoas
que, pelos mais variados motivos (geográficos, econômicos etc.), não pode
frequentar aulas no sistema tradicional (presencial) de ensino.
Há quem se surpreenda quando fica sabendo que a história da EaD é
muito mais antiga que a da própria internet. Se a rede mundial de computado-
res é, atualmente, a grande plataforma tecnológica que potencializa o alcance e
os resultados da EaD, é interessante observar que outras tecnologias cumpriam
esse papel em uma época pré-internet. O sistema de correios foi, de fato, o pre-
cursor. Foi o que se conheceu por ensino por correspondência, com o marco his-
tórico remontando à 1728, quando um dos jornais dos EUA, o Boston Gazette,
inovou ao oferecer material para tutoria por meio de correspondência. A difu-
são das inovações, à época, era muito morosa: um século teria de ser decorrido
para que, apenas em 1829, a EaD chegasse à Suécia, pelo trabalho do Instituto
Líber Hermondes. A partir de 1840, escolas por correspondência começaram a
aparecer na Europa, principalmente no Reino Unido.
A EaD sofreria sua primeira revolução tecnológica a partir do ensino por
rádio. Por exemplo, o Japanese National Public Broadcasting Service com-
plementava a escola oficial, em 1935, com essa modalidade. Algum tempo
depois, a televisão se juntava às alternativas tecnológicas de EaD, com o
Chicago TV College, nos EUA, em 1956, transmitindo programas educati-
vos desta maneira. É a partir dessa época, e com essas tecnologias, que a EaD
sofreria uma rápida difusão generalizada mundo afora.
Destaque-se que o Brasil foi um dos primeiros países que exploraram
as possibilidades de EaD. Há registros de que a vanguarda coube ao Jornal
do Brasil, em 1904, que oferecia curso a distância para datilógrafo. Alguns
anos depois, o Instituto Monitor tornou-se famoso como o primeiro a ofere-
cer de forma sistemática cursos profissionalizantes nesta modalidade. Merece

–  154  –
TI voltada para a educação

também reconhecimento o trabalho da Rádio Sociedade, do Rio de Janeiro,


com educação por sistema radiofônico, em 1923.
Historicamente, o Senac (Serviço Nacional de Aprendizagem Comercial)1
destacou-se como instituição que sempre explorou em profusão a EaD.
Contudo, a partir de 1996, com a Lei de Diretrizes e Bases da Educação
Nacional (BRASIL, 1996) enfim reconhecendo a educação a distância, a difu-
são em território nacional passaria a ser bastante forte, em todos os níveis de
ensino, do ensino básico à pós-graduação, passando por uma ampla oferta de
cursos de formação continuada. Um dos aspectos que favoreceu esse cenário
foi o grande número de instituições particulares de ensino, que ganharam novo
fôlego em seus modelos educativos.
Singh (2012, 2014) e Schwab (2016) concordam que o impacto que a
EaD trouxe diante do sistema convencional de ensino, que é, sem dúvida,
muito forte, compara-se (em magnitude) ao que, mais recentemente, os
MOOC representam em meio a EaD. A sigla, do termo original em inglês
Massive Open Online Courses (cursos on-line abertos massivos), engloba os
cursos livres que são oferecidos por meio de ambientes virtuais de aprendi-
zagem. Tais ambientes, legítimos frutos da Web 2.0 (a internet interativa)
como plataforma tecnológica, costumam explorar as funcionalidades mul-
timídia com acesso totalmente on-line, em sistemas com design responsivo
(telas ajustáveis automaticamente para qualquer dispositivo, como compu-
tador, smartphone e tablet), comportando uma capacidade muito grande de
acessos simultâneos e ampla oferta de diferentes conteúdos, controlando com
eficácia uma quantidade massiva de alunos registrados nos cursos.
O MOOC é uma resposta tecnológica à filosofia pedagógica da educa-
ção aberta, movimento educacional que milita pelo livre acesso a oportunida-
des de aprendizagem. Observa-se que, apesar do projeto e da participação em
um MOOC poder se assemelhar a um curso regular oferecido por qualquer
faculdade ou universidade, os MOOC são gratuitos, na maioria dos casos.
Como eles não costumam exigir pré-requisitos dos alunos que ingressam no
curso, de forma geral, não se oferecem graus acadêmicos. Alguns MOOC
oferecem certificado de participação, para quem, por algum motivo, tem esse
1 Para saber mais sobre o Senac, acesse: <http://www.senac.br/>. Acesso em: 17 out. 2017.

–  155  –
Tópicos Especiais

interesse e/ou necessidade – normalmente, tais certificados são pagos, com


valores razoavelmente simbólicos.
Contudo, em movimento mais recente, tem-se percebido grande ten-
dência de integração ou parceria com universidades tradicionais, a ponto de
também se ofertarem, em alguns casos, graus acadêmicos. Várias iniciativas de
MOOC têm ganhado destaque nos últimos anos, entre elas figurando marcas
como Coursera, edX e Udacity.
O Coursera2 é uma empresa de tecnologia educacional criada em 2012
nos EUA, fundada pelos professores de ciência da computação Andrew Ng
e Daphne Koller, ambos da Universidade Stanford. Menos de cinco anos
depois, já alcançava números impressionantes: mais de 25 milhões de alunos
atendidos, 149 parceiros universitários e um portfólio que oferece mais de 2
mil cursos, entre eles, mais de 180 especializações universitárias e 4 cursos que
oferecem titulação acadêmica de alto nível.
Estes quatro últimos são projetos conduzidos junto às tradicionais ins-
tituições Universidade de Illinois em Urbana-Champaign, nos EUA – com
os cursos Mestrado em Administração de Negócios (iMBA), Mestrado em
Ciência da Computação em Ciência de Dados (MCS-DS) e Mestrado em
Ciências da Contabilidade – e HEC Paris, na França – com Mestrado em
Inovação e Empreendedorismo. Quanto a títulos industriais, o certificado
profissional em Gerenciamento de Projetos Aplicados é um produto ofertado
junto à Universidade da Califórnia, em Irvine, nos EUA.
Já no ano de sua fundação, em 2012, a Coursera tinha estabelecido par-
ceria com 17 universidades norte-americanas, que ficaram conhecidas como
grupo Ivy League. O crescimento foi acelerado desde o início: um ano depois,
a organização anunciava mais 29 universidades, destacando-se o fato que 16
delas não eram dos Estados Unidos.
No Coursera, os cursos são disponibilizados tanto no formato ­on-demand
(sob demanda, acessáveis instantaneamente pela internet) ou em períodos
específicos (calendário a critério da instituição provedora). Como modelo
de negócio, é interessante observar que, se a organização começou como um
MOOC, atualmente trabalha, em paralelo, também com a comercialização
2 Para saber mais, acesse: <https://about.coursera.org>. Acesso em: 17 out. 2017.

–  156  –
TI voltada para a educação

de seus cursos. É similar a uma estratégia freemium (produtos que são simul-
taneamente oferecidos gratuitamente, para uma versão básica, e paga, para
uma versão completa).
Então, no Coursera, quase todos os cursos são gratuitos, com o aluno
podendo optar em pagar uma determinada taxa para obter um certificado
digital autenticado, entre outras. A Figura 1 apresenta a forma como o
Coursera diferencia seu produto gratuito de seu produto pago.
Figura 1 – Opções de produtos do Coursera.

Fonte: COURSERA, 2017.


De todo modo, a plataforma mantém um programa especial de auxílio
financeiro para os alunos que desejam o certificado, mas não têm condições
de pagar por isso. O nível da facilidade da concessão desse subsídio é propor-
cional aos custos envolvidos: com os cursos livres (a maioria dos casos), cujo
certificado custa umas poucas dezenas de dólares, acessa-se um link específico
do benefício, responde-se a algumas perguntas de perfil socioeconômico e com-
promete-se em mostrar dedicação e concluir o curso – medidas suficientes para,
em teoria, qualquer postulante ao benefício tê-lo aprovado. Já para os produtos
premium, como os mestrados acadêmicos que custam mais de US$ 20 mil, o
processo é mais exigente, incluindo até mesmo entrevistas pessoais e análise
caso a caso, dada a maior competitividade envolvida.
O Coursera trabalha com aulas em vídeos e uma ampla gama de textos
didáticos, alguns de leitura obrigatória e outros disponíveis como material

–  157  –
Tópicos Especiais

extra (opcional), para melhor entendimento dos conteúdos repassados nas


videoaulas. Na plataforma, é exigido que todos os exercícios sejam completa-
dos, além de ser necessário revisar o trabalho de pelo menos três colegas para
que a nota do aluno seja registrada. Os cursos são sequenciados em módulos
semanais e, ao fim de cada semana, é disponibilizada uma prova, que requer
nota mínima 8 para aprovação.
O sistema também conta com um aplicativo para iOS e Android, e
permite, ainda, gravar os conteúdos para acesso offline. São mantidos fóruns
de discussão, e a identidade do aluno participante é conferida a cada entrega
de trabalhos.
Para a maioria dos cursos, as aulas estão disponíveis em inglês, com
legendas em diversas línguas, inclusive em português, em alguns casos.
Universidades e faculdades de diversos países já se associaram ao Coursera,
com parceiros já estabelecidos na Alemanha, Austrália, Brasil, Canadá, Chile,
China, Singapura, Coréia do Sul, Dinamarca, Espanha, Estados Unidos,
França, Holanda, Hong Kong, Índia, Israel, Itália, Japão, México, Reino
Unido, Rússia, Suécia, Suíça, Taiwan e Turquia. Destaca-se que, como parcei-
ros brasileiros, o Coursera conta com instituições como a USP (Universidade
de São Paulo), Unicamp e Fundação Lemann.
O edX3, em geral, é bastante similar ao Coursera, com a diferença de ser
uma organização sem fins lucrativos, por isso, todos os cursos são gratuitos
– e os programas são montados com estratégia self-paced, ou seja, os alunos
determinam seu próprio ritmo de estudo, sem imposição de prazos por parte
do sistema.
Por sua vez, o Udacity4 é uma das plataformas de ensino que se destaca
pela especialização na área de alta tecnologia. Os parceiros típicos (conteudis-
tas) são gigantes do mercado tecnológico, como Google, Amazon e Facebook.
Por isso, é uma plataforma que costuma ser muito priorizada pelos alunos
interessados em ciência da computação, com muitos conteúdos gratuitos que
vão da lógica de programação até fundamentos de Deep Learning.
3 Para saber mais, acesse: <http://www.edx.org>. Acesso em: 17 out. 2017.
4 Para saber mais, acesse: <https://br.udacity.com>. Acesso em: 17 out. 2017.

–  158  –
TI voltada para a educação

Mas o grande atrativo do Udacity é o seu programa (pago) de Nanodegree


(nano grau). Com um disputado processo seletivo e vagas limitadas, trata-se
de um programa de ensino em que o aluno é treinado em uma profissão de
alta demanda no mercado e recebe todo o apoio profissional para garantir seu
emprego imediatamente após a conclusão do curso. São oferecidos benefícios
como devolução de metade do valor pago (para quem consegue concluir o
curso em até 12 meses) e até mesmo consultorias de carreira.
Com proposta similar às alternativas estrangeiras, um empreendimento
brasileiro, lançado em 2012, também tem ficado cada vez mais famoso: é o
Veduca5, plataforma nacional de e-learning que já ultrapassou 2 milhões de
alunos atendidos. Destacam-se, no Veduca, o fato de todos os cursos serem
gratuitos, sendo que a opção por emissão de certificado digital de curso tem
valor bastante acessível (R$ 49,00); também conta com presença de parcei-
ros institucionais de peso, como as consagradas universidades de Harvard,
Stanford, Yale, MIT, Berkeley.

8.2 A realidade virtual e a realidade


aumentada como ferramentas de ensino
Realidade virtual (VR, do inglês virtual reality), a tecnologia que emprega
smartphones acoplados a óculos especiais, vem revolucionando vários campos
e, naturalmente, a educação não ficaria de fora.
Afinal, praticamente inexistem limites para aplicações de imersão das
pessoas em um cenário virtual, criado por software específico. É interessante
observar que uma pessoa que usa um equipamento dessa natureza não tem
um mero papel passivo no ambiente digital para a qual é deslocada: uma das
características mais valiosas da realidade virtual é a capacidade de interação
com esse ambiente.
Para isso, existe um dispositivo de controle também acoplado aos óculos
VR, que fica nas mãos do usuário. Sendo assim, com o movimento físico de
suas mãos, o usuário vê a respectiva projeção da mão virtual no ambiente
simulado, o que pode ser utilizado, portanto, para funções de apontar, segurar
5 Para saber mais, acesse: <http://www.veduca.org>. Acesso em: 17 out. 2017.

–  159  –
Tópicos Especiais

e mesmo manipular objetos virtuais. A Figura 2 mostra uma pessoa usando


óculos VR com controle manual.
Figura 2 – Óculos VR com controle.

Fonte: killerbayer/iStockphoto.
Aprimoramentos na tecnologia estão conduzindo a microssensores ade-
rentes à roupa ou mesmo à pele, que dispensam a necessidade de um controle
manual: tais dispositivos permitirão que movimentos da pessoa, no corpo todo,
e não apenas nas mãos, reproduzam seu organismo virtual com sincronia per-
feita no mundo projetado digitalmente. Tal tecnologia é similar ao que já se
emprega há muitos anos na indústria cinematográfica, quando atores reais são
utilizados para produzir movimentos mais naturais dos personagens digitais.
Um dos segredos da realidade virtual reside justamente em dispositivos
eletrônicos já presentes em praticamente todos os celulares: giroscópios e ace-
lerômetros eletrônicos – esses componentes são responsáveis pelo efeito de
que o mundo virtual acompanhe a movimentação da cabeça da pessoa que
usa os óculos VR em todas as direções: olhando de um lado para outro, de
cima para baixo, ou mesmo para frente e para trás.
E uma das possibilidades práticas mais fantásticas do uso da realidade
virtual para fins educacionais é justamente a revolução que traz ao conceito
da sala de aula convencional, o ambiente físico em que professor e alunos
precisam estar simultaneamente presentes para que a aula ocorra. Os recursos
tecnológicos já disponíveis nos dias atuais permitem que professor e alunos

–  160  –
TI voltada para a educação

estejam fisicamente afastados, em qualquer ponto do mundo que disponha


de uma conexão de internet: munidos dos óculos VR, todos eles podem
encontrar-se virtualmente em uma sala de aula digital.
Nesse ambiente, os participantes veem um ao outro na forma de avatares, e
os recursos didáticos que o professor utiliza superam, naturalmente, em muito a
mera lousa: vídeos podem ser mesclados em meio à sala virtual, objetos virtuais
podem ser projetados e manipulados por professor e alunos, além de que via-
gens virtuais podem ser experimentadas, para outros ambientes virtuais, como
museus digitais (que reproduzem fidedignamente seus originais no mundo real)
ou regiões inóspitas, como o fundo do mar ou o interior de vulcões.
Chama ainda a atenção a plena possibilidade de que transmissões ao
vivo sejam aproveitadas por essa tecnologia, fazendo com que eventos reais
possam ser acompanhados mediante óculos VR, por exemplo, professor e
alunos em qualquer parte do mundo podem acompanhar, como parte de
um conteúdo de aula, o lançamento de um foguete espacial, em tempo real,
como se estivessem fisicamente presentes no local do evento.
Isso é possível graças à integração de conexão de internet de alta veloci-
dade e câmeras de alta resolução que filmam em 360º, instaladas no local em
questão, transmitindo suas imagens pela internet. A capacidade da rede em
transmitir um grande volume de dados é crucial para o sucesso dessa tecnolo-
gia: afinal, se um vídeo convencional ocupa muito mais volume de dados do
que uma imagem, como uma fotografia estática, um vídeo em 360º também
demanda muito mais informação para ser transmitido que um vídeo conven-
cional (que tem apenas um único ângulo de visualização).
Para Schwab (2016), a realidade virtual pode ser empregada em qual-
quer tipo de proposta pedagógica, da Educação Infantil ao Ensino Superior,
dos cursos livres até programas stricto sensu como mestrado e doutorado, de
conteúdos nas áreas de ciências exatas, humanas e biológicas.
Por sua vez, realidade aumentada é uma expressão que, à primeira vista,
pode soar como algo muito técnico e distante do dia a dia, mas que, na prá-
tica, na atualidade, já permeia a maioria dos smartphones e tablets das pessoas,
sem que muitas delas se deem conta disso. A tecnologia permite a ampliação
da visão que se tem da realidade, por meio da sobreposição de informações e
objetos virtuais em um ambiente real.

–  161  –
Tópicos Especiais

São características que fazem dessa tecnologia uma plataforma extrema-


mente útil para processos educacionais, potencializando as ferramentas de tra-
balho de professores e abrindo novos canais de aprendizagem para os estudantes.
Portanto, o fundamento essencial da realidade aumentada é a sobreposi-
ção de imagens, mesclando elementos virtuais e reais. Acaba servindo, então,
de uma nova interface entre as pessoas e as informações em geral, sendo um
importante mecanismo de digitalização do mundo real. Com os olhos da
realidade aumentada, a observação de qualquer cenário convencional, como
uma floresta, uma máquina industrial ou um órgão do corpo humano é incre-
mentada com complementos de informação, trazidas de forma digital.
Sendo uma maneira de atuar como uma interface, a tecnologia se mis-
tura com outros conceitos, como controles, atuadores, leituras de informa-
ção, Big Data, simulações, multimídia. Então, torna-se uma nova maneira
de acessar informações, de formar capacidades técnicas e, enfim, de pro-
duzir conhecimento.
A Figura 2 mostra um exemplo bem elementar de realidade virtual na
visualização de um sanduíche: com um dispositivo como um smartphone ou
tablet, além da própria imagem real do alimento, estão sobrepostas informações
técnicas, como descrição nutricional, análise da composição e até mesmo infor-
mação de apoio de tomada de decisão (sobre a pertinência de comer ou não).
Figura 2 – Realidade aumentada sobre um sanduíche.

Fonte: BeeBright/iStockphoto.

–  162  –
TI voltada para a educação

Sem dúvida, existem diversos elementos da tecnologia da informação


que se ocupam da interação com o meio físico real. Contudo, o que acaba
bem caracterizando a realidade aumentada é a sincronia espacial dos objetos
virtuais com o cenário real – especialmente em projeções tridimensionais,
aliando a isso a interatividade em tempo real. Por exemplo, se em cima de
uma mesa encontra-se uma planta industrial ou diagrama esquemático qual-
quer, com função de realidade aumentada incorporada, ao se puxar ou ajeitar
o papel físico em qualquer direção, os objetos virtuais o acompanham. Da
mesma forma, caso o observador circule em torno daquela mesa, a mudança
do seu ângulo de visão sobre os itens físicos acompanha a mudança da visão
dos objetos virtuais. A Figura 3 ilustra esse enquadramento dos mundos real
e virtual sobrepostos.
Figura 3 – Sobreposição do mundo virtual e mundo real em 3D.

Fonte: Shaye Bigelow/iStockphoto.

–  163  –
Tópicos Especiais

A tecnologia é especialmente valiosa para o mercado de videogames: o


Pokémon Go fez grande sucesso ao colocar personagens animados em meio a
cenários reais, através da tela de celulares. Mas, para Chen et al. (2009), não
resta dúvida de que, sobretudo, os métodos de ensino conseguem ser apri-
morados com o uso de novas tecnologias digitais, como é o caso da realidade
aumentada. Empregando seus próprios smartphones ou tablets, estudantes
podem transformar um conteúdo convencional em papel (bidimensional) de
um material didático qualquer em imagens com volume (tridimensional).
Além disso, tais objetos 3D não são necessariamente estáticos: eles nor-
malmente se movimentam – e sons são usualmente acrescentados para enri-
quecer a experiência. E, para tanto, basta que o dispositivo em mãos do aluno,
por meio de sua câmera embutida, faça a leitura de códigos especiais de ati-
vamento do software, normalmente na forma de códigos QR (Quick Response,
ou resposta rápida). Sem dúvida, aumenta a motivação para o estudo, por
agregar conteúdo multimídia empolgante. E isso não se resume ao aspecto
lúdico, talvez de maior apelo entre crianças no Ensino Fundamental: para
cursos de nível superior, é altamente enriquecedor conseguir visualizar um
objeto em 3D, por exemplo, em curso relacionado à Engenharia Mecânica,
Desenho Industrial ou Arquitetura.
O que ajuda a popularizar a tecnologia e, em especial, a democratizá-la
sobremaneira para fins educacionais, é que há muita oferta em regime de Open
Source (software livre). Com uma rápida procura em buscadores na internet
por termos como realidade aumentada open source, encontram-se diversos
websites que permitem que qualquer pessoa, mesmo sem grandes conheci-
mentos em TI, consiga produzir aplicações básicas de realidade aumentada.
É interessante observar que, embora o visual seja o elemento de maior
apelo nessa tecnologia, ela engloba, conceitualmente, qualquer sentido
humano, tal como o olfato e audição. Isso é especialmente importante para
aumentar o escopo do emprego da realidade virtual, por exemplo, para a edu-
cação inclusiva: cegos podem apreender informação por meio de sons, entre
tantas outras possibilidades.
Diferente da realidade virtual, em que a pessoa precisa ser deslocada do
mundo real para uma realidade simulada digitalmente, na realidade aumen-
tada ocorre o inverso: são os objetos virtuais que são trazidos ao mundo real.

–  164  –
TI voltada para a educação

São, portanto, duas tecnologias inovadoras que se complementam, para tra-


zer uma infinidade de novos instrumentos para a educação.

8.3 A TI tornará a educação mais inclusiva?


É um tanto quanto consensual a ideia de que o sistema educacional
precisa ser reformado, para se adaptar a uma nova realidade. Críticos apon-
tam que os alunos não são ensinados a serem buscadores de conhecimento
automotivados em sua jornada. Tampouco os alunos estão concluindo cursos
que lhes forneçam habilidades, modelos mentais e valores necessários para
sobreviver em meio a um mundo de mudanças aceleradas. Em especial, a
maioria dos alunos não são capacitados para aquela inspiração necessária para
quem precisa contribuir para o progresso humano.
Os tradicionais currículos escolares têm permanecido inalterados durante
séculos – não obstante, sente-se a falta de uma base científica na pedagogia.
Dessa forma, persiste o modelo pautado em continuar dando ênfase em notas
de curto prazo e na realização individual.
É pertinente questionar: como será possível efetivamente educar as gera-
ções futuras? O que será preciso mudar a respeito da educação em geral?
A resposta a essas questões não está circunscrita a pequenas mudanças incre-
mentais, mas sim a uma revisão completa da educação convencional tal como
ela existe atualmente. Para começar, também passa pela necessidade de mudar
a forma como se define educação.
Inegavelmente, a tecnologia já está transformando o modo de ensinar e
de aprender. As salas de aula digitais, o sistema de colaboração global on-line
e a aprendizagem personalizada são apenas o começo. Que direção tomarão as
tendências na EdTech (tecnologias educacionais)? Mais ainda, o que o termo
educação significará daqui a 30 anos?
Em 2007, a organização The Millennium Project se propôs a explorar
esse futuro de mudanças radicais na educação, lançando um relatório pioneiro
chamado Educação 20306. No tempo já decorrido, o que se percebeu é que
algumas de suas previsões, preocupações e soluções começaram a ganhar vida.
6 Para saber mais, acesse: <http://107.22.164.43/millennium/Education-2030.html>. Acesso
em: 17 out. 2017.

–  165  –
Tópicos Especiais

Um dos destaques fica por conta dos sistemas integrados de aprendi-


zagem ao longo da vida. Afinal, a educação não deve ser limitada a algo que
uma pessoa faz em uma instituição específica por um determinado período
para obter uma certificação qualquer. Em vez disso, deve ser muito mais uma
jornada de exploração, de autodescoberta e de libertação ao longo de toda a
vida, impulsionada por recompensas intrínsecas, na forma de celebração das
pequenas conquistas intermediárias, sucessivamente, grau a grau.
A mentalidade de aprendizagem contínua ao longo da vida é essencial
para qualquer cidadão se tornar empregável nos trabalhos da próxima gera-
ção. Um relatório do World Economic Forum (2015) revelou que algo em
torno de 65% das profissões que os atuais alunos do Ensino Fundamental
irão exercer no futuro ainda não existem. Na dinâmica da inovação tecno-
lógica, novas indústrias estão constantemente nascendo e morrendo, redefi-
nindo competências profissionais. Os trabalhadores do futuro – um futuro
realmente não tão distante – conviverão cotidianamente com os MOOC e a
vasta gama de recursos educacionais adicionais disponíveis para desenvolver
habilidades sob demanda.
Não é exagero considerar trágico o quão pouco os currículos acadêmicos
atuais conseguem ensinar às mentes jovens a respeito de como aprender e como
desaprender. Na era pós-industrial, o impacto da tecnologia implica na necessi-
dade de as pessoas serem ágeis e adaptáveis às consequências não raro imprevi-
síveis das inovações disruptivas. Torna-se um cenário cada vez mais corriqueiro
que se tenha de aprender habilidades e conhecimentos sob demanda, ao mesmo
tempo em que simplesmente seja preciso deixar de lado aquele conjunto de
saberes não mais necessários para o novo mundo em que se vive.
Um aspecto adicional ainda precisa ser considerado no tocante aos sis-
temas integrados de aprendizagem ao longo da vida: eles podem ser especial-
mente úteis para endereçar muitas causas de infelicidade e problemas de saúde
mental que em geral se observam na sociedade atual. Conforme apontado pelo
relatório Educação 2030, a avaliação contínua dos processos individuais de
aprendizagem pode ser projetada para evitar que as pessoas se tornem infeli-
zes ou deprimidas. Por isso, convém desenvolver conteúdos educacionais que
vão além das competências técnicas industriais: é perfeitamente cabível incluir
programas destinados a combater o preconceito e o ódio, por exemplo, o que
favorece o estabelecimento de um mundo mais saudável a todos.

–  166  –
TI voltada para a educação

Como estudado na seção anterior, a realidade virtual e a realidade


aumentada estão revolucionando a experiência de aprendizagem. Integradas,
elas proporcionam experiências de aprendizagem imersiva do mais alto nível.
A aprendizagem imersiva permite que os alunos viajem para a História Antiga,
desloquem-se por todo o universo e visitem museus em diferentes países,
tudo sem precisar sair da sala de aula. Um dos maiores feitos de tais tecnolo-
gias é que elas tornam a experiência de aprendizagem muito mais envolvente,
inspiradora e transformadora, o que permite transformar visões de mundo e
transmitir mensagens poderosas com grande retenção de conhecimento nas
pessoas. Afinal, o que se leu, se esquece razoavelmente fácil, mas o que se viveu
(mesmo virtualmente) fica registrado profundamente na mente humana.
Iniciativas já presentes na atualidade vislumbram um futuro promissor
nesse campo. Por exemplo, o programa Google Expeditions Pioneer7 per-
mite que professores conduzam seus alunos em uma jornada literalmente a
qualquer lugar do mundo – ou até além dele. Com a mesma facilidade que
se explora os recifes de corais, pode-se percorrer a superfície de Marte, por
meio dessa atividade de visitas de campo virtuais imersivas. Sem dúvida, isso
parecer consolidar os modelos de escolas inteiramente virtuais.
Objetivamente, essas experiências imersivas têm o potencial de contri-
buir para uma aprendizagem muito mais rápida, uma melhor retenção e uma
melhor capacidade de tomada de decisões. Nesse sentido, convém alertar que
currículos integrados com a tecnologia são tão importantes quanto a pró-
pria tecnologia em si. Afinal, é fácil digitalizar currículos já inadequados – e
isso não resolve o problema. A mera implementação de realidade virtual e
realidade aumentada não é suficiente: o conteúdo dos currículos redesenha-
dos por essa tecnologia precisa ser inovador. As viagens virtuais que os alu-
nos experimentam devem ser elaboradas com base nas habilidades, valores e
modelos mentais relevantes que se deseje incutir nas gerações futuras.
Tendência instigante é a da melhoria cognitiva, ou seja, o aprimora-
mento da inteligência humana mediada por novas tecnologias. Ocorre que
a educação, felizmente, é cada vez mais tratada como uma ciência. O que
se observa é o surgimento da neuroeducação como um campo sério de
pesquisa, no qual cientistas estão continuamente adquirindo uma melhor

7 Para saber mais, acesse: <https://edu.google.com/expeditions/>. Acesso em: 17 out. 2017.

–  167  –
Tópicos Especiais

compreensão da mente humana, do cérebro e do processo de aprendizagem.


Esses avanços na compreensão de como opera a mente das pessoas pode ter
poderosas implicações nas capacidades de aprendizagem. Muitos educadores
estão sendo encorajados a aplicar essas descobertas para testar novas possibi-
lidades pedagógicas.
Indo além, alguns especialistas ainda esperam para muito em breve um
mapeamento completo das sinapses humanas para descobrir como a aprendi-
zagem ocorre e, assim, permitir o desenvolvimento de estratégias biológicas
para a melhoria da aprendizagem. Como vislumbra Singh (2012, 2014), com-
preender esses mecanismos também abrange o caminho para uma onda de
drogas de aprimoramento cognitivo (a mítica pílula da inteligência), inteligên-
cia geneticamente aprimorada e integração com dispositivos de inteligência
artificial por meio de interfaces cibernéticas cérebro-máquina.
Há pouco anos atrás, tudo isso pareceria pura ficção científica, mas a rea-
lidade atual já demonstra que o caminho começou a ser percorrido. Por exem-
plo, é altamente emblemático o estudo publicado em 2017 que demonstra
substanciais melhorias cognitivas para jogo de xadrez com os neurofármacos
modafinil e metilfenidato (FRANKE et al., 2017). Além disso, uma equipe
de especialistas da Itália trabalha para uma plataforma de e-learning que opera
em uma interface cérebro-computador, chamada Bravo, para personalizar a
experiência educacional, de acordo com as reações e preferências dos usuários
(MARCHESI; RICCÒ, 2013).
Figura 4 – Headset EEG.

Fonte: BSANI/iStockphoto.

–  168  –
TI voltada para a educação

Não há como deixar de colocar a educação no seu merecido patamar,


como responsável pela transformação social. Estende-se uma nova e nobre
definição de educação, que vai muito além do propósito de autoaperfeiçoa-
mento: trata-se do meio pelo qual se fomenta novas gerações civilizatórias – o
próprio progresso da humanidade. Prensky (2001), que é um dos maiores
ativistas da mudança civilizatória pela educação global, aponta que a maioria
das pessoas tem uma perspectiva desatualizada sobre o que significa educa-
ção, bem como sobre sua aplicação prática. Segundo ele, é preciso empregar
a educação para inspirar e capacitar os jovens a desenvolver o ferramental
necessário para contribuir para o progresso da raça humana.
As ferramentas tecnológicas abordadas tendem a se tornar inimaginavel-
mente poderosas, sendo importante admitir que elas podem ser usadas para
melhorar ou para piorar a sociedade. Um dos maiores e crônicos desafios
educacionais, que só poderá ser solucionado à medida que novas capacidades
surgirem, é a falta de acesso universal. O relatório Educação 2030 alerta que
os órgãos governamentais devem desenvolver maneiras de promover o uso
democrático e justo dessas novas tecnologias, evitando que a inovação em
EdTech fique restrita a uma elite social.
Finalmente, é preciso entender que muitas instâncias políticas verão
essas novas capacidades educacionais como uma ameaça ao seu poder. Não
surpreenderia que algumas dessas técnicas possam ser proibidas, de forma que
se perpetuem regimes, ideologias e estruturas de crença por todo o mundo
que se fundamentam na ignorância dos povos. Como afirma Prensky (2001),
a civilização vivencia um pleno processo de mudança. Aquelas partes do
mundo que tomarem ações rápidas e apropriadas para implementar o novo
paradigma educacional serão aquelas em que as crianças poderão verdadeira-
mente prosperar na vida. São lugares que não ficarão para trás na trajetória
do progresso humano.

Conclusão
As tecnologias de informação e comunicação (TIC) exercem papel de
protagonismo cada vez mais importante na forma como as pessoas se comu-
nicam, aprendem e vivem. O desafio imposto é equipar essas tecnologias de
forma tal a atender aos interesses e necessidades dos estudantes e professores.

–  169  –
Tópicos Especiais

Contudo, possibilidades é o que não faltam para cumprir esse intento.


Existem razões mais que suficientes para se acreditar que as TIC possam efeti-
vamente contribuir com o acesso universal à educação, com a melhor qualidade
de ensino e aprendizagem, bem como formação de alto nível de professores
(incluindo até mesmo oportunidades de internacionalização de carreira).

Ampliando seus conhecimentos

Lopes e Azevedo (2017) afirmam que se pode inferir que a


tecnologia está presente em todos os setores sociais, inclusive,
ainda que de forma primária, nas instituições educativas. No
entanto, ainda existe um paradoxo em relação ao conceito de
tecnologia, o que pode causar divergências, mas, ao mesmo
tempo, ampliar as finalidades de seu uso e processo que se
pode desencadear no ensino e na formação de professores.
Sabe-se que a presença e a influência da tecnologia são ine-
gáveis, porém, não basta apenas saber manipulá-la, é preciso
torná-la objeto de estudo, descobrindo suas potencialidades,
incluindo as pedagógicas, principalmente quando se fala de
educação tecnológica.

Tecnologia como mediação


pedagógica na formação de
professores reflexivos
(LOPES, AZEVEDO, 2017, p. 74)

[...] pode-se inferir o sentido de tecnologia como uma


ação humana voltada para humanos, pois “[...] representa o
aspecto qualitativo de um ato humano necessariamente inse-
rido no contexto social que a solicita, a possibilita e lhe dá
aplicação” (PINTO, 2005, p. 321). O autor diz ainda que
tecnologia tem sido relacionada à produção de métodos e
artefatos, mas trata-se de um processo, e não apenas de um

–  170  –
TI voltada para a educação

produto pronto e acabado. Acrescenta que por ser a tecno-


logia uma expressão da atividade humana, ela está inserida,
portanto, no âmbito da cultura, e tem uma relevância especial
para a educação.
Quando se fala da relevância da tecnologia para o âmbito
educacional, e sobre a repercussão dessa ação humana sobre
a realidade, torna-se necessário relacioná-la com o conheci-
mento que envolve o que fazer, como fazer, por que fazer,
para que fazer, sem perder de vista o contexto. Portanto,
pode-se estar diante de um novo eixo epistemológico:
Ciência + Técnica + Intencionalidade. Dessa forma, a
tecnologia está relacionada com o saber, o fazer e o ser. Em
outras palavras, a tecnologia mantém relações estreitas com
conhecimentos, habilidades e atitudes. E estas são dimen-
sões trabalhadas nas instituições educativas, sobretudo na
educação tecnológica.
[...]

Atividades
1. O que é um nanodegree?

2. Como funciona uma sala de aula digital por meio da realidade virtual?

3. Qual é o fundamento essencial da realidade aumentada?

4. O que são sistemas integrados de aprendizagem ao longo da vida?

–  171  –
Gabarito

Gabarito

– 173  –
Tópicos Especiais

1. Introdução a novas tecnologias


1. Ciência e tecnologia produzem conhecimento, e é com conhecimen-
to válido e útil que se criam novidades, novas abordagens e novas
propostas de produtos e tecnologias – algumas das quais podem con-
seguir êxito comercial (aceitação pelo mercado), assim configurando
inovação. Por assim dizer, ciência e tecnologia são matéria-prima para
a inovação.

2. Conhecer, na medida do possível, os possíveis caminhos que uma


tecnologia percorrerá nas próximas décadas é especialmente útil
por uma infinidade de razões, entre elas, o fomento de adequadas
políticas públicas de desenvolvimento, por parte dos governos, e do
planejamento estratégico da tecnologia, por parte das empresas, o que
pode levar à assimilação em tempo hábil das novidades na área, que
podem ser convertidas efetivamente em inovação e novos negócios,
portanto, criando importante vantagem competitiva.

3. Porque ali reside o ponto de inflexão de uma tecnologia emergente,


a partir do qual ela pode ser aprimorada para efetivo emprego na
indústria (alcançando o aclive de iluminação e o platô da produti-
vidade) – ou então ser definitivamente abandonada ou substituída
por outra tecnologia. O monitoramento dessa condição é essencial
para as organizações preocupadas em manter resultados de vanguarda
tecnológica permanente.

4. Com sua abordagem human-centric (direcionada ao ser humano),


essas tecnologias promovem uma integração invisível e intuitiva entre
pessoas, sistemas artificiais e empresas, de tal forma que seu uso seja
percebido como o mais natural possível. Aqui, a integração homem-
-máquina alcança um grau inédito, quando sistemas biológicos e
artificiais começam a operar mutuamente para melhor desempenho
de ambos.

–  174  –
Gabarito

2. A tecnologia ao longo do tempo


1. Porque o conhecimento humano é cumulativo. Cada nova geração
recebe, como legado, o conhecimento científico e tecnológico acu-
mulado pelas gerações anteriores, e isso permite que cada geração
estenda um pouco mais o estado da arte de determinada tecnologia.
Como a difusão das novas tecnologias é cada vez mais acelerada, com
os novos conhecimentos acrescentados, o que ocorre é a potencializa-
ção do uso combinado de diferentes tecnologias (uma contribuindo
para o desenvolvimento de outra), de tal forma que, em curto espaço
de tempo, principalmente nestas últimas décadas, o grau de melhoria
que se alcança em diversos atributos (preço, funcionalidade, tama-
nho, consumo energético etc.) é da ordem de bilhões de vezes.

2. A digitalização permeia todos os processos organizacionais, desde os


produtivos, técnicos ou ligados ao chão de fábrica, até os administra-
tivos e indiretos, como RH, Marketing e Financeiro. Não há limite
de escopo – todos os departamentos de uma organização podem, em
maior ou menor grau, serem aprimorados, em termos de produtivi-
dade, por meio da digitalização de seus próprios processos. As dife-
rentes tecnologias, em especial, quando convergem e se integram com
a tecnologia da informação, viabilizam esta virtualização das rotinas
de trabalho dos diferentes processos da empresa.

3. Quando uma empresa e seus principais fornecedores estão total-


mente integrados por processos digitais comuns, ocorre que a in-
formação das etapas de produção é comunicada instantaneamente
por todos os participantes daquela cadeia – muitas vezes, até mesmo
sem a necessidade de intervenção humana. É o caso, por exemplo,
de uma máquina de determinada etapa da produção de um fornece-
dor que, ao perceber (de forma autônoma) um problema qualquer
com a matéria-prima ou componente processado, já comunica não
só às próximas máquinas de sua própria organização, mas também

–  175  –
Tópicos Especiais

os equipamentos das outras empresas (cliente e fornecedores), garan-


tindo uma sincronia que faz com que os demais elementos evitem
tempos de parada em ociosidade, sobrecarga, desperdícios, retraba-
lhos, entre outros aspectos típicos de custos de improdutividade dos
sistemas industriais.

4. Em breve, sistemas de inteligência artificial alcançarão patamar em


que farão o trabalho das pessoas de forma muito melhor do que um
ser humano, em qualquer função. Isso inclui até mesmo a capacidade
de empreender e gerir negócios. Em uma perspectiva histórica,
desemprego só é preocupação quando as pessoas precisam trabalhar
para sobreviver. Quando as coisas trabalharem pelas pessoas, perde
sentido discuti-lo como problema social.

3. TI para pessoas com deficiência


1. Porque a população como um todo está crescendo, sendo que a
parcela de pessoas com deficiência cresce proporcionalmente. Além
disso, outros fatores ajudam a explicar o fenômeno: o maior enve-
lhecimento da população (vive-se cada vez mais), a rápida difusão
de doenças crônicas (tais como diabetes, doenças cardiovasculares,
câncer e distúrbios mentais), além do próprio aprimoramento meto-
dológico no que diz respeito à precisão com que se pode detectar e
mensurar deficiências.

2. Além de tratar a disfunção ou deficiência em si, contribuir também


para a resolução dos problemas sociais associados ao problema
da pessoa com deficiência, como falta de acesso a serviços básicos,
empregabilidade, interação social etc.

3. Porque o computador é regido por comandos de entrada que são


convertidos para a linguagem que a máquina compreenda (sinais

–  176  –
Gabarito

digitais): o próprio teclado e mouse convencionais são apenas algu-


mas das formas pelas quais se faz uma leitura do ambiente externo
que é depois convertida para instrução computacional. Por isso, em
teoria, qualquer dispositivo que tenha a capacidade de converter al-
guma forma de comando externo (luz, movimento, som, tempera-
tura, pressão etc.) em instruções computacionais pode ser utilizado
como entrada alternativa daquelas informações. Para o computador,
indifere o meio externo de captação dos comandos, o importante é
que a instrução correta seja acionada. Isso é bastante útil no caso dos
usuários que, por um ou mais motivos, não possam utilizar o teclado
e mouse convencionais.

4. Dando ao software uma estratégia de envolvimento mais visual, com


mais gráficos e cores, por exemplo. Além disso, é importante que a in-
terface dos comandos e opções seja mais simplificada, porque muitas
alternativas simultâneas acabam por perturbar um autista. Se áudio é
envolvido, é importante que as palavras sejam pronunciadas em um
ritmo mais cadenciado, embora ainda fluido.

4. Aplicativos interativos
1. Look and feel pode ser traduzido literalmente para ver e sentir, e é um
termo que muito se utiliza em referência às especificidades de uma
interface de usuário em sistemas computacionais. O look se refere ao
design visual, enquanto o feel diz respeito à sua interatividade. É mais
uma forma, mesmo que indireta ou mais informal, de se entender a
definição de interatividade.

2. Em TI, para garantir a melhor interatividade possível entre aplicativos e


usuários, o que se precisa levar em consideração é o conhecimento que
as pessoas apresentam do mundo ao seu redor, o que é denominado
de modelo mental. Quando uma pessoa não tem um correto modelo

–  177  –
Tópicos Especiais

mental de algo, então, ela apenas consegue realizar ações por repetição.
Diante de um imprevisto, se alguma coisa não funciona corretamente,
dificilmente essa pessoa conseguirá entender o que ocorreu de errado
para conseguir ao menos tentar corrigir o rumo tomado.

3. Saber incorporar a emoção em projetos é uma das competências do


designer de interação. O aspecto emocional não pode ser desconsi-
derado no processo de desenvolvimento de um produto, pois é um
elo entre as pessoas e os aparatos tecnológicos. Produtos sem o apelo
emocional estão desconectados das pessoas, sendo então considerados
como produtos sem vida.

4. No caso de grupos de usuários com perfis muito diferentes, é


importante que haja estudo de maneiras alternativas para se chegar
ao mesmo resultado, pois cada preferência de usuário poderá ser
atendida, uma vez que seja possível à pessoa obter as respostas do
sistema da maneira que julgar mais adequada (ícone, tecla de atalho,
comando direto, comando por voz etc.).

5. Inteligência artificial
1. Raciocínio e solução de problemas, planejamento, aprendizado, pro-
cessamento de linguagem natural, percepção, movimentação e mani-
pulação física e computação afetiva.

2. A Psicologia Computacional é um novo campo de conhecimento, em


Ciência da Computação e inteligência artificial, utilizada para produzir
programas de computador que imitam o comportamento humano.

3. A affective computing é uma área que procura dotar os sistemas in-


formatizados de competência emocional, tanto para reconhecer dife-
rentes estados de humor dos usuários (e, assim, ajustar uma melhor

–  178  –
Gabarito

resposta à situação) quanto para se comportar de maneira mais em-


pática na interatividade com as pessoas, desenvolvendo, assim, maior
sensibilidade nas habilidades sociais.

4. O impacto é a gradativa substituição dos empregos humanos por fun-


ções desempenhadas pela inteligência artificial. Tudo começa pelas
funções mais operacionais ou mesmo braçais, de emprego de força
física: essas são facilmente substituíveis com a atual tecnologia dispo-
nível. Entretanto, em futuro provavelmente bastante próximo, com o
avanço tecnológico, até mesmo as funções mais criativas estarão ame-
açadas. Afinal, com a crescente evolução da capacidade de sistemas
inteligentes, em teoria, qualquer tarefa que uma pessoa faça pode ser
melhor desempenhada por um sistema artificial.

6. Tecnologias para dispositivos móveis


1. Firmware pode ser considerado o software que não interage com
o usuário. Afinal, diz respeito a instruções e comandos com uma
finalidade bem específica, sendo projetado para a função de con-
trolar diretamente o hardware. Diz respeito à memória não volátil,
isto é, que retém informação mesmo após o corte de energia elé-
trica de alimentação do sistema. Como atua diretamente sobre os
circuitos eletrônicos, uma característica típica é sua considerável
rapidez, pois a resposta de desempenho é essencial para o bom
funcionamento do sistema.

2. Porque a digitalização que a tecnologia proporciona traz um número


muito maior de dispositivos eletrônicos funcionando simultaneamente,
e estes são alimentados por energia elétrica. Se a quantidade de energia
elétrica a mais que precisa ser gerada vem de fontes não renováveis,
o impacto ambiental é desastroso (por exemplo, pela maior emissão
de CO2 na atmosfera, com consequências de aquecimento global e

–  179  –
Tópicos Especiais

desequilíbrio climático). Urge, pois, que a produção desse adicional


de energia tenha impacto ambiental minimizado, para que o progresso
tecnológico e industrial seja sustentável.

3. Porque é cada vez mais demandada com o dispêndio energético que


os aparelhos exigem (vídeo, conexão etc.) e não conseguem acompa-
nhar o mesmo ritmo de evolução dos demais componentes.

4. Por causa da forte tendência da tecnologia dos vestíveis (wearable)


substituir os atuais smartphones, além da possível integração homem-
máquina em um nível realmente avançado (cérebro comandando,
imagens virtuais sendo desenhadas nos olhos e sons virtuais nos ouvidos).

7. TI verde
1. A informatização é bastante útil em auxiliar a atender a alguns dos
requisitos mais críticos da norma ISO 14.001, como a identificação
de aspectos e impactos ambientais, a identificação dos requisitos le-
gais aplicáveis e a aplicação das soluções tecnológicas ambientalmente
mais adequadas às operações, sendo todos esses requisitos determina-
dos pela norma.

2. É a cura automática da rede, que se dá em situações como a queda


de um poste ou a falha de energia em um bairro, procurando isolar e
restringir a falha o mais localmente possível (a uma única rua ou um
único estabelecimento, muitas vezes, para afetar a menor quantida-
de possível de consumidores), por meio da procura automatizada e
fornecimento de outros supridouros para determinada região. Uma
rede de geração e distribuição de energia elétrica conta com um alto
grau de redundância, de forma que a falha de um elemento pode ser
instantaneamente coberta por outro – sem que seja necessária uma
operação manual por parte de um ser humano.

–  180  –
Gabarito

3. A escolha dos servidores deve ser uma tarefa criteriosa, porque é co-
mum que se encontrem, em diversas organizações, sistemas com 80%
ou mais de ociosidade, o que representa um impacto ambiental des-
necessário (consumo de energia elétrica sem propósito). Muitas vezes,
se utilizam múltiplos servidores subutilizados (dedicados cada um a
determinado sistema ou aplicação), que poderiam perfeitamente ser
substituídos por um único servidor melhor aproveitado em termos de
utilização de capacidade de processamento e armazenamento.

4. Porque quando os fabricantes deixam de ganhar dinheiro vendendo


produtos e passam a auferir lucros com taxas de assinatura de serviços
que estes produtos fornecem aos seus usuários, a propriedade destes
equipamentos continua sendo do fabricante. Isso leva ao natural
interesse de aumentar ao máximo a vida útil do produto, para
extrair o máximo de retorno sobre o investimento de tê-lo fabricado,
revertendo uma prática até então arraigada na indústria em geral de
obsolescência programada (sucateamento prematuro de produtos
para que possam ser promovidas vendas de novos equipamentos).
Menos sucateamento e maior efetividade de manutenção levam ao
impacto ambiental positivo, de redução de poluição ambiental e de
menor consumo de recursos naturais.

8. TI voltada para a educação


1. É uma modalidade de curso oferecido pela plataforma de ensino Udacity.
Diferentemente dos cursos MOOC também disponíveis naquela
organização, é pago, sendo caracterizado por ser um programa de ensino
em que o aluno é treinado em uma profissão de alta tecnologia de grande
demanda no mercado, com conteudistas como Google, Facebook
e Amazon, recebendo apoio profissional para garantir seu emprego
imediatamente após a conclusão do curso. São oferecidos benefícios
como devolução de metade do valor pago (para quem consegue concluir
o curso em até 12 meses) e até mesmo consultorias de carreira.

–  181  –
Tópicos Especiais

2. Esta é uma das possibilidades práticas mais fantásticas do uso da


realidade virtual para fins educacionais. A tecnologia permite que
professor e alunos estejam fisicamente afastados, em qualquer ponto
do mundo que disponha de uma conexão de internet: munidos dos
óculos VR, todos eles podem se encontrar virtualmente em uma sala
de aula digital e interagir tal qual como fariam se estivessem presen-
cialmente juntos.

3. É a sobreposição de imagens, mesclando elementos virtuais e reais.


Isso acaba servindo, então, de uma nova interface entre as pessoas
e as informações em geral, sendo um importante mecanismo de
digitalização do mundo real. Com os olhos da realidade aumentada, a
observação de qualquer cenário convencional, como uma floresta, uma
máquina industrial ou um órgão do corpo humano é incrementada
com complementos de informação, trazidas de forma digital.

4. É o modelo mental que comunga da premissa de que a educação não


deve ser limitada a algo que uma pessoa faz em uma instituição específica
por um determinado período para obter uma certificação qualquer.
Em vez disso, deve ser muito mais uma jornada de exploração, de
autodescoberta e de libertação ao longo de toda a vida, impulsionada
por recompensas intrínsecas, na forma de celebração das pequenas
conquistas intermediárias, sucessivamente, grau a grau. A educação
efetiva precisa ser integrada nas experiências do cotidiano – todas elas,
incluindo até mesmo o entretenimento.

–  182  –
Referências

Referências

– 183  –
Tópicos Especiais

ALLEGRETTI, C. A. L. Design de interação. Canoas: Ulbra, 2015.


ASIMOV, Isaac. I, Robot. Nova Yorque: Gnome Press, 1950. v.1.
AZEVEDO, J.; NASCIMENTO, G.; SOUZA, C. Ciberdependência: o papel
das emoções na dependência de tecnologias digitais. Linguagem e tecnologia,
v. 7, n. 2, 2014. Disponível em: <http://www.periodicos.letras.ufmg.br/index.
php/textolivre/article/view/6173>. Acesso em: 1 nov. 2017.
BARRETO, A. A. A transferência de informação, o desenvolvimento tecno-
lógico e a produção de conhecimento. Informare, v. 1, n. 2, p. 2-10, jul./dez.
1995. Disponível em: <http://basessibi.c3sl.ufpr.br/brapci/index.php/article/
download/17419>. Acesso em: 1 nov. 2017.
BERLINSKI, D. The Advent of the Algorithm: the 300-year journey from
an idea to the computer. Fort Washington: Harvest Book, 2000.
BRASIL. Lei n. 9.394, de 20 de dezembro de 1996. Diário Oficial da União,
Poder Legislativo, Brasília, DF, 23 dez. 1996. Disponível em: <http://www.
planalto.gov.br/ccivil_03/leis/L9394.htm>. Acesso em: 1 nov. 2017.
BUONOMANO, D. O cérebro imperfeito: como as limitações do cérebro
condicionam as nossas vidas. São Paulo: Campus, 2011.
CALDAS, E. Facebook quer que as pessoas “digitem com o cérebro” e “ouçam
com a pele”. Época Negócios, 19 abr. 2017. Disponível em: <http://epo-
canegocios.globo.com/colunas/Tecneira/noticia/2017/04/facebook-quer-
que-pessoas-digitem-com-o-cerebro-e-oucam-com-pele.html>. Acesso em: 1
nov. 2017.
CASTELLS, M. The Rise of the Network Society, the Information Age:
economy, society and culture. 2. ed. Oxford: Blackwell’s, 2009.
CAVANAGH, K.; SHAPIRO, D. Computer treatment for common mental
health problems. Journal of Clinical Psychology, v. 60, n. 3, p. 239-251,
2004. Disponível em: <http://onlinelibrary.wiley.com/doi/10.1002/
jclp.10261/abstract;jsessionid=92F43428E7700F2C823BB23846064743.
f03t04>. Acesso em: 1 nov. 2017.
CHEN, C.; CALINGER, M.; HOWARD, B.; OSKORUS, A. Emerging
EdTech: expert perspectives and design principles. In: TOMEI, L. (Ed.). ICTs
–  184  –
Referências

for Modern Educational and Instructional Advancement: new approaches


to teaching. Hershey: Information Science Reference, 2009.
CHRISTENSEN, C.; RAYNOR, M. The Innovator’s Solution: creating and
sustaining successful growth. Boston: Harvard Business Review Press, 2013.
CLEAN EDGE. Getting to 100: a status report on rising commitments among
corporations and governments to reach 100% renewables. 2015. Disponível
em: <https://cleanedge.com/reports/Getting-to-100>. Acesso em: 1 nov. 2017.
DAHER, C.; SILVA, E.; FONSECA, A. Logística reversa: oportunidade
para redução de custos através do gerenciamento da cadeia integrada de valor.
Brazilian Business Review, Vitória, v. 3, n. 1, jan./jun. 2006. Disponível em:
<http://repositorio.unb.br/bitstream/10482/12550/1/ARTIGO_Logistica
ReversaOportunidade.pdf>. Acesso em: 1 nov. 2017.
DAVIES, E.; RICHARD, K.; GLAZEBROOK, C. Computer-delivered and
web-based interventions to improve depression, anxiety, and psychological
well-being of university students: a systematic review and meta-analysis.
Journal of Medical Internet Research, v. 6, n. 5, maio 2014. Disponível
em: <http://www.jmir.org/2014/5/e130/>. Acesso em: 1 nov. 2017.
DAVIES, S; HASTINGS, R. Computer technology in clinical psychology
services for people with mental retardation: a review. Education and Training
in Development Disabilities, v. 38, n. 3, p. 341-352, 2003. Disponível em:
<http://daddcec.org/Portals/0/CEC/Autism_Disabilities/Research/
Publications/Education_Training_Development_Disabilities/2003v38_
Journals/ETDD_200309v38n3p341-352_Computer_Technology_
Clinical_Psychology_Services_People.pdf>. Acesso em: 1 nov. 2017.
ELLWANGER, C. Design de Interação, design experiencial e design
thinking: a tríade que permeia o escopo de desenvolvimento de sistemas com-
putacionais interativos. In: CONFERÊNCIA INTERNACIONAL SOBRE
INFORMÁTICA NA EDUCAÇÃO, 18., 2013, Porto Alegre. Anais...
Porto Alegre: TISE, 2013. p. 799-802. Disponível em: <http://www.tise.cl/
volumen9/TISE2013/799-802.pdf>. Acesso em: 1 nov. 2017.
FENN, J.; RASKINO, M. Mastering the hype cycle: how to choose the
right innovation at the right time. Boston: Harvard Business Review, 2008.

–  185  –
Tópicos Especiais

FRANKE, A.; GRÄNSMARK, P.; AGRICOLA, A.; SCHUEHLE, K.;


ROMMEL, T.; SEBASTIAN, A.; BALLO, H.; GORBULEV, S.; GERDES,
C.; FRANK, B.; RUCKES, C. Methylphenidate, modafinil, and caffeine for
cognitive enhancement in chess: a double-blind, randomised controlled trial.
European Neuropsychopharmacology, v. 27, n. 3, p. 248-260, mar. 2017.
Dispnível em: <https://www.ncbi.nlm.nih.gov/pubmed/28119083>. Acesso
em: 1 nov. 2017.
HEATH, S. Embedded Systems Design. 2. ed. [S.l.]: Newnes, 2002.
HOFSTADTER, D. Gödel, Escher, Bach: an eternal golden braid. Nova
Iorque: Vintage Books, 1979.
JAYO, M. Por uma TI mais verde. GV executivo, v. 9, n. 1, p. 52-57, jan./jun.
2010. Disponível em: <http://rae.fgv.br/sites/rae.fgv.br/files/artigos/5559.
pdf>. Acesso em: 1 nov. 2017.
KURZWEIL, R. The singularity is near: when humans transcend biology.
Londres: Penguin Books, 2005.
LIANG, H., PARSONS, P., WU, H., SEDIG, K. An exploratory study
of interactivity in visualization tools: “flow” of interaction. Journal of
Interactive Learning Research, v. 21, n. 1, p. 5-45, jan. 2010. Disponível
em: <https://www.learntechlib.org/p/32419/>. Acesso em: 1 nov. 2017.
LOPES, A.; AZEVEDO, R. Tecnologia como mediação pedagógica na for-
mação de professores reflexivos. Revista Areté, v. 8, n. 17, p. 72-81, maio
2017. Disponível em: <http://periodicos.uea.edu.br/index.php/arete/article/
view/180>. Acesso em: 1 nov. 2017.
MARCHESI, M.; RICCÒ, B. Bravo: a brain virtual operator for education
exploiting brain-computer interfaces. In: CHI Conference, 30., 2013, Paris.
Anais... Paris: ACM, 2013. p. 3091-3094.
MEIRELLES, F. Cenário e tendências do uso de TI. Revista SAP Spectrum,
maio 2011. Disponível em: <http://gvpesquisa.fgv.br/sites/gvpesquisa.fgv.
br/files/arquivos/meirelles_-_cenario_e_tendencias_no_uso_da_tecnologia.
pdf>. Acesso em: 1 nov. 2017.

–  186  –
Referências

MIESENBERGER, K.; KLAUS, J.; ZAGLER, W.; BURGER, D. Computers


Helping People with Special Needs. Berlim: Springer, 2004.
OECD – Organization for Economic Co-operation and Development. Oslo
Manual: guidelines for collecting and interpreting innovation data. 3. ed.
[S.l.]: OECD Publishing, 2005. Disponível em: <http://www.oecd-ilibrary.
org/docserver/download/9205111e.pdf?expires=1509543540&id=id&acc-
name=guest&checksum=F5A940A0C158F66BFF295CBC34A0436A>.
Acesso em: 1 nov. 2017.
PARSONS, P.; SEDIG, K. Adjustable properties of visual representations:
improving the quality of human-information interaction. Journal of the
American Society of Information Science and Technology, v. 65, n. 3,
p. 455-482, 2014.
PINTO, A. V. O conceito de tecnologia. Rio de Janeiro: Contraponto, 2005. v. 1.
PORTER, A. Technology foresight: types and methods. International
Journal of Foresight and Innovation Policy, v. 6, n. 1-3, p. 36-45, 2010.
PORTER, A.; ASHTON, W.; CLAR, G.; COATES, J.; Cuhls, K.;
CUNNINGHAM, S.; DUCATEL, K.; VAN DER DUIN, P.; GEORGHIOU,
L.; GORDON, T.; LINSTONE, H.; MARCHAU, V.; MASSARI, G.; MILES,
I.; MOGEE, M.; SALO, A.; SCAPOLO, F.; SMITS, R.; THISSEN, W.
Technology futures analysis: toward integration of the field and new methods.
Technological Forecasting & Social Change, 71, p. 287-303, 2004.
POSLAD, S. Ubiquitous computing: smart devices, smart environments
and smart interaction. Wiley, 2009.
POZZEBON, E.; FRIGO, L.; BITTENCOURT, G. Inteligência artifi-
cial na educação universitária: quais as contribuições? Revista CCEI, n.
8, p. 33-40, 2004. Disponível em: <https://www.researchgate.net/profile/
Luciana_Frigo/publication/242091111_INTELIGENCIA_ARTIFICIAL_
NA_EDUCACAO_UNIVERSITARIA_QUAIS_AS_CONTRIBUICOES/
links/553a44a20cf2c415bb0773ad/INTELIGENCIA-ARTIFICIAL-NA-
EDUCACAO-UNIVERSITARIA-QUAIS-AS-CONTRIBUICOES.pdf>.
Acesso em: 1 nov. 2017.

–  187  –
Tópicos Especiais

PRENSKY, M. Digital natives, digital immigrants (part 1). On the Horizon,


v. 9, n. 5, p. 1-6, 2001. Disponível em: <https://www.marcprensky.com/
w r i t i n g / Pre n s k y % 2 0 - % 2 0 Di g i t a l % 2 0 Na t i ve s , % 2 0 Di g i t a l % 2 0
Immigrants%20-%20Part1.pdf>. Acesso em: 1 nov. 2017.
PRICEWATERHOUSECOOPERS. Disponível em: <https://www.pwc.
com/m1/en/media-centre/2017/iiot-transformation-that-will-put-cios-to-
-the-test.html>. Acesso em: 19 out. 2017.
RAMOS, E.; JOIA, L.; MIRANDA JR., C.; SILVA, A. Gestão estratégica
da tecnologia da informação. São Paulo: FGV, 2012.
REIS, D. Gestão da inovação tecnológica. Curitiba: Manole, 2008.
ROGERS, Y.; SHARP, H.; PREECE, J. Design de interação: além da inte-
ração humano-computador. 3. ed. Porto Alegre: Bookman, 2013.
RUSSELL, S.; NORVIG, P. Artificial Intelligence: a modern approach. 2.
ed. Upper Saddle River: Prentice Hall, 2003.
SCHWAB, K. A quarta revolução industrial. São Paulo: Edipro, 2016.
SEDIG, K., PARSONS, P., BABANSKI, A. Towards a characterization of
interactivity in visual analytics. Journal of Multimedia Processing and
Technologies, v. 3, n. 1, p. 12-28, 2012. Disponível: <http://web.ics.purdue.
edu/~parsonsp/papers/JMPT2012.pdf>. Acesso em: 1 nov. 2017.
SERAPIÃO, A. Fundamentos de otimização por inteligência de enxa-
mes: uma visão geral. Sba Controle e Automação, v. 20, n. 3, 2009.
Disponível em: <http://www.scielo.br/scielo.php?script=sci_arttext&
pid=S0103-17592009000300002>. Acesso em: 1 nov. 2017.
SINGH, S. New Mega Trends: implications for our future lives. Basingstoke:
Palgrave Macmillan, 2012.
SINGH, S. Top 20 Global Megatrends and their Impact on Business,
Cultures and Society. San Antonio: Frost & Sullivan, 2014.
SLADE, G. Made to Break: technology and obsolescence in America.
Boston: Harvard University Press, 2009.

–  188  –
Referências

TORRES, F. Towards a Universal Theory of Media Interactivity:


developing a proper context. Fullerton: California State University, 1995.
URRIZA, J.; NOVELLI, B.; LEITE, J.; OROZCO, J. Economia de energia
em dispositivos móveis. In: Workshop de comunicação sem fio e computação
móvel, 6., 2004, São Paulo. Anais... São Paulo, 2004. p. 48-56. Disponível
em: <http://www.ingelec.uns.edu.ar/rts/papers/Economia_de_Energia.pdf>.
Acesso em: 1 nov. 2017.
VAN OPSTAL, D. Commentary on Gregory Tassey’s ‘‘Rationales and
mechanisms for revitalizing US manufacturing R&D strategies’’. The Journal
of Technology Transfer, v. 35, n. 3, p. 355-359, abr. 2010. Disponível em:
<https://link.springer.com/article/10.1007/s10961-010-9169-4>. Acesso em:
1 nov. 2017.
VIANNA, M.; VIANNA, Y.; ADLER, I.; LUCENA, B.; RUSSO, B. Design
Thinking: inovação em negócios. Porto Alegre: MJV Press, 2012.
WEISER, M. The computer for the 21st century. Mobile Computing and
Communications Review, v. 3, n. 3, p. 3-11, 1999. Disponível em: <https://
www.ics.uci.edu/~corps/phaseii/Weiser-Computer21stCentury-SciAm.pdf>.
Acesso em: 1 nov. 2017.
WORLD ECONOMIC FORUM. Technology Tipping Points and Social
Impact Report. 2015. Disponível em: <http://www3.weforum.org/docs/
WEF_GAC15_Technological_Tipping_Points_report_2015.pdf>. Acesso em:
17 out. 2017.
WORLD HEALTH ORGANIZATION. World Report on Disability.
[S.l.]: WHO, 2011. Disponível em: <http://www.who.int/disabilities/
world_report/2011/report.pdf>. Acesso em: 11 set. 2017.

–  189  –
Rodrigo Vinícius Sartori
O que há de tão especial nos tópicos selecionados nesta obra? Por certo, muita
coisa. A começar, por proporcionarem um olhar ao futuro do mundo, das novas TÓPICOS ESPECIAIS
tecnologias e, com destaque, da tecnologia da informação (TI). É uma forma
de preparar os profissionais ligados à ciência da computação e à análise e Rodrigo Vinícius Sartori
desenvolvimento de sistemas para o cenário desafiador – e, ao mesmo tempo,
magnífico – que o aguarda em suas carreiras, de hoje em diante.
Esta é uma obra feita com especial esmero, com a esperança de poder inspirar
suficientemente o leitor a buscar explorar o melhor da TI para sua vida pessoal
e profissional.

TÓPICOS ESPECIAIS
Tecnologia

Fundação Biblioteca Nacional


ISBN 978-85-387-6380-2

CAPA_Tópicos Especiais.indd 1 09/11/2017 17:13:04

Você também pode gostar