Com o avanço da análise de dados, é provável que os aplicativos consigam ler sinais
gestuais ou analisar sentenças e tom de voz de uma pessoa, usando câmera e microfone,
para compreender o comportamento de usuários melhor do que eles mesmos
compreendem. Quais seriam as implicações éticas desse tipo de tecnologia?
Em 1936, Dale Carnegie lançou um livro chamado Como fazer amigos e influenciar
pessoas, que se tornou um dos mais vendidos e mais influentes de todos os tempos,
sendo o grande responsável pelo estabelecimento do gênero conhecido como "auto-
ajuda". No livro, Carnegie enumera uma série de dicas para ser melhor sucedido nas
interações. Mais recentemente, o livro recebeu uma atualização para o contexto da era
digital, mostrando que ele permanece relevante nas interações via internet.
Essas técnicas podem realmente ajudar a lidar com pessoas, mas também podem dar
ferramentas perigosas nas mãos de pessoas com traços sociopatas. Num artigo de 2013,
Diane Brady lembra que Jeff Guinn, autor de um livro sobre Charles Manson, afirmou
que "foi o treinamento de Carnegie que auxiliou a transformação de Manson de 'um
cafetão de baixo nível' para um 'sociopata assustadoramente eficaz', que criou um culto
de assassinos no final dos anos 1960". Quando tais técnicas estão facilmente disponíveis
para serem usadas por qualquer pessoas e para qualquer fim, problemas irão surgir.
Outro problema diz respeito à nossa relação com inteligências artificiais. O problema de
convivermos com simulações pode ser observado no efeito de "dating sims"
(simuladores de encontros) na sociabilidade. Estes softwares oferecem interações
simuladas para pessoas que podem nunca ter experimentado interações daquele tipo na
vida real, o que pode moldar suas disposições afetivas na vida real.
No artigo Should Children Form Emotional Bonds With Robots? (Crianças deveriam
formar laços afetivos com robôs?), Alexis Madrigal cita Sherry Turkle para criticar essa
mediação tecnológica logo na infância, afirmando que crianças precisam de conexões
com pessoas reais para amadurecer emocionalmente. “Empatia simulada não é
suficiente. Se os relacionamentos com brinquedos inteligentes nos afastam daqueles
com amigos ou familiares, mesmo parcialmente, poderemos ver crianças crescendo sem
as condições necessárias para uma conexão empática. Você não pode aprender isso com
uma máquina”.
Mas será que nossa sociedade providencia um ambiente onde as relações com pessoas
reais podem acontecer sem serem mediadas por tecnologias? Será que as condições para
o amadurecimento emocional estão igualmente disponíveis para todas as pessoas? Será
que adultos são emocionalmente maduros o suficiente para lidar com as novas
tecnologias da informação?
No artigo Not every kid-bond matures (Nem todo vínculo infantil amadurece), Gabriel
Winant, resenhando o livro Kids These Days: Human Capital and the Making of
Millennials (Crianças nos dias de hoje: capital humano e a geração dos millennials), de
Malcolm Harris, argumenta:
“A crise generalizada do capitalismo (...) impôs uma enorme pressão competitiva aos
jovens para produzir 'capital humano'. Esse conceito, essencial no pensamento
econômico neoliberal, quantifica o conjunto de qualidades humanas economicamente
valiosas, educação, habilidades, disciplina, acumuladas ao longo de uma vida. Está no
subtítulo do livro porque é a chave do argumento de Harris. A mão oculta que molda
millennials, produzindo nossos atributos estereotipados aparentemente diversos e até
contraditórios, é o imperativo de intensificação, tanto exterior como também
profundamente internalizado, da maximização do nosso próprio valor econômico
potencial. (...) O capitalismo está comendo nossos jovens. É só nos alimenta com
abacates para nos engordar primeiro.”
É possível deduzir uma relação entre a mediação tecnológica da interação e o conceito
de capital humano? Isso exigiria mais pesquisa, porém permita-me adicionar mais um
ingrediente nesta sopa e problematizar um pouco mais.
Num artigo de 2018, chamado How the Self-Driving Dream Might Become a
Nightmare (Como o sonho da auto-direção pode se tornar um pesadelo), David Alpert
pergunta: "O que acontecerá se aceitarmos que um certo número de mortes de pedestres
é uma parte inevitável da adoção de veículos autônomos?". Este problema ético não é
tão simples quanto parece. Não basta, por exemplo, dizer que os pilotos automáticos são
mais seguros que os motoristas humanos, porque há outros fatores nessa questão. Por
exemplo: quem será responsabilizado por esses acidentes? A reflexão foi estimulada
pela notícia da primeira morte num acidente com veículo auto-dirigido. A conclusão do
autor é que, provavelmente, os próprios pedestres podem ser responsabilizados.
Alpert oferece o seguinte experimento mental: imagine que duas empresas concorrentes
ofereçam o mesmo serviço de transporte com veículos autônomos. Uma delas tem um
algoritmo um pouco mais cuidadoso para evitar acidentes, e a outra tem um algoritmo
mais "ousado", que resulta em tempos de viagens significativamente menores. Uma
pessoa atrasada para uma reunião importante escolhe o serviço que oferece mais
rapidez, e no caminho uma pessoa é atropelada. Qual a responsabilidade da pessoa que,
sinceramente, só queria chegar mais rápido ao seu compromisso?
A afirmação de que certa tecnologia "já está aqui" e não pode ser resistida implica num
posicionamento ético que dá um valor intrínseco ao desenvolvimento tecnológico. É
uma atitude determinista afirmar que algo será feito independente das nossas
considerações éticas. É também um tipo de otimismo injustificado, que pressupõe que
nenhum problema ainda desconhecido se colocará no caminho desse desenvolvimento,
como de fato ocorreu em diversos momentos da história, em que se construiu uma
imagem de futuro que na verdade não se realizou.
Anderson reduz as questões éticas relacionadas à essa tecnologia dizendo: "As pessoas
morrerão à medida que desenvolvemos as capacidades de veículos autônomos - assim
como as pessoas morreram durante o desenvolvimento de aeronaves, viagens espaciais
ou submarinas. As grandes inovações sempre têm um custo humano, mas a tecnologia
sem motorista deve resultar em uma redução significativa das mortes anuais de
automóveis".
O que acontece quando assumimos a validade dessa justificação? Pessoas irão morrer,
mas essas mortes são apenas o "custo humano" de todas as tecnologias. Cientistas tem o
direito de sacrificar vidas em nome do progresso científico? Se há uma linha que separa
a ética da ciência da realidade do avanço científico, como traçá-la?
O problema é que, assumir que tal programação seria eticamente válida é um equívoco.
Como Brianna Rennix e Nathan J. Robinson argumentam em The Trolley Problem Will
Tell You Nothing Useful About Morality (O problema do bonde não lhe dirá nada útil
sobre a moralidade), reduzir a ética a esse experimento mental não apenas é equivocado
em termos filosóficos, como pode ser prejudicial à saúde mental, reduzindo nossa
capacidade empática.
O mesmo tipo de problema ético vem à tona quando se considera o estudo dos
algoritmos e técnicas de mineração de dados para maximização da influência em redes
sociais. O que acontece quando descobrimos as técnicas mais eficazes de "incentivar
pessoas a adotar uma linha de pensamento"? Na prática isso significa manipulação. A
ideia de que precisamos "manipular ou ser manipulados" pode estar se popularizando na
internet, com efeitos desastrosos para a ética.
Eu não vou tentar solucionar este problema aqui. Mas as implicações éticas complexas
das novas tecnologias são um dos motivos que devem nos levar a questionar a lógica
inerente ao progresso tecnológico de modo ainda mais fundamental do que temos feito
até agora. A radicalização das críticas à modernidade pode transformar a filosofia num
incômodo para entusiastas do progresso científico, mas pode também evitar a perda de
aspectos fundamentais da nossa humanidade.