Você está na página 1de 18

Escolha como você se sente; Você tem sete opções

por RUBEN VAN DE VEN

“Semanas atrás, eu vi uma mulher mais velha chorando do lado de fora do meu escritório quando
eu estava entrando. Ela estava sozinha e eu fiquei preocupado, pensando que ela talvez
precisasse de ajuda. Eu estava receoso em perguntar, mas deixei meus medos de lado e caminhei
até ela. Ela gostou do meu gesto, mas disse que ficaria bem e que o marido estava indo encontrá-
la. Com a emoção ativada (por Realidade Aumentada), eu poderia ter tido muito mais detalhes
para me ajudar a lidar com a situação. Isso teria me ajudado a saber se eu deveria me aproximar
dela. Teria também como saber como ela realmente se sentiu durante a minha conversa com ela”.

É assim que a Forest Handford, um desenvolvedor de software, descreve o futuro ideal com uma
tecnologia surgida nos últimos anos. É conhecida como software de análise de emoções,
detecção de emoções, reconhecimento de emoções ou análise de emoções. Um dia, Hartford
espera, o software ajudará a entender os sentimentos genuínos, sinceros e não verbalizados do
outro (“como ela realmente sentiu”). A tecnologia nos guiará por uma paisagem de emoções,
como as tecnologias de navegação por satélite, como o GPS, nos guiam por caminhos
desconhecidos para nós: confiaremos cegamente na rota que é traçada para nós. Mas em um
mundo de emoções digitalizadas, o que significa sentir-se 63% surpreso e 54% alegre?

Imagens de demonstração da Emotion API do Microsoft Cognitive Services


Handford trabalha em um campo que surgiu na interseção da ciência da computação e da
psicologia. Construindo ferramentas para traduzir expressões faciais, que foram previamente
capturadas usando uma câmera, em parâmetros quantificados, permitindo, assim, comparações e
construindo estatísticas. Investimentos multimilionários são feitos para promover uma tecnologia
que, acredita-se, facilita novas formas de interação humana, fornecendo “feedback subconsciente
objetivo e em tempo real” sobre o que as pessoas “realmente estão sentindo”usando “a melhor
janela das pessoas para o cérebro”. Em certos campos acadêmicos, as expectativas aumentam:
em uma conversa que tive com Theo Gevers, professor de Visão Computacional e co-fundador
da SightCorp, ele apelidou um software de análise de emoção como o primeiro passo para uma
inteligência artificial com consciência da moralidade.

Affectiva, Emotient (agora adquirida pela Apple), Microsoft Cognitive Services, Real Eyes,
Eyeris EmoVu, Lightwave e SightCorp são algumas das empresas que desenvolvem e usam o
software, fazendo jus a essas altas expectativas.

Apesar da fé nas capacidades da tecnologia, existem algumas suposições fundamentais


subjacentes que prejudicam seu status como uma entidade objetiva. A seguir, vou discutir as
intenções e os propósitos dessas empresas de software, revelando um paradoxo no desejo de
medir e objetivar o estado mental ou psíquico de uma pessoa. Note que não são os métodos
tecnológicos (como algoritmos de aprendizado de máquina) em si que discutirei neste artigo. O
que eu quero focar aqui são as maneiras pelas quais esses métodos são empregados e
promovidos. No entanto, como mostrarei, a história do software de análise de emoção pode
servir como um estudo de caso para reivindicações que são comuns em uma narrativa sobre Big
Data de maneira mais ampla: que o uso de ferramentas de análise de quantidades massivas de
dados poderiam criar uma perspectiva objetiva da condição humana. Uma alegação que, como
acredito, é falha.

Medindo e-moções

O software de análise de emoções começou como uma tecnologia voltada para pessoas do
espectro autista, mas parece ter mudado para uma narrativa basicamente financeira:
“A percepção profunda das reações emocionais de forma pré-analítica e imparcial dos
consumidores em relação ao conteúdo digital é a maneira ideal de julgar a afetividade, a eficácia
e o potencial de viralização de seu conteúdo”. AFFECTIVA

“Emoções geram gastos” EMOTIENTE

"Quanto mais as pessoas sentem, mais elas gastam. A pesquisa estabeleceu consistentemente que
o conteúdo emocional é a chave para resultados de mídia e de negócios bem-sucedidos. As
"emoções" intangíveis se traduzem em um comportamento social concreto, tanto com o
reconhecimento da marca, quanto com lucro” REALEYES

Aparentemente, a luta pela atenção do consumidor é tão urgente e a importância das emoções é
tão aparente, que muitos produtos de análise emocional são enquadrados como ferramentas para
mapear objetivamente esses estados mentais “intangíveis”. Hoje em dia, o software está
disponível para todos os tipos de dispositivos, como laptops, telefones, carros, televisores e até
outdoors. A SightCorp, sediada em Amsterdã, por exemplo, introduziu outdoors no Aeroporto de
Schiphol que acompanham as respostas dos transeuntes, para que os anunciantes possam
"otimizar" seus anúncios para obter a máxima atenção das pessoas. A maioria das outras
empresas no campo oferece maneiras semelhantes de medir as respostas aos anúncios em vídeo.

Frequentemente, as empresas também fornecem acesso a seus algoritmos de análise de emoção


para outros desenvolvedores de software (por meio de uma Application Program Interface (API)
ou Software Development Kit (SDK), o que significa que outros aplicativos usando a tecnologia
estão surgindo rapidamente. Por exemplo, empresas como Clearwater e HireVue usam software
de análise de emoção para otimizar processos de contratação e recrutamento - reduzindo as
entrevistas de emprego que são relativamente caras. Outro exemplo pode ser encontrado em uma
entrevista com Rana El Kaliouby, fundadora da Affectiva. Ela descreve um projeto no qual a
empresa trabalharia com imagens ao vivo de câmeras de vigilância (CCTV). Sua tecnologia seria
adicionada a uma infra-estrutura de câmeras existente para medir o bem-estar emocional de
vários bairros. Outras empresas, como a Sightcorp, também sugerem o uso de software de
análise de emoção em sistemas de vigilância.
Algumas pessoas do mercado parecem estar cientes de um equilíbrio frágil entre a tentativa de
fazer o bem e permitir o desenvolvimento de uma Polícia do Pensamento Orwelliana. Por essa
razão, por exemplo, a SightCorp não assume contratos de orientação militar. No entanto, o
monitoramento não é realizado apenas por um Big Brother governamental: quando se considera
que muitas televisões "inteligentes" já enviam informações obtidas através do microfone interno
e da webcam para seus fabricantes, o passo para incluir dados de emoção parece pequeno. A
maioria das empresas que desenvolvem software de e-moção (e-motion) permite que este ideal
de uma vida e uma sociedade otimizadas para o bem-estar prevaleçam sobre seus medos:

"Acredito que, se tivermos informações sobre suas experiências


emocionais, poderemos ajudá-lo a ter um clima mais positivo e
influenciar seu bem-estar." RANA EL KALIOUBY, FUNDADOR DE
AFFECTIVA

De acordo com o mercado, medir o que torna as pessoas felizes ou tristes permitiria às pessoas
mudar seus modos de viver e de ser para um estilo ou humor mais "positivo". No entanto, para
uma Caring Little Sister, esse estilo de vida positivo não pode ser visto sem benefícios
comerciais, de modo que certos humores, ou mudança de estado emotivo, poderia ser de alguma
forma recompensada. Como El Kaliouby sugere: “A Kleenex pode enviar um cupom - não sei -
quando você superar um momento triste”.

Estou me sentindo confuzzled (confuso e desorientado / confused + puzzled)

Ao tentar entender essas afirmações, primeiro precisamos saber o que o software mede. Cada
empresa no campo fornece um tipo de software diferente, mas os conjuntos de recursos variam
pouco. Para teoricamente explicar uma análise objetiva de algo geralmente visto como tão
ambíguo, quase todas as implementações existentes são baseadas no mesmo modelo psicológico
de emoções. Ao detectar um rosto na imagem, o software traduz expressões faciais em sete
parâmetros numéricos, análogo às sete expressões de emoção reconhecidas culturalmente como
descrito por Paul Ekman: raiva, desprezo, repulsa, medo, alegria, tristeza e surpresa.
Os parâmetros de emoção descritos pela Affectiva

Ekman, um psicólogo que também é conhecido por sua participação na série de TV Lie to Me e
nomeado pela revista TIME como uma das 100 pessoas mais influentes do mundo, baseou seu
modelo em Darwin, que afirmou que expressões de emoção são culturalmente universais,
defendendo que elas estão fundamentadas em um processo evolutivo. Ele diferenciava as
emoções dos gestos culturais dependentes. No entanto, a escolha do modelo de sete emoções de
Ekman não é tão indiscutível quanto sua onipresença nas diversas ferramentas pode sugerir.

No discurso psicológico científico, não há consenso sobre se as emoções e expressões de emoção


são de fato incorporadas à natureza humana ou puramente culturalmente aprendidas. Geralmente,
no entanto, os psicólogos as vêem como sendo ambas: tais expressões têm uma base evolutiva,
mas são altamente influenciadas pela doutrina cultural. A partir dessa perspectiva, explica a
psicóloga Ursula Hess, as sete emoções básicas podem ser melhor comparadas com uma criança
desenhando um carro: todo mundo vai reconhecer o desenho como um carro, no entanto, em
nenhum lugar da vida real vai ser encontrado um carro parecido. É prototípico. Da mesma forma,
a maioria das pessoas categorizará as emoções prototípicas de Ekman da mesma maneira, mas
isso não significa que elas sejam executadas exatamente da mesma maneira em situações da vida
real. Expressões de emoção (mesmo sinceras!) são geralmente consideradas moldadas não
apenas por um único estado de espírito, mas por um rico contexto, incluindo a cultura, a
atividade que está sendo realizada, o estado de espírito em que se encontra a pessoa e a variação
física e de estilo pessoal.

A ambiguidade das expressões é frequentemente ignorada pelos desenvolvedores ao trabalhar


com a teoria de Ekman. Certa vez, eu estava em uma apresentação em que a palestrante mostrava
uma imagem de um rosto, pedindo ao público para adivinhar qual emoção estava sendo expressa.
A plateia tentou: 'Raiva!', 'Nojo!', 'Loucura!', 'Aborrecimento!'. Ao que a palestrante respondeu:
'não, isso é claramente repugnância'. Não permitindo que a multiplicidade de interpretações
questionasse a rígida interpretação dela da imagem.

Contudo, a alegação de universalidade intercultural do modelo de Ekman é atraente ao


implementar o software em escala global: empresas com grande reputação, incluindo Affectiva,
Microsoft e Apple (Emotient), todas elas baseiam seu software de reconhecimento de emoções
em uma teoria que geralmente é considerada inadequada para situações da vida real.

O efeito Kuleshov

Um exemplo da ambiguidade da expressão facial pode ser encontrado no Efeito Kuleshov: no


início do século 20, o cineasta Lev Kuleshov fez um experimento para o qual ele editou três
sequências de vídeo. Cada sequência mostrava a mesma face “neutra” de um homem, seguida
pela imagem de um homem morto, um prato de sopa ou uma mulher. Quando essas sequências
eram exibidas, o público “demonstrava entusiasmo com a atuação”, acreditando que o homem ao
"olhar" para o homem morto, para a sopa ou para a mulher, expressava respectivamente tristeza,
fome ou desejo.

Embora um algoritmo possa classificar a face imóvel na experiência de Kuleshov de maneira


aparentemente correta como "neutra", quando consideramos o contexto em que o homem deveria
estar inserido - se ele está olhando para um prato de comida ou para uma menina em um caixão -
poderíamos argumentar que essa classificação é tão imprecisa quanto quando um humano
projetava um sentimento o contextualizando na expressão do homem do experimento.
Captura de tela do efeito Kuleshov sendo analisado pelo Microsoft Cognitive Services

O experimento de edição de Kuleshov demonstra que os humanos interpretam expressões faciais


com base no contexto. Isso torna a premissa do software de análise de emoção - uma ferramenta
que analisa as emoções de uma pessoa baseada exclusivamente em expressões faciais -
questionável.

Além disso, o contexto em que as emoções são expressas não afeta apenas como elas são lidas; o
contexto também influencia a forma como as pessoas expressam seus sentimentos. Como é
enfatizado por Paul Ekman, que registrou pessoas americanas e japonesas assistindo a filmes que
retratam cirurgias faciais. Ao assistir sozinho, os participantes de ambos os grupos mostraram
respostas semelhantes. No entanto, ao assistir o filme em grupos, as expressões se diferenciavam.
Ao contrário dos pressupostos das atuais implementações da análise de emoções, essa pressão
social também está presente quando alguém está sozinho atrás de um computador, por exemplo,
assistindo a um vídeo. Como mostram Byron Reeves e Clifford Nass, apesar de os computadores
não serem objetos sociais e de não termos motivos para esconder nossas emoções ao usá-los,
nossas “interações com computadores, televisão e novas mídias são fundamentalmente sociais e
naturais, assim como as interações na vida real”.

Outro exemplo: considere um músico tocando, ele está imerso em seu próprio mundo musical.
Quando alguém julga seu estado mental apenas pelo seu rosto, pode-se pensar que ele está num
estado de tristeza ou nojo. No entanto, o público, estimulado pela música, “sabe” que ele deve
(também) estar se sentindo bem. Assim como no experimento de Kuleshov, muitas vezes é essa
projeção de uma experiência subjetiva em outra pessoa que permite ler o rosto do outro. Como
um computador pode projetar emoções? Mesmo quando, em certa medida, levasse em
consideração o contexto, poderia haver várias “opções” para o que a pessoa estaria sentindo.
Nem todo mundo gosta da mesma música, muitos podem sentir que o músico é excessivamente
dramático.

Esses exemplos de interpretações incorretas podem parecer uma crítica fácil à tecnologia. Alguns
podem sugerir que essas são questões que podem e serão abordadas em versões futuras do
software, por exemplo, fazendo o software sintonizar automaticamente para um indivíduo
específico ou levando em consideração alguns parâmetros contextuais. Eu diria, no entanto, que
esses erros são fundamentais para o procedimento e, portanto, não podem ser resolvidos com
cálculos mais elaborados. O que é central é a conceituação da emoção.

Emoção como informação

A tentativa de informatizar o reconhecimento das emoções pode ser rastreada até o MIT Media
Lab, onde Rosalind Picard trabalhou com Rana El Kaliouby em um grupo de pesquisa sobre
Computação Afetiva: um campo de pesquisa que abrange “a computação e que se relaciona,
surge de ou deliberadamente influencia a emoção ou outros fenômenos afetivos”.
Com a computação afetiva, as emoções são digitalizadas: elas são consideradas informações.
Assim, as emoções são tratadas analogamente à teoria da informação de Claude Shannon: há um
emissor expressando uma emoção e um receptor interpretando o sinal vindo de um meio
barulhento. Nessa analogia, o sucesso do sistema só pode ser determinado pela identificação de
uma emoção correta, discreta, tanto no remetente quanto no receptor.

No entanto, sugerir que um sistema tem a capacidade de determinar sentimentos interiores a


partir da superfície, desfaz a distinção entre um sistema que descreve o comportamento - a
expressão facial - e um que descreveria o estado mental interno de uma pessoa. Isto borra a
diferença entre a representação mensurável (a expressão facial) com a coisa subjacente (a
sensação).

Douglas Hofstadter, professor de ciência cognitiva, ilustra essa questão em Gödel, Escher e Bach
quando ele discute como um computador entenderia o choro de uma garotinha: “... mesmo que
(um programa) ‘entenda’em algum sentido intelectual o que foi dito, nunca entenderá realmente,
até que ele próprio (computador) também tenha chorado e chorado. E quando um computador
fará isso?”. Não é verdade que, apesar do software de reconhecimento de emoções ser
promovido como sendo capaz de “entender” emoções, ele nunca será capaz de fazer isso de uma
maneira que os humanos fazem? Só pode medir e simular padrões comportamentais. Este
“entendimento” existe apenas na mente do usuário (humano) do software.

De acordo com Kirsten Boehner, pesquisadora da Universidade de Cornell, a proeminência na


Computação Afetiva de uma abordagem individualmente experimentada e mensurável da
emoção é explicada por um ideal de ciência "masculino e fisicamente fundamentado":

"Durante o processo de tornar-se "estudável", a definição de emoção foi alterada


para se adequar a uma concepção particular do que a ciência deveria ser:
racional, bem definida e culturalmente universal. (...) a emoção não é
considerada como biológica, mensurável e objetivamente presente porque os
cientistas descobriram que ela existe no mundo dessa maneira, mas porque os
cientistas do século XIX não poderiam imaginá-la cientificamente de outra
maneira”.
Embora a emoção seja tradicionalmente considerada oposta à cognição racional, ela foi
redefinida para se adequar como objeto de estudo a uma abordagem cognitiva e científica. Nesse
processo, os aspectos das emoções que não estão claramente delineados foram deixados de fora
da discussão. A computação afetiva - e com ela o reconhecimento digital de emoções - segue um
caminho semelhante: embora a digitalização das emoções seja frequentemente apresentada como
uma abordagem mais humanista das ciências da computação, segundo Boehner, ela "reproduz os
fundamentos conceituais que pretende radicalizar”.

Alguns podem sugerir que o emprego de outros algoritmos pode contornar esse problema: o
computador não deve ser instruído a detectar sete classes predefinidas, mas deve agrupar
expressões semelhantes com base nos dados coletados - em termos técnicos: algoritmos não
supervisionados deveriam ser utilizados ao invés de supervisionados (nota: seria um processo de
reconhecimento de padrões de emoções vindo da incidência nos próprios dados, sem os
parâmetros pré-estabelecidos, como os sete tipos de Ekman, por exemplo).

Tal algoritmo valorizaria as interações humanas de uma forma que não é apenas sem
precedentes, mas provavelmente também incompreensível para os seres humanos. podendo até
dar origem a padrões que os humanos atualmente desconhecem. No entanto, para que as
medições possam ser usadas pelos humanos, as medições precisam ser traduzidas para a
linguagem humana. Mais uma vez, chega-se ao ponto de interpretação por um agente humano,
que inevitavelmente o contamina com experiências e percepções pessoais. Portanto, mesmo em
um processo algorítmico, não se pode ignorar que os avaliadores e usuários humanos do software
desempenham um papel na criação das emoções que estão estudando.

Detecção da histeria

Eu gostaria de problematizar essa abordagem fisicamente fundamentada da emoção, que


acompanha o avaliador humano, traçando um paralelo histórico. Emoção, como formalmente
definido pela American Psychological Association e usado na Computação Afetiva, é um
conceito amplo e aparentemente abrangente, que inclui o inconsciente e o consciente, respostas
corporais internas e expressões faciais:

“(Emoção) Um padrão complexo de mudanças, incluindo excitação


fisiológica, sentimentos, processos cognitivos e reações
comportamentais, resultado de resposta a uma situação percebida como
pessoalmente significativa”.

É uma definição que parece derivar do uso cotidiano da palavra e que é amplamente aplicada
pelos psicólogos em seu trabalho cotidiano. No entanto, ao tentar quantificar esse conceito, esta
definição amplamente abrangente pode encontrar seus limites e perigos.

Fotografias da Iconographie photographique de la Salpêtrière de Paul Régnard, volume III (1880)

Em seu livro A invenção da histeria, George Didi-Huberman explica como a pesquisa sobre a
histeria se tornou um discurso formalizado. Quando, no século XIX, Jean-Martin Charcot
começou a estudar empiricamente a histeria, ela sempre foi vista como um transtorno mental
feminino. Apesar das intermináveis observações dos pacientes, nenhuma causa identificável para
a doença foi encontrada. Contudo, em vez de reconsiderar a própria doença, a definição formal
de histeria tornou-se ampla e abrangente. Havia classificações, mas eram mais ou menos
classificações do desconhecido. A fim de fundamentar essas classificações, Charcot e seus
colegas médicos precisaram de um grande conjunto de dados para trabalhar e as descrições
exaustivas dos “estados do corpo” se tornaram a norma. Os corpos dos pacientes não eram mais
apresentações de um indivíduo, mas sim representações de uma doença.

A fotografia, uma invenção nova na época, era vista como a resposta ao desejo de registrar de
maneira objetiva os sintomas da doença. Aparentemente apenas fundamentando a pesquisa sendo
feita, a imensa documentação em texto e imagens não era, entretanto, neutra: os observadores
procuravam por anomalias específicas, e ao priorizar o desvio, eles efetivamente recompensavam
e encorajavam tal comportamento em seus pacientes. Hoje em dia, a histeria não é mais
considerada uma doença mental distinguível e o aspecto feminino dela é meramente considerado
machista. Em retrospecto, Didi-Huberman chama a histeria de “neurose de um imenso aparato
discursivo”. Uma neurose que exigia infinitas descrições de pacientes e procedimentos rigorosos
para justificar os tratamentos dos pacientes. A administração maciça, concentrada em capturar a
histeria, nublou efetivamente a doença. Como Didi-Huberman assinala, o “ideal da descrição
exaustiva” da histeria deve ter surgido da esperança de que a visão poderia ser uma previsão.

Da mesma forma, os muitos - às vezes sobrepostos, por vezes contraditórios - relatos do que
“emoção” implica, demonstram a ambiguidade do termo. Qualquer definição do termo parece
estar sob forte influência da indefinição de seu uso informal. Essas definições podem funcionar
para os psicólogos em suas interações do dia a dia com os pacientes. Ao tentar quantificá-la, no
entanto, com esta definição tão ampla e vaga - encapsulando como nos sentimos, olhamos e
soamos - a “emoção” parece ser um conceito suscetível a uma “neurose” também. Ao apresentar
o software de análise de emoções como uma tecnologia claramente definida, que é capaz de
medições “precisas”, um empreendimento conjunto de psicologia, ciências da computação e
marketing trata apenas superficialmente sobre as ambiguidades que envolvem o conceito
de“emoção”.

Não é um grande esforço comparar os imensos dados coletados por empresas como a Affectiva,
que afirma ter indexado quase 4 milhões de rostos, aos dados reunidos no século XIX. Em ambos
os casos, uma nova tecnologia, supostamente objetiva, foi usada para validar o procedimento de
classificação. Em ambos os casos, com procedimentos rigorosos de previsão, ver supostamente
torna-se prever.
A chave aqui não é apenas que o procedimento de classificação em si é falho; a principal
preocupação é que as definições que delineiam a tecnologia são falhas. Como parece não haver
uma definição evidente de “emoção”, como alguém pode saber o que está sendo medido por
ferramentas de análise de emoções? Como no caso da histeria, é apenas a conotação de
“emoção” na linguagem cotidiana que dá a ilusão de saber o que está sendo quantificado.

Registrando estereótipos

Diante do marketing contemporâneo, não é surpresa que em seus sites empresas como Microsoft
e Affectiva passem por essas discussões e apresentem seu software como uma resposta
definitiva. Mas se de fato as emoções não são experiências concretas e delineadas, como esses
produtos de software, que usam uma linguagem tão superficial de sete parâmetros, podem ser
comercializados com tanto sucesso? Eu sugeriria que é precisamente essa linguagem superficial
que beneficia o marketing do software de análise de emoções.

Para mostrar seu software, as empresas apresentam fotografias de expressões faciais fortes, como
as do início deste artigo, para demonstrar classificações bem-sucedidas de emoções. Como
(quase) todos irão reconhecer a ligação entre a expressão facial prototípica e a terminologia da
emoção, eles assumem que a medição é precisa. No entanto, uma vez que reconhecemos essas
imagens como fotografias de estoque, perceberemos que as pessoas nessas imagens representam
um sentimento específico. É o sentimento que eles apresentam que é captado pelo software, não
o sentimento que eles poderiam ter no momento em que a foto foi tirada!

Além disso, em seu marketing, os algoritmos de detecção de emoção estão ligados a conceitos
populares, ainda que vagamente definidos, como a inteligência artificial, que deliberadamente
ofusca e mistifica a tecnologia. Isso parece servir apenas um objetivo: o espetáculo. Como Guy
Debord descreve, no espetáculo não se trata de "ser", mas de "aparecer" - há uma separação entre
realidade e imagem. No espetáculo, aquilo que é fluido está sendo apresentado como algo rígido,
como algo delineado, como vimos acontecer no caso da histeria. Da mesma forma, é o
espetáculo que obscurece como os sentimentos das pessoas não são abordados ou medidos pelo
software.
Por sua vez, é exatamente a suposta rigidez de conceitos que normaliza, valida, o próprio
espetáculo! Através do processo de mostrar a funcionalidade do software em um conjunto
limitado de imagens estereotipadas (ou seja, imagens de pessoas sorridentes), as associações
específicas com as sete emoções prototípicas são reforçadas. No final, essas imagens apenas
apóiam a afirmação de que conceitos como "raiva" e "felicidade" são claramente delineados e,
portanto, fenômenos mensuráveis.

Em outras palavras, a promoção da tecnologia de análise de emoções normaliza conceitos como


"raiva", "tristeza" e "desprezo". Através desse processo de normalização, a posição do software
como uma ferramenta que é capaz de medir esses conceitos é reforçada. Em vez de dar novos
insights sobre como os seres humanos interagem, esses sistemas reforçam uma pré-concepção
existente do que são as emoções. Por essa razão, a tecnologia fornece uma diretriz para os
humanos se expressarem.

A relevância dessa normalização se torna aparente quando voltamos às aplicações do software de


reconhecimento de emoções. Parece que a narrativa de bem-estar e desempenho do software se
alinha à visão do que é conhecido como movimento Quantified Self: um termo cunhado por dois
editores da revista Wired, ao defender o uso de tecnologia para medir o comportamento de um
indivíduo a fim de maximizar seu 'desempenho' e 'bem-estar' de maneira estatística. Milhares de
aplicativos e gadgets são criados (e vendidos) para ajudar nessa constante auto-otimização. A
lista inclui ferramentas para análise do padrão de sono, contagem de passos e rastreamento do
consumo de alimentos. E agora: análise de emoção.

No processo de auto-otimização, as pessoas se envolvem em um relacionamento interativo com a


medição de seus dados pessoais. Essa relação é frequentemente planejada para ser lúdica, mas
pode, nas palavras da pesquisadora finlandesa Minna Ruckenstein, “mudar profundamente as
maneiras pelas quais as pessoas refletem sobre si mesmas, sobre os outros e sobre suas vidas
diárias”. Ela fez um experimento no qual as pessoas mantiveram o controle de sua frequência
cardíaca, que é comumente relacionada aos níveis de estresse. Os sujeitos puderam ver seus
dados em intervalos regulares. Em vez de apenas considerar os dados como indícios, as pessoas
começaram a “conversar” com eles. Eles mudaram sua opinião sobre o dia com base nos dados,
ou começaram a duvidar dos dados por causa de sua experiência do dia.

Quando vistas à luz da análise da emoção, essas extensas (auto)avaliações concebem emoções
como análogas a performance: como também vimos no exemplo do cupom de Kleenex, na
constante busca pelo bem-estar, a produção de emoção se torna uma meta. O que é analisado não
é a emoção em si, mas a eficácia com que as emoções podem ser induzidas e controladas.

Examinar o software de análise de emoções a partir desta perspectiva traz à luz um paradoxo.
Um dos objetivos centrais da tecnologia da emoção é medir uma resposta “sincera” e
“imparcial”; no entanto, como isso ainda será possível, considerando que a análise da emoção
efetivamente influencia o comportamento? Por exemplo, em debates recentes entre Hillary
Clinton e Donald Trump, candidatos presidenciais nos Estados Unidos, o software era usado para
“determinar a inteligência emocional e o sentimento” dos candidatos, pois isso deveria fornecer
um “raro vislumbre do que eles revelavam além de suas frustrações e trivialidades políticas”. - o
que quer que isso signifique. Por enquanto, isso ainda pode ser um dispositivo incidental para
fazer uma comparação quantificada, “exata”, entre os candidatos. No entanto, isso pode mudar a
maneira como muitas figuras públicas operam: houve pesquisas que correlacionam as expressões
faciais dos CEOs com o valor de mercado de suas empresas. Uma correlação positiva foi
encontrada entre as expressões medidas de medo, raiva e repulsa e o valor de mercado da
empresa. Sabendo dessas medidas, não é tão difícil imaginar que os CEOs e outras figuras
públicas treinem seu comportamento para refletir uma situação (mais) positiva.

E isto não está muito longe. A HireVue é uma empresa que usa o software de análise de emoções
da Affectiva junto com outras técnicas analíticas para avaliar os candidatos a emprego. Ao
mesmo tempo, eles usam sua tecnologia para treinar as pessoas a se apresentarem quando estão
sendo analisadas por esse software. Portanto, o software é empregado para analisar as pessoas,
ao mesmo tempo em que as pessoas são treinadas para performar de acordo com os parâmetros
do mesmo software! Como no caso da histeria, um procedimento que se propõe a tornar o Outro
mais transparente, alcança o oposto: as práticas de análise de emoções tornam o rosto uma
fachada ainda mais treinada.
Alienando a sinceridade

Certamente, a premissa da análise de emoções faciais tem aspectos promissores - um pouco mais
de empatia no mundo não seria ruim. No entanto, ao examinarmos o discurso em torno dessas
tecnologias, podemos concluir que os modelos fundamentais a essa tecnologia são especulativos
e colocam em questão a validade de todo o procedimento.

O atual debate científico concentra-se principalmente na otimização do desempenho da


tecnologia, enquanto o discurso público é alimentado por aplicativos de marketing e sonhos de
interação sem ruídos, tanto entre humanos quanto entre humanos e computadores. A pesquisa
inicial sobre o autismo parece quase completamente negligenciada em favor de aplicações na
propaganda e no marketing. Não só porque é um mercado comercialmente mais atraente, mas
também um campo que requer menos comprovação científica.

Não está claro o que exatamente conceitos como "emoção", "raiva", "desprezo", "repugnância",
"medo", "alegria", "tristeza" e "surpresa" acarretam. O que está sendo medido permanece incerto.
O que esses parâmetros grosseiros dizem sobre os sujeitos das análises, sobre eles como seres
humanos? O input humano subjetivo, a terminologia ambígua e o uso altamente seletivo da
teoria psicológica são encobertos por camadas de extensa coleta, administração e otimização de
dados; posicionando o software de análise de emoção como uma ferramenta de medição válida e
objetiva. A pergunta que fiz no início foi: o que significa sentir-se 63% surpreso e 54% alegre?

Os números, em vez de mostrar a intensidade de uma emoção, refletem a semelhança estatística


com uma expressão prototípica, que agora é estabelecida como uma maneira desejada de mostrar
um certo sentimento - verdadeiro ou fingido. Ao aplicar o software como uma ferramenta de
treinamento, essas expressões faciais são mais apresentações ou representações do que a
realidade: elas se tornam mediações deliberadas em vez de expressões. Por causa disso, eu
argumentaria, de acordo com Guy Debord, que esses procedimentos, a longo prazo, poderiam
afastar os sujeitos de si mesmos, em vez de melhorar seu bem-estar.
A anedota de Handford com a qual eu comecei este texto, ilustra como a constante busca da
sociedade para melhorar o desempenho pessoal levou ao desejo de uma tecnologia que afirma
medir e, assim, controlar algo que é tão difícil de entender. Paradoxalmente, a tecnologia de
análise de emoções apela tanto para o desejo de sinceridade em uma sociedade mediada quanto
para um desejo de apresentar (para comercializar) algo ou alguém como sincero. Assumindo que
o desejo de sinceridade em uma sociedade mediada se origina de um sentimento de alienação e
incerteza, revela a ironia da situação; a "solução" fornecida apenas aliena ainda mais o sujeito.

O que é problemático não é tanto a tentativa de capturar padrões nas expressões humanas per se,
ou no comportamento humano em geral; o que é problemático são as palavras usadas para
descrever e justificar esse procedimento. O foco no desempenho algorítmico e na precisão
estatística ofusca o fato de que fazer suposições é inevitável ao quantificar conceitos
humanísticos tão amplos. Ao considerar o que Didi-Huberman escreve sobre a histeria, é fácil
traçar paralelos e ver como uma narrativa é construída de modo a inventar e alimentar-se de si
mesma. A justaposição do software de análise de emoções com o caso histórico da histeria torna
aparente os riscos que carrega a transformação de conceitos humanistas tão amplos em uma
estrutura positivista.

Essa transformação de conceitos ocorre com mais frequência nas práticas de Big Data, seja na
análise de emoções, na mineração de texto ou no automonitoramento. No entanto, devido à
natureza da programação, que se orienta para a solução de problemas, essa transformação nem
sempre acontece com muito cuidado com a ambiguidade dos conceitos originais. Por exemplo, a
IBM possui uma linha de produtos com vários algoritmos chamados Watson; recentemente, eles
adicionaram um novo algoritmo que classifica textos sobre alegria, medo, tristeza, desgosto e
raiva. A partir do desejo de construir software que funcione em escala global, uma lista de
emoções derivadas de uma teoria (já problemática) de expressões faciais universais é aplicada
para analisar o texto.

Existem planos para aplicar análise de emoção automatizada a imagens de câmeras de vigilância;
a tecnologia já é usada (sem o consentimento das pessoas) em grande escala através de outdoors,
por exemplo. Alguns podem encontrar conforto no fato de que o mercado tende a antecipar como
fato o que propaga e faz alegações que são factualmente insustentáveis. Seria muito mais
orwelliano se a análise de emoções realmente produzisse resultados coerentes. No entanto,
devemos tomar cuidado para que essa tecnologia e seus resultados não sejam tratados como se
efetivamente produzissem resultados eficazes.

A conclusão mais importante é que esses algoritmos complexos, que muitas vezes são vistos
como "caixas-pretas" obscuras, podem ser consultados sem entrar nos detalhes técnicos de seus
procedimentos. Devemos romper constantemente a fachada de sua suposta objetividade e
questionar esta narrativa do "bem-estar", discutindo as suposições fundamentais de cada
tecnologia. Dessa forma, podemos encorajar uma posição crítica contra o domínio de uma
simplificada e positivista visão de mundo.

Você também pode gostar