Escolar Documentos
Profissional Documentos
Cultura Documentos
“Semanas atrás, eu vi uma mulher mais velha chorando do lado de fora do meu escritório quando
eu estava entrando. Ela estava sozinha e eu fiquei preocupado, pensando que ela talvez
precisasse de ajuda. Eu estava receoso em perguntar, mas deixei meus medos de lado e caminhei
até ela. Ela gostou do meu gesto, mas disse que ficaria bem e que o marido estava indo encontrá-
la. Com a emoção ativada (por Realidade Aumentada), eu poderia ter tido muito mais detalhes
para me ajudar a lidar com a situação. Isso teria me ajudado a saber se eu deveria me aproximar
dela. Teria também como saber como ela realmente se sentiu durante a minha conversa com ela”.
É assim que a Forest Handford, um desenvolvedor de software, descreve o futuro ideal com uma
tecnologia surgida nos últimos anos. É conhecida como software de análise de emoções,
detecção de emoções, reconhecimento de emoções ou análise de emoções. Um dia, Hartford
espera, o software ajudará a entender os sentimentos genuínos, sinceros e não verbalizados do
outro (“como ela realmente sentiu”). A tecnologia nos guiará por uma paisagem de emoções,
como as tecnologias de navegação por satélite, como o GPS, nos guiam por caminhos
desconhecidos para nós: confiaremos cegamente na rota que é traçada para nós. Mas em um
mundo de emoções digitalizadas, o que significa sentir-se 63% surpreso e 54% alegre?
Affectiva, Emotient (agora adquirida pela Apple), Microsoft Cognitive Services, Real Eyes,
Eyeris EmoVu, Lightwave e SightCorp são algumas das empresas que desenvolvem e usam o
software, fazendo jus a essas altas expectativas.
Medindo e-moções
O software de análise de emoções começou como uma tecnologia voltada para pessoas do
espectro autista, mas parece ter mudado para uma narrativa basicamente financeira:
“A percepção profunda das reações emocionais de forma pré-analítica e imparcial dos
consumidores em relação ao conteúdo digital é a maneira ideal de julgar a afetividade, a eficácia
e o potencial de viralização de seu conteúdo”. AFFECTIVA
"Quanto mais as pessoas sentem, mais elas gastam. A pesquisa estabeleceu consistentemente que
o conteúdo emocional é a chave para resultados de mídia e de negócios bem-sucedidos. As
"emoções" intangíveis se traduzem em um comportamento social concreto, tanto com o
reconhecimento da marca, quanto com lucro” REALEYES
Aparentemente, a luta pela atenção do consumidor é tão urgente e a importância das emoções é
tão aparente, que muitos produtos de análise emocional são enquadrados como ferramentas para
mapear objetivamente esses estados mentais “intangíveis”. Hoje em dia, o software está
disponível para todos os tipos de dispositivos, como laptops, telefones, carros, televisores e até
outdoors. A SightCorp, sediada em Amsterdã, por exemplo, introduziu outdoors no Aeroporto de
Schiphol que acompanham as respostas dos transeuntes, para que os anunciantes possam
"otimizar" seus anúncios para obter a máxima atenção das pessoas. A maioria das outras
empresas no campo oferece maneiras semelhantes de medir as respostas aos anúncios em vídeo.
De acordo com o mercado, medir o que torna as pessoas felizes ou tristes permitiria às pessoas
mudar seus modos de viver e de ser para um estilo ou humor mais "positivo". No entanto, para
uma Caring Little Sister, esse estilo de vida positivo não pode ser visto sem benefícios
comerciais, de modo que certos humores, ou mudança de estado emotivo, poderia ser de alguma
forma recompensada. Como El Kaliouby sugere: “A Kleenex pode enviar um cupom - não sei -
quando você superar um momento triste”.
Ao tentar entender essas afirmações, primeiro precisamos saber o que o software mede. Cada
empresa no campo fornece um tipo de software diferente, mas os conjuntos de recursos variam
pouco. Para teoricamente explicar uma análise objetiva de algo geralmente visto como tão
ambíguo, quase todas as implementações existentes são baseadas no mesmo modelo psicológico
de emoções. Ao detectar um rosto na imagem, o software traduz expressões faciais em sete
parâmetros numéricos, análogo às sete expressões de emoção reconhecidas culturalmente como
descrito por Paul Ekman: raiva, desprezo, repulsa, medo, alegria, tristeza e surpresa.
Os parâmetros de emoção descritos pela Affectiva
Ekman, um psicólogo que também é conhecido por sua participação na série de TV Lie to Me e
nomeado pela revista TIME como uma das 100 pessoas mais influentes do mundo, baseou seu
modelo em Darwin, que afirmou que expressões de emoção são culturalmente universais,
defendendo que elas estão fundamentadas em um processo evolutivo. Ele diferenciava as
emoções dos gestos culturais dependentes. No entanto, a escolha do modelo de sete emoções de
Ekman não é tão indiscutível quanto sua onipresença nas diversas ferramentas pode sugerir.
O efeito Kuleshov
Além disso, o contexto em que as emoções são expressas não afeta apenas como elas são lidas; o
contexto também influencia a forma como as pessoas expressam seus sentimentos. Como é
enfatizado por Paul Ekman, que registrou pessoas americanas e japonesas assistindo a filmes que
retratam cirurgias faciais. Ao assistir sozinho, os participantes de ambos os grupos mostraram
respostas semelhantes. No entanto, ao assistir o filme em grupos, as expressões se diferenciavam.
Ao contrário dos pressupostos das atuais implementações da análise de emoções, essa pressão
social também está presente quando alguém está sozinho atrás de um computador, por exemplo,
assistindo a um vídeo. Como mostram Byron Reeves e Clifford Nass, apesar de os computadores
não serem objetos sociais e de não termos motivos para esconder nossas emoções ao usá-los,
nossas “interações com computadores, televisão e novas mídias são fundamentalmente sociais e
naturais, assim como as interações na vida real”.
Outro exemplo: considere um músico tocando, ele está imerso em seu próprio mundo musical.
Quando alguém julga seu estado mental apenas pelo seu rosto, pode-se pensar que ele está num
estado de tristeza ou nojo. No entanto, o público, estimulado pela música, “sabe” que ele deve
(também) estar se sentindo bem. Assim como no experimento de Kuleshov, muitas vezes é essa
projeção de uma experiência subjetiva em outra pessoa que permite ler o rosto do outro. Como
um computador pode projetar emoções? Mesmo quando, em certa medida, levasse em
consideração o contexto, poderia haver várias “opções” para o que a pessoa estaria sentindo.
Nem todo mundo gosta da mesma música, muitos podem sentir que o músico é excessivamente
dramático.
Esses exemplos de interpretações incorretas podem parecer uma crítica fácil à tecnologia. Alguns
podem sugerir que essas são questões que podem e serão abordadas em versões futuras do
software, por exemplo, fazendo o software sintonizar automaticamente para um indivíduo
específico ou levando em consideração alguns parâmetros contextuais. Eu diria, no entanto, que
esses erros são fundamentais para o procedimento e, portanto, não podem ser resolvidos com
cálculos mais elaborados. O que é central é a conceituação da emoção.
A tentativa de informatizar o reconhecimento das emoções pode ser rastreada até o MIT Media
Lab, onde Rosalind Picard trabalhou com Rana El Kaliouby em um grupo de pesquisa sobre
Computação Afetiva: um campo de pesquisa que abrange “a computação e que se relaciona,
surge de ou deliberadamente influencia a emoção ou outros fenômenos afetivos”.
Com a computação afetiva, as emoções são digitalizadas: elas são consideradas informações.
Assim, as emoções são tratadas analogamente à teoria da informação de Claude Shannon: há um
emissor expressando uma emoção e um receptor interpretando o sinal vindo de um meio
barulhento. Nessa analogia, o sucesso do sistema só pode ser determinado pela identificação de
uma emoção correta, discreta, tanto no remetente quanto no receptor.
Douglas Hofstadter, professor de ciência cognitiva, ilustra essa questão em Gödel, Escher e Bach
quando ele discute como um computador entenderia o choro de uma garotinha: “... mesmo que
(um programa) ‘entenda’em algum sentido intelectual o que foi dito, nunca entenderá realmente,
até que ele próprio (computador) também tenha chorado e chorado. E quando um computador
fará isso?”. Não é verdade que, apesar do software de reconhecimento de emoções ser
promovido como sendo capaz de “entender” emoções, ele nunca será capaz de fazer isso de uma
maneira que os humanos fazem? Só pode medir e simular padrões comportamentais. Este
“entendimento” existe apenas na mente do usuário (humano) do software.
Alguns podem sugerir que o emprego de outros algoritmos pode contornar esse problema: o
computador não deve ser instruído a detectar sete classes predefinidas, mas deve agrupar
expressões semelhantes com base nos dados coletados - em termos técnicos: algoritmos não
supervisionados deveriam ser utilizados ao invés de supervisionados (nota: seria um processo de
reconhecimento de padrões de emoções vindo da incidência nos próprios dados, sem os
parâmetros pré-estabelecidos, como os sete tipos de Ekman, por exemplo).
Tal algoritmo valorizaria as interações humanas de uma forma que não é apenas sem
precedentes, mas provavelmente também incompreensível para os seres humanos. podendo até
dar origem a padrões que os humanos atualmente desconhecem. No entanto, para que as
medições possam ser usadas pelos humanos, as medições precisam ser traduzidas para a
linguagem humana. Mais uma vez, chega-se ao ponto de interpretação por um agente humano,
que inevitavelmente o contamina com experiências e percepções pessoais. Portanto, mesmo em
um processo algorítmico, não se pode ignorar que os avaliadores e usuários humanos do software
desempenham um papel na criação das emoções que estão estudando.
Detecção da histeria
É uma definição que parece derivar do uso cotidiano da palavra e que é amplamente aplicada
pelos psicólogos em seu trabalho cotidiano. No entanto, ao tentar quantificar esse conceito, esta
definição amplamente abrangente pode encontrar seus limites e perigos.
Em seu livro A invenção da histeria, George Didi-Huberman explica como a pesquisa sobre a
histeria se tornou um discurso formalizado. Quando, no século XIX, Jean-Martin Charcot
começou a estudar empiricamente a histeria, ela sempre foi vista como um transtorno mental
feminino. Apesar das intermináveis observações dos pacientes, nenhuma causa identificável para
a doença foi encontrada. Contudo, em vez de reconsiderar a própria doença, a definição formal
de histeria tornou-se ampla e abrangente. Havia classificações, mas eram mais ou menos
classificações do desconhecido. A fim de fundamentar essas classificações, Charcot e seus
colegas médicos precisaram de um grande conjunto de dados para trabalhar e as descrições
exaustivas dos “estados do corpo” se tornaram a norma. Os corpos dos pacientes não eram mais
apresentações de um indivíduo, mas sim representações de uma doença.
A fotografia, uma invenção nova na época, era vista como a resposta ao desejo de registrar de
maneira objetiva os sintomas da doença. Aparentemente apenas fundamentando a pesquisa sendo
feita, a imensa documentação em texto e imagens não era, entretanto, neutra: os observadores
procuravam por anomalias específicas, e ao priorizar o desvio, eles efetivamente recompensavam
e encorajavam tal comportamento em seus pacientes. Hoje em dia, a histeria não é mais
considerada uma doença mental distinguível e o aspecto feminino dela é meramente considerado
machista. Em retrospecto, Didi-Huberman chama a histeria de “neurose de um imenso aparato
discursivo”. Uma neurose que exigia infinitas descrições de pacientes e procedimentos rigorosos
para justificar os tratamentos dos pacientes. A administração maciça, concentrada em capturar a
histeria, nublou efetivamente a doença. Como Didi-Huberman assinala, o “ideal da descrição
exaustiva” da histeria deve ter surgido da esperança de que a visão poderia ser uma previsão.
Da mesma forma, os muitos - às vezes sobrepostos, por vezes contraditórios - relatos do que
“emoção” implica, demonstram a ambiguidade do termo. Qualquer definição do termo parece
estar sob forte influência da indefinição de seu uso informal. Essas definições podem funcionar
para os psicólogos em suas interações do dia a dia com os pacientes. Ao tentar quantificá-la, no
entanto, com esta definição tão ampla e vaga - encapsulando como nos sentimos, olhamos e
soamos - a “emoção” parece ser um conceito suscetível a uma “neurose” também. Ao apresentar
o software de análise de emoções como uma tecnologia claramente definida, que é capaz de
medições “precisas”, um empreendimento conjunto de psicologia, ciências da computação e
marketing trata apenas superficialmente sobre as ambiguidades que envolvem o conceito
de“emoção”.
Não é um grande esforço comparar os imensos dados coletados por empresas como a Affectiva,
que afirma ter indexado quase 4 milhões de rostos, aos dados reunidos no século XIX. Em ambos
os casos, uma nova tecnologia, supostamente objetiva, foi usada para validar o procedimento de
classificação. Em ambos os casos, com procedimentos rigorosos de previsão, ver supostamente
torna-se prever.
A chave aqui não é apenas que o procedimento de classificação em si é falho; a principal
preocupação é que as definições que delineiam a tecnologia são falhas. Como parece não haver
uma definição evidente de “emoção”, como alguém pode saber o que está sendo medido por
ferramentas de análise de emoções? Como no caso da histeria, é apenas a conotação de
“emoção” na linguagem cotidiana que dá a ilusão de saber o que está sendo quantificado.
Registrando estereótipos
Diante do marketing contemporâneo, não é surpresa que em seus sites empresas como Microsoft
e Affectiva passem por essas discussões e apresentem seu software como uma resposta
definitiva. Mas se de fato as emoções não são experiências concretas e delineadas, como esses
produtos de software, que usam uma linguagem tão superficial de sete parâmetros, podem ser
comercializados com tanto sucesso? Eu sugeriria que é precisamente essa linguagem superficial
que beneficia o marketing do software de análise de emoções.
Para mostrar seu software, as empresas apresentam fotografias de expressões faciais fortes, como
as do início deste artigo, para demonstrar classificações bem-sucedidas de emoções. Como
(quase) todos irão reconhecer a ligação entre a expressão facial prototípica e a terminologia da
emoção, eles assumem que a medição é precisa. No entanto, uma vez que reconhecemos essas
imagens como fotografias de estoque, perceberemos que as pessoas nessas imagens representam
um sentimento específico. É o sentimento que eles apresentam que é captado pelo software, não
o sentimento que eles poderiam ter no momento em que a foto foi tirada!
Além disso, em seu marketing, os algoritmos de detecção de emoção estão ligados a conceitos
populares, ainda que vagamente definidos, como a inteligência artificial, que deliberadamente
ofusca e mistifica a tecnologia. Isso parece servir apenas um objetivo: o espetáculo. Como Guy
Debord descreve, no espetáculo não se trata de "ser", mas de "aparecer" - há uma separação entre
realidade e imagem. No espetáculo, aquilo que é fluido está sendo apresentado como algo rígido,
como algo delineado, como vimos acontecer no caso da histeria. Da mesma forma, é o
espetáculo que obscurece como os sentimentos das pessoas não são abordados ou medidos pelo
software.
Por sua vez, é exatamente a suposta rigidez de conceitos que normaliza, valida, o próprio
espetáculo! Através do processo de mostrar a funcionalidade do software em um conjunto
limitado de imagens estereotipadas (ou seja, imagens de pessoas sorridentes), as associações
específicas com as sete emoções prototípicas são reforçadas. No final, essas imagens apenas
apóiam a afirmação de que conceitos como "raiva" e "felicidade" são claramente delineados e,
portanto, fenômenos mensuráveis.
Quando vistas à luz da análise da emoção, essas extensas (auto)avaliações concebem emoções
como análogas a performance: como também vimos no exemplo do cupom de Kleenex, na
constante busca pelo bem-estar, a produção de emoção se torna uma meta. O que é analisado não
é a emoção em si, mas a eficácia com que as emoções podem ser induzidas e controladas.
Examinar o software de análise de emoções a partir desta perspectiva traz à luz um paradoxo.
Um dos objetivos centrais da tecnologia da emoção é medir uma resposta “sincera” e
“imparcial”; no entanto, como isso ainda será possível, considerando que a análise da emoção
efetivamente influencia o comportamento? Por exemplo, em debates recentes entre Hillary
Clinton e Donald Trump, candidatos presidenciais nos Estados Unidos, o software era usado para
“determinar a inteligência emocional e o sentimento” dos candidatos, pois isso deveria fornecer
um “raro vislumbre do que eles revelavam além de suas frustrações e trivialidades políticas”. - o
que quer que isso signifique. Por enquanto, isso ainda pode ser um dispositivo incidental para
fazer uma comparação quantificada, “exata”, entre os candidatos. No entanto, isso pode mudar a
maneira como muitas figuras públicas operam: houve pesquisas que correlacionam as expressões
faciais dos CEOs com o valor de mercado de suas empresas. Uma correlação positiva foi
encontrada entre as expressões medidas de medo, raiva e repulsa e o valor de mercado da
empresa. Sabendo dessas medidas, não é tão difícil imaginar que os CEOs e outras figuras
públicas treinem seu comportamento para refletir uma situação (mais) positiva.
E isto não está muito longe. A HireVue é uma empresa que usa o software de análise de emoções
da Affectiva junto com outras técnicas analíticas para avaliar os candidatos a emprego. Ao
mesmo tempo, eles usam sua tecnologia para treinar as pessoas a se apresentarem quando estão
sendo analisadas por esse software. Portanto, o software é empregado para analisar as pessoas,
ao mesmo tempo em que as pessoas são treinadas para performar de acordo com os parâmetros
do mesmo software! Como no caso da histeria, um procedimento que se propõe a tornar o Outro
mais transparente, alcança o oposto: as práticas de análise de emoções tornam o rosto uma
fachada ainda mais treinada.
Alienando a sinceridade
Certamente, a premissa da análise de emoções faciais tem aspectos promissores - um pouco mais
de empatia no mundo não seria ruim. No entanto, ao examinarmos o discurso em torno dessas
tecnologias, podemos concluir que os modelos fundamentais a essa tecnologia são especulativos
e colocam em questão a validade de todo o procedimento.
Não está claro o que exatamente conceitos como "emoção", "raiva", "desprezo", "repugnância",
"medo", "alegria", "tristeza" e "surpresa" acarretam. O que está sendo medido permanece incerto.
O que esses parâmetros grosseiros dizem sobre os sujeitos das análises, sobre eles como seres
humanos? O input humano subjetivo, a terminologia ambígua e o uso altamente seletivo da
teoria psicológica são encobertos por camadas de extensa coleta, administração e otimização de
dados; posicionando o software de análise de emoção como uma ferramenta de medição válida e
objetiva. A pergunta que fiz no início foi: o que significa sentir-se 63% surpreso e 54% alegre?
O que é problemático não é tanto a tentativa de capturar padrões nas expressões humanas per se,
ou no comportamento humano em geral; o que é problemático são as palavras usadas para
descrever e justificar esse procedimento. O foco no desempenho algorítmico e na precisão
estatística ofusca o fato de que fazer suposições é inevitável ao quantificar conceitos
humanísticos tão amplos. Ao considerar o que Didi-Huberman escreve sobre a histeria, é fácil
traçar paralelos e ver como uma narrativa é construída de modo a inventar e alimentar-se de si
mesma. A justaposição do software de análise de emoções com o caso histórico da histeria torna
aparente os riscos que carrega a transformação de conceitos humanistas tão amplos em uma
estrutura positivista.
Essa transformação de conceitos ocorre com mais frequência nas práticas de Big Data, seja na
análise de emoções, na mineração de texto ou no automonitoramento. No entanto, devido à
natureza da programação, que se orienta para a solução de problemas, essa transformação nem
sempre acontece com muito cuidado com a ambiguidade dos conceitos originais. Por exemplo, a
IBM possui uma linha de produtos com vários algoritmos chamados Watson; recentemente, eles
adicionaram um novo algoritmo que classifica textos sobre alegria, medo, tristeza, desgosto e
raiva. A partir do desejo de construir software que funcione em escala global, uma lista de
emoções derivadas de uma teoria (já problemática) de expressões faciais universais é aplicada
para analisar o texto.
Existem planos para aplicar análise de emoção automatizada a imagens de câmeras de vigilância;
a tecnologia já é usada (sem o consentimento das pessoas) em grande escala através de outdoors,
por exemplo. Alguns podem encontrar conforto no fato de que o mercado tende a antecipar como
fato o que propaga e faz alegações que são factualmente insustentáveis. Seria muito mais
orwelliano se a análise de emoções realmente produzisse resultados coerentes. No entanto,
devemos tomar cuidado para que essa tecnologia e seus resultados não sejam tratados como se
efetivamente produzissem resultados eficazes.
A conclusão mais importante é que esses algoritmos complexos, que muitas vezes são vistos
como "caixas-pretas" obscuras, podem ser consultados sem entrar nos detalhes técnicos de seus
procedimentos. Devemos romper constantemente a fachada de sua suposta objetividade e
questionar esta narrativa do "bem-estar", discutindo as suposições fundamentais de cada
tecnologia. Dessa forma, podemos encorajar uma posição crítica contra o domínio de uma
simplificada e positivista visão de mundo.