Você está na página 1de 10

ALGORITMOS :

https://brasil.elpais.com/brasil/2017/09/19/ciencia/1505818015_847097.html
Se está na cozinha, é uma mulher: como os algoritmos reforçam preconceitos
As máquinas inteligentes consolidam os vieses sexistas, racistas e classistas que
prometiam resolver
Acesso em: 07/11/2017

23 SET 2017 - 17:41 CEST

Bancos de imagens provocam viés sexista Trondheim byarkiv


MAIS INFORMAÇÕES

 O inconsistente e perigoso ‘radar gay’


 “Alô, aqui é um robô sem sentimentos nem empatia”
 Elon Musk encabeça uma petição à ONU para proibir os ‘robôs soldado’
 Expansão da inteligência artificial e novos rumos da economia no mundo
Um homem calvo, de uns 60 anos, mexe com suas espátulas de madeira alguns pedaços
de carne dentro da frigideira. Usa óculos de acetato, calça jeans e está em frente ao
fogão de sua pequena cozinha, decorada com tons claros. Ao ver essa imagem, a
inteligência artificial, regida por algoritmos, não tem dúvida e, graças à sua sofisticada
aprendizagem, rotula assim: cozinha, espátula, fogão, mulher. Se está numa cozinha, em
frente ao fogão, deve ser uma mulher. Uma equipe da Universidade da Virgínia acaba
de publicar um estudo que indica, mais uma vez, o que muitos especialistas vêm
denunciando: a inteligência artificial não apenas não evita o erro humano derivado de
seus preconceitos, como também pode piorar a discriminação. E está reforçando muitos
estereótipos.
Em seu trabalho, os cientistas analisaram os dados de dois gigantescos bancos de
imagens, usados habitualmente para treinar as máquinas, examinando o que os robôs
aprendiam com tais imagens. Inicialmente, os homens protagonizavam 33% das fotos
que continham pessoas cozinhando. Após treinar uma máquina com esses dados, o
modelo mostrou sua fraqueza: deduziu que 84% da amostra eram mulheres. “Sabe-se
que as tecnologias baseadas em big data às vezes pioram inadvertidamente a
discriminação por causa de vieses implícitos nos dados”, afirmam os autores.
“Mostramos que, ao partirem de uma base enviesada sobre gênero”, acrescentam, os
modelos preditivos “amplificam o viés”.
As máquinas se tornam mais sexistas, racistas e classistas porque identificam a
tendência subjacente e apostam nela para acertar. Já é bem conhecido o caso de Tay, o
robô inteligente projetado pela Microsoft para se integrar nas conversas do Twitter
aprendendo com os demais usuários: a empresa precisou retirá-lo em menos de 24 horas
porque começou a fazer apologia do nazismo, assediar outros tuiteiros e defender o
muro de Trump. A essa altura, são vários os exemplos de algoritmos que exacerbam os
preconceitos e discriminações, colocando em questão a grande promessa desses sistema:
eliminar o erro humano da equação. Os algoritmos nos condenam a repetir o passado do
qual queríamos fugir, ao replicar os preconceitos que nos definiam.
As tecnologias baseadas em big data às vezes pioram inadvertidamente a discriminação
por causa de vieses implícitos nos dados
O Google começou a rotular as pessoas negras como gorilas, e o Google Maps situava
“a casa do negro” na Casa Branca da era Obama. As fotos dos usuários negros do Flickr
são classificadas como “chimpanzés”. A inteligente Siri da Apple, que tem resposta para
tudo, não sabe o que dizer quando a dona do celular lhe diz que foi estuprada. O
software da Nikon adverte o fotógrafo de que alguém piscou quando o retratado tem
traços asiáticos. As webcams da HP não podem identificar e seguir os rostos mais
morenos, mas o fazem com os brancos. O primeiro concurso de beleza julgado por um
computador colocou uma única pessoa de pele escura entre os 44 vencedores. Nos
Estados Unidos, a Amazon deixa fora de suas promoções os bairros de maioria afro-
americana (mais pobres). O Facebook permite que os anunciantes excluam minorias
étnicas de seu target comercial e, ao mesmo tempo, que incluam pessoas que se
identificam explicitamente como antissemitas e também jovens identificados por seus
algoritmos como vulneráveis e depressivos.
“Prometendo eficácia e imparcialidade, [os algoritmos] distorcem a educação superior,
aumentam a dívida, estimulam o encarceramento em massa, golpeiam os pobres em
quase todas as situações e solapam a democracia”, denuncia Cathy O'Neil, especialista
em dados e autora do revelador livro Weapons of Math Destruction (armas de
destruição matemática), em que examina todos os desastres algorítmicos a partir de sua
formação como doutora em Matemática na Universidade Harvard e sua experiência de
trabalho como data scientist no mundo financeiro. “Ir à faculdade, pedir dinheiro
emprestado, ser condenado à prisão, encontrar e manter um trabalho. Todos esses
campos da vida estão cada vez mais controlados por modelos secretos que
proporcionam punições arbitrárias”, alerta.
O Google começou a rotular as pessoas negras como gorilas, e o Flickr as classificou
como chimpanzés
Como afirma O’Neil, os preconceitos dos algoritmos podem ser ainda muito mais
perigosos. A redação da ProPublica, uma ONG sem fins lucrativos que se descreve
como independente, comprovou isso meses atrás ao descobrir que um programa usado
na Justiça dos EUA para prevenir a reincidência dos presos era notavelmente racista. Os
acusados negros eram duas vezes mais propensos a ser mal rotulados como prováveis
reincidentes (e tratados de forma mais dura pelo sistema penal), enquanto os acusados
brancos que de fato reincidiram foram rotulados como de “baixo risco” com duas vezes
mais probabilidade que os negros. Os cidadãos, e certamente os condenados, ignoram
que seu futuro está sendo decidido por um programa de informática viciado que será tão
racista quanto o juiz mais racista. Fria, enviesada e meticulosamente racista.
Uma pesquisa da Universidade Carnegie Mellon descobriu que as mulheres têm menos
chances de receber anúncios de emprego bem remunerado no Google. Os programas
usados nos departamentos de contratação de algumas empresas mostram uma inclinação
por nomes usados por brancos e rejeitam os dos negros. As autoridades policiais de
várias cidades utilizam softwares que ajudam a prever os lugares onde o crime é mais
provável; desse modo, comparecem mais a essas zonas, detêm de novo mais pessoas ali
e reforçam esse ciclo negativo. E os seguros são mais caros e severos nos bairros pobres
de maioria negra. “O resultado é que criminalizamos a pobreza, achando que nossas
ferramentas são não apenas científicas, como também justas”, resume a especialista.
Prometendo eficácia e imparcialidade, golpeiam os pobres em quase todas as situações e
solapam a democracia
Em alguns casos, afirma O’Neil no livro, os problemas do algoritmo se devem a uma
falha na seleção dos dados. Em outros, ao preconceito subjacente na sociedade, que o
software simplesmente incorpora para acertar. Mas o maior problema é o modelo
econômico. “Quando se elaboram sistemas estatísticos para encontrar clientes ou
manipular devedores desesperados, as receitas crescentes parecem mostrar que eles
estão no caminho correto. O software está fazendo seu trabalho. O problema é que os
lucros acabam servindo como um substituto da verdade”, diz ela. O’Neil denuncia que
isso é uma “confusão perigosa” que surge “de maneira reiterada”. O Facebook deixa
que seu algoritmo selecione e venda anúncios a “pessoas que odeiam os judeus” e
“adolescentes vulneráveis” porque se enriquece desse jeito; se as pessoas lhes pagam
por isso, não podem estar erradas.
Um regulador ante a falta de transparência
Muitos desses problemas são descobertos por jornalistas, pesquisadores e instituições.
Outros se tornam manifestos e obrigam a empresa a corrigi-los. Mas o que acontece
com todos os processos que já estão mecanizados e que desconhecemos como nos
afetam? Como uma mulher saberá que foi privada de ver um anúncio de emprego?
Como uma comunidade pobre poderá saber que está sendo assediada policialmente por
um software? Como se defende um criminoso de uma minoria étnica que ignora que um
algoritmo o tem na mira? O Facebook e o Google, por exemplo, são perfeitamente
conscientes desse problema e até nos explicam como ocorre, mas são absolutamente
opacos e não permitem que ninguém monitore esses vieses de maneira eficiente, critica
O’Neil. Há muitos programas desse tipo sendo aplicados no sistema judicial norte-
americano, mas seus preconceitos são desconhecidos porque cada empresa mantém seus
algoritmos em segredo, como a fórmula da Coca-Cola.
O software está fazendo seu trabalho. O problema é que os lucros acabam servindo
como um substituto da verdade
Se o algoritmo foi transformado em lei, deve ser transparente, acessível, discutível e
passível de emendas, como a própria lei. É o que exigem cada vez mais especialistas e
organismos, como a Liga de Justiça Algorítmica (AJL) e a Inteligência Artificial Agora.
Eles afirmam que o problema das máquinas inteligentes são os seus enormes
preconceitos sociais, não a possibilidade de que levem a um apocalipse no estilo O
Exterminador do Futuro. E que, portanto, é preciso criar reguladores públicos para
revisar seus sistemas. Trata-se de uma crise que só irá crescer: dias atrás, causou
escândalo um polêmico algoritmo que pretendia identificar os gays por sua cara. Nos
EUA, metade da população já tem seu rosto registrado em bases de dados policiais de
reconhecimento facial. E os gigantes da rede já conhecem até nossa orientação sexual,
mesmo que não sejamos usuários de seus serviços. “Não podemos contar com o livre
mercado para corrigir esses erros”, conclui O’Neil.
http://tarciziosilva.com.br/blog/estamos-criando-uma-distopia-apenas-para-pessoas-
clicarem-em-anuncios-zeynep-tufekci/
Acesso em: 07/11/2017

“Estamos criando uma distopia apenas para que pessoas cliquem em anúncios” –
@zeynep
Publicado em 07/11/2017 por Tarcízio Silva
CompartilheTweet

Zeynep Tufekci (@zeynep) é uma das pesquisadoras mais importantes da atualidade.


Turca, ensina e pesquisa na University of North Carolina, escreve no New York Times e
é autora de artigos como “Can you see me now? Audience and disclosure regulation in
online social network sites“; “Big Questions for Social Media Big Data:
Representativeness, Validity and Other Methodological Pitfalls“; “Social Media and the
Decision to Participate in Political Protest: Observations From Tahrir Square” e o
fantástico livro recém-lançado “Twitter and Tear Gas: The Power and Fragility of
Networked Protest“.
Em setembro realizou mais uma palestra TED em Nova Iorque com o título “Estamos
criando uma distopia apenas para pessoas clicarem em anúncios” (“We’re building a
dystopia only just to make people click on ads”). Já falamos de alguns temas
mencionados aqui no blog ou do IBPAD, mas a narrativa é sensacional e um resumo
exemplar de um dos temas mais importantes da atualidade, então traduzi a transcrição
em seguida. Veja abaixo:

Quando as pessoas falam de receios sobre inteligência artificial, geralmente, evocam


imagens de robôs humanóides correndo descontrolados. Sabe como é? Como
Exterminador do Futuro? Assim, isto é algo que pode ser considerado, mas é uma
ameaça distante. Ou, nós nos preocupamos sobre vigilância digital com metáforas do
passado. “1984”, o livro de George Orwell, está voltando para as prateleiras de best
sellers. É um ótimo livro, mas não é a distopia correta para o século 21. O que
precisamos temer de fato não é o que a inteligência artificial fará a nós sozinha, mas
como as pessoas no poder usarão a inteligência artificial para nos controlar e nos
manipular de novas, sutis e inesperadas maneiras, muitas vezes ocultas. Boa parte da
tecnologia que ameaça nossa liberdade e dignidade em um futuro próximo está sendo
desenvolvida por empresas do mercado de captar e vender nossos dados e atenção para
publicitários e outros: Facebook, Google, Amazon, Alibaba, Tencent.
Hoje, a inteligência artificial começou a reforçar seus negócios também. E pode parecer
que a inteligência artificial é a grande coisa logo depois dos anúncios onlnie. Não é. É
um salto em categoria. É um mundo totalmente diferente e tem grande potencial. Pode
acelerar nosso entendimento em várias áreas de estudo e pesquisa. Mas para citar um
famoso filósofo de Hollywood, “Enormes potenciais trazem enormes riscos”.
Agora vamos olhar para um fato básico nas nossas vidas digitals, os anúncios online.
Certo? De certa forma nós os ignoramos. Achamos que são rudimentares, pouco
efetivos. Todos nós já tivemos a experiência de ser seguido na web por um anúncio
baseado em algo que buscamos ou lemos. Você sabe, quando você procura um par de
botas e por uma semana, estas botas seguem você em todo o lugar que você vai. Mesmo
depois que você se rende e as compra, elas continuam seguindo você. Estamos
acostumados com esse tipo básico e simples de manipulação. Reviramos os olhoes e
pensamos “Quer saber? Estas coisas não funcionam”. Mas, onlnie, as tecnologias
digitais não são só anúncios. Agora, para entender isto, vamos pensar em um exemplo
do mundo físico. Você sabe como, nas filas perto de caixas de supermercado, tem doces
e balas no nível do olhar das crianças? Isto é pensado para fazê-las importunar os pais
no momento da compra. É uma arquitetura de persuasão. Não é legal, mas funciona. É
por isto que você a vê em todos os supermercados. Agora, no mundo físico, esta
arquitetura de persuasão é relativamente limitada, pois você não pode colocar tudo perto
dos caixas. Certo? E os doces e balas são os mesmos para todo mundo, mesmo que
alguns só funcionem para quem tiver pequenos humanos chorando por perto. No mundo
físico, convivemos com estas limitações.
No mundo digital, porém, arquiteturas de persuasão podem sere construídas na escala de
bilhões e podem direcionar, inferir, entender e entregues a indivíduos um a um ao
descobrir suas fraquezas. E podem ser enviados para as telas de smartphones de cada
um, então não são visíveis aos demais. Isto é diferente. E é apenas uma das coisas
simples que a inteligência artificial pode fazer.
Vamos pensar em outro exemplo. Digamos que você vende passagens de avião para
Vegas, ok? Então, no mundo antigo, você pode pensar em algumas características
demográficas baseadas em experiência e no que você pode supor. Você pode tentar
anunciar para, digamos, homens entre 25 e 25 ou pessoas que tem um limite muito alto
em seus cartões de crédito, ou casais aposentados. Certo? É o que você pode fazer no
passado.
Com big data e aprendizado de máquina (machine learning), não é como você faria
mais. Então imagine isto, pense em todos os dados que o Facebook tem sobre você:
cada post que já digitou, cada conversa no Messenger, cada lugar que você logou, todas
suas fotografias que enviou. Se você começar a digitar algo, mudar de ideia e deletar
sem psotar, o Facebook mantêm e analisa isto também. Crescentemente, tenta combinar
com dados offline. Também compra muitos dados de data brojers. Pode ser qualquer
coisa dos seus registros financeiros a histórico de navegação. Nos EUA, estes dados são
rotineiramente coletados, agrupados e vendidos. Na Europa, as regras saõ mais rígidas.
Então o que acontece é que, ao combinar e espremer todos estes dados, os algoritmos de
machine-learning – é por isto que são chamados de algoritmos de aprendizado –
aprendem a entender características de pessoas que compraram tickets para Vegas.
Quando aprendem isto dos dados eistentes, também aprendem como aplicar a novas
pessoas. Então se eles são apresentados a uma nova pessoa, podem classificar se esta
pessoa tende a comprar um ticket para Vegas ou não. Mas tudo bem. Você deve estar
pensando, uma oferta para comprar passagens para Vegas. Posso ignorar isto. Mas o
problema não é este. O problema é que não entendemos mais realmente como estes
complexos algoritmos funcionam. Não entendemos como fazem esta categorização. São
matrizes gigantes, milhares de colunas e linhas, talvez milhões de colunas e linhas, e
nem os programadores ou qualquer pessoa que olha para estes dados, mesmo que tenha
todos os dados, entende mais exatamente como estão operando mais do que se você
olhasse agora um corte do meu cérebro. É como se não estivéssemos mais
programando, estamos alimentando inteligência que não entendemos realmente.
Todas estas coisas funcionam se há quantidade enorme de dados, então eles encoragem
profunda vigilância de todos nós para que os algoritmos de machine learning possam
trabalhar. É por isto que o Facebook quer coletar todos os dados sobre você que puder.
Os algoritmos trabalharão melhor.
Então vamos forçar mais umpouco este exemplo sobre Vegas. E se o sistema que não
entendemos descobre que é mais fácil vender passagens para Vegas a pessoas que são
bipolares e estão prestes a entregar na fase maníaca. Estas pessoas tendem a se tornar
gastadoras, jogadoras compulsivas. Eles podem fazer isto e você não teria ideia de que
são estas variáveis escolhidas. Dei este exemplo a um grupo de cientistas da
computação uma vez e, depois, um deles veio a mim. Ele estava desconcertado e falou
“É por isto que não posso publicar”. E eu perguntei “Não pode publicar o quê?”. Ele
tentou avaliar se poderia prever o início da crise maníaca a partir dos posts em mídias
sociais antes dos sintomas clínicos. E funcionou, e funcionou muito bem, e ele não fazia
ideia de como funcionou.
Agora, o problema não é resolvido se ele publica ou não, porque há outras empresas
desenvolvendo este tipo de tecnologia, e boa parte dos recursos está disponível. Não é
mais difícil.
Você já foi ao YouTube para ver apenas um vídeo e uma hora depois você percebeu que
viu 27? Você sabe como o YouTube tem esta coluna na direita que diz “Up next” e toca
automaticamente algo? É um algoritmo escolhendo o que acha que você pode estar
interessado e talvez não encontre sozinho. Não é um editor humano. É isto que
algoritmos fazem. Eles escolhem o que você viu e o que pessoas como você assistiram e
inferem o que você pode estar interessado, o que você quer mais, e mostra mais disto.
Soa como um recurso benigno e útil, mas não é.
Em 2016, fui a commícios do então candidato Donald Trup para estudar o movimento
de apoio. Estudei movimentos sociais, este era mais um deles. Então quis escrever algo
sobre um dos comícios, então assisti vídeo dele algumas vezes no YouTube. O
YouTube então começou a recomendar no autoplay vídeos de supremacistas brancos em
ordem crescente de extremismo. Se eu assistia uma, me oferecia outro mais extremo
ainda e dava autoplay. Se você assistir conteúdo de Hillary Clinton ou Bernie Sanders,
YouTube recomenda e dá autoplay em conteúdo de conspiração da esquerda e daí
ladeira abaixo.
Bem, você deve estar pensando: política é isto. Mas não. Não é sobre política. É apenas
o algoritmo entendendo o comportamento humano. Uma vez assisti um vídeo sobre
vegetarianismo no YouTube e a plataforma recomendou e deu autoplay em vídeo sobre
tornar-se vegano. É como se você nucna fosse hardcore o suficiente par o YouTube
Então o que está acontecendo? O algoritmo do YouTube é proprietário, mas o que
imagino que acontece é o seguinte. O algoritmo descobre que se você pode atrair as
pessoas a pensar que pode mostrar sempre algo mais intenso, as pessoas estão mais
propensas a se manter no site assistindo vídeo após vídeo pela “toca do coelho”
enquanto o Google entrega anúncios. Agora, mas quando ninguém se importanta com a
ética da loja, estes sites podem perfilar pessoas que são odiadores de judeus, que acham
que judeus são parasitas e que possuem conteúdo explicitamente antisemita e entregar
anúncios direcionados. Também podem mobilizar algoritmos para encontrar para você
as audiências similares (look-alike audiences), pessoas que não tem conteúdo
explicitamente anti-semita em seus perfis, mas que o algoritmo detecta que podem ser
suscetíveis a estas mensagens, permitindo direcionar anúncios a elas também. Este pode
ser um exemplo implausível mas é real. A ProPublica investigou isto e descobriu que
pode fazer isto no Facebook, e o Facebook oferece automaticamente sugestões de como
expandir esta audiência. Buzzfeed tentou o mesmo no Google e descobriu rapidamente
que também pode ser feito na plataforma da Google. E nem sequer foi caro. O jornalista
da ProPublica usou 30 dólares para conseguir anunciar para esta categoria.
No último ano, o gerente de mídias sociais da campanha de Donald Trump informou
que estavam usando os dark posts (posts ocultos) no Facebook para desmobilizar
pessoas, não para persuadi-las, mas para convencê-las a não votar. E para fazer isto,
direcionaram conteúdo especificamente para homens afro-americanos em cidades chave
como Philadelphia. Agora vou citar exatamente o que ele falou, palavra por palavra.
Eles estavam usando “posts não públicos com visibilidade controlada pela campanha,
de modo que somente as pessoas que queremos os veriam. Nós modelamos isto. Vai
afetar dramaticamente a capacidade dela (Hillary Clinton) de converter essas pessoas”.
O que há nestes dark posts? Não temos ideia. O Facebook não nos conta.
Então o Facebook também organiza algoritmicamente os posts que seus amigos põem
no Facebook ou as páginas que você segue. Não te exibe tudo cronologicamente. Ele
coloca em ordem no modo que o algoritmo avalia que vai te incentiviar a ficar mais
tempo no site.
Isto possui várias consequências. Você pode pensar que alguém está desprezando você
no Facebook. O algoritmo pode nunca mostrar seu post a eles. O algoritmo está
priorizando alguns e enterrando os oturos.
Experimentos mostram que o algoritmo escolhe mostrar o que pode afetar suas
emoções. Mas isto não é tudo. Também afeta comportamento político. Em 2010,
durante as eleições de meio período (midterm elections), o Facebook fez um
experimento com 61 milhões de pessoas que foi divulgado apenas depois do ocorrido.
Algumas pessoas viam um conteúdo simples “Hoje é dia de eleições”, de forma
simples. E algumas pessoas recebiam a visualização com as pequenas imagens de
amigos que clicaram “Eu votei”. Uma simples modificação, certo? As imagens eram a
única mudança, mas este post gerou 340 mil mais votantes naquela eleição, de acordo
com pesquisa que foi confirmada pela contagem. Casual? Não. Em 2012, repetiram o
mesmo experimento. Desta vez, a mensagem cívica exibida uma vez gerou mais 270
mil votantes. Como referência, as eleições de 2016 foram decididas por cerca de 100
mil votos. Agora, o Facebook pode também facilmente inferir sua posição política,
mesmo que nunca as falou no site. Os algoritmos podem realizar isto de modo
relativamente fácil. E se uma plataforma com este tipo de poder decide apoiar um
candidato em relação a outro? Como poderíamos saber?
Começamos de um lugar relativamente inócuo – anúncios onine que nos perseguem – e
chegamos a outro lugar. Como público e cidadãos, nós não sabemos mais se estamos
vendo a mesma informação ou o quê qualquer pessoa está vendo. E sem uma base
comum de informação, pouco a pouco, o debate público está se tornando impossível, e
estamos apenas nos estágios iniciais disto. Estes algoritmos podem facilmente inferir
coisas como etnia, religião e posição política, traços de personalidade, inteligência,
felicidade, uso de substâncias viciantes, separação dos pais, idade e gênero, apenas
através de likes no Facebook. Estes algoritmos podem identificar protestantes mesmo se
suas faces estão parcialmente cobertas. Estes algoritmos podem identificar orientação
sexual das pessoas apenas dos seus avatares.
Estas são inferências probabilísticas, então não são 100 porcento corretas, mas não vejo
poderosos resistindo a tenação de usar estas tecnologias apenas porque existem alguns
falsos positivos, o que cria uma nova camada de problemas. Imagine o quê um Estado
pode fazer com esta quantidade enorme de dados que possuem sobre seus cidadãos.
China já usa tecnologia de reconhecimento facial para identificar e prender pessoas. E
aqui temos a tragédia: estamos construindo esta infraestrutura de vigilância autoritária
apenas para fazer pessoas clicarem em anúncios. E este não será um autoritarianismo
nos moldes de Orwell. Não é “1984”. Agora, se o autoritarianismo é usado para impor
medo e nos aterrorizar, nós estaremos assustados mas saberemos. Odiaremos e
resistiremos. Mas se as pessoas no poder estão usando estes algoritmos para
silenciosamente nos vigiar, julgar e manipular, para prever e identificar os rebeldes e
insatisfeitos, para aplicar arquiteturas de persuasão em escala para manipular indivíduos
uma a um usando suas fraquezas e vulnerabilidades individuais, e se estão entregando a
telas privadas para que sequer saibamos o que nossos co-cidadãos e vizinhos estão
vendo, o autoritarianismo vai nos envolver como uma teia de aranha e nem sequer
saberemos que fomos pegos.
A avaliação de mercado do Facebook está aproximando-se de meio trilhão de dólares.
Chegou a este valor porque funciona muito bem como arquitetura de persuasão. Mas a
esrtrutura de persuasão é a mesma quer você esteja vendendo sapatos quer você esteja
vendendo política. Os algoritmos não entendem a diferença. Os mesmos algoritmos que
são soltos em nós para nos tornar mais dispostos a publicidade também estão
organizando nossos fluxos de informações pessoais, políticas e sociais, e é isto que tem
que mudar.
Mas não me entenda errado: usamos estas plataformas digitais porque nos fornecem
muita utilidade e valor. Eu uso o Facebook para me manter em contato com amigos e
famílias em torno do mundo. Já escrevi o quanto mídias sociais são cruciais para
movimentos sociais. Estudei como estas tecnologias podem ser usadas para contornar
censura em torno do mundo. Não é que as pessoas que dirigem, digamos, Facebook ou
Google estão maliciosamente e deliberadamente tentando tornar o país ou mundo mais
polarizado e encorajar extremismo. Eu li as várias declerações bem-intencionadas
dessas pessoas. Mas não são as intenções ou declarações das pessoas nas tecnologias
que importam, são as estruturas e modelos de negócios que estão construindo. E este é o
núcleo do problema. Ou o Facebook é uma enorme fraude de meio trilhão de dólares e
os anúncios não funcionam e não existe uma arquitetura da persuasão, ou seu poder de
influência é preocupante. É um ou outro, e o mesmo pode ser dito sobre o Google.
Então, o que podemos fazer? Isto precisa mudar. Agora não posso oferecer uma receita
simples, porque precisamos reestruturar o modo pelo qual nossas tecnologias digitais
operam. Todos os aspectos das tecnologias desenvolvidas, economicamente ou não, são
incorporadas nos sistemas. Nós temos que enfrentar e tentar lidar com a falta de
transparência criada pelos algoritmos proprietários, o desafio estrutural da opacidade do
machine learning e todos os dados indiscriminados que são coletados sobre nós. Temos
uma grande tarefa na nossa frente. Temos que mobilizar nossa teccologia, nossa
criatividade e, sim, nossos políticos para que possamos criar inteligência artificial que
nos apoie nos objetivos humanos mas que também sejam constritos pelos valores
humanos. E entendo que isto não será fácil. Talvez nem vamos concordar facilmente o
que estas condições significam. Mas se nós queremos tratar de forma séria sobre estes
sistemas dos quais dependemos tanto para operar, não vejo como postergar ainda mais
esta conversação. Estas estruturas estão organizando como funcionamos e estão
controlando o que podemos e não podemos fazer. E várias dessas plataformas baseadas
em anúncios enfatizam que são gratuitas. Neste contexto, significa que nós somos o
produto sendo vendido. E precisamos de uma economia digital na qual nossos dados e
atenção não estejam à venda para o demagogo ou autoritário com o maior lance.

Você também pode gostar