Você está na página 1de 36

1.

Algum esclarecimento sobre o projeto para mecanizar a


razão.
O Nooscópio é uma cartografia dos limites da inteligência artificial (IA),
destinado a provocar a ciência da computação e as humanidades. Qualquer
mapa é uma perspectiva parcial, uma maneira de provocar debates. Da mesma
forma, este mapa é um manifesto – um manifesto de dissidentes da IA. Seu
principal objetivo é desafiar as mistificações sobre inteligência artificial.
Primeiramente quanto a definição técnica de inteligência e, em segundo,
quanto a forma política de sua dita autonomia frente à sociedade e ao
humano.1 Na expressão “inteligência artificial”, o adjetivo “artificial” carrega o
mito da autonomia da tecnologia: sugere “mentes alienígenas”[1] caricaturais
que se auto-reproduzem in sílico, mas, na verdade, mistifica dois processos de
alienação: a crescente autonomia geopolítica das empresas de alta tecnologia
e a invisibilização da autonomia dos trabalhadores em todo o mundo. O projeto
moderno de mecanizar a razão humana claramente se transformou, no séc.
XXI, em um regime corporativo extrativista do conhecimento e um colonialismo
epistêmico.2 Isso não é surpreendente, uma vez que os algoritmos de
aprendizado de máquina [machine learning] são os mais poderosos para a
compressão de informações.
O objetivo do mapa Nooscópio é secularizar a IA do seu status ideológico de
‘máquina inteligente’ para o de instrumento de conhecimento. Em vez de
evocar lendas da cognição alienígena, é mais razoável considerar o
aprendizado de máquina como um instrumento de ampliação do
conhecimento que ajuda a perceber características, padrões e correlações
através de vastos espaços de dados que estão além do alcance humano. Na
história da ciência e da tecnologia isso não é nenhuma novidade: ele já foi
perseguido por instrumentos ópticos ao longo das histórias da astronomia e da
medicina.3 Na tradição da ciência, os algoritmos de aprendizado de máquina é
apenas um Nooscópio, um instrumento para ver e navegar no espaço do
conhecimento (do grego skopein “examinar, olhar” e noos “conhecimento”).
Tomando emprestada a idéia de Gottfried Wilhelm Leibniz, o diagrama
Nooscópio aplica a analogia da mídia óptica à estrutura de todos os aparatos
de aprendizado de máquina. Discutindo o poder de seu calculus ratiocinator e
“números característicos” (a ideia de projetar uma linguagem universal
numérica para codificar e resolver todos os problemas do raciocínio humano),
Leibniz fez uma analogia com instrumentos de ampliação visual, como o
microscópio e o telescópio. Ele escreveu: “Uma vez que os números
característicos sejam estabelecidos para a maioria dos conceitos, a
humanidade possuirá um novo instrumento que aumentará as capacidades da
mente em uma extensão muito maior do que os instrumentos ópticos
fortalecem os olhos e substituirá o microscópio e o telescópio, na medida em
que a razão é superior à visão.”4 Embora o objetivo deste texto não seja reiterar
a oposição entre culturas quantitativas e qualitativas, a crença de Leibniz não
precisa ser seguida. Controvérsias não podem ser computadas
conclusivamente. O aprendizado de máquinas não é a forma definitiva de
inteligência.
Instrumentos de medição e percepção sempre vêm com distorções embutidas.
Do mesmo modo que as lentes de microscópios e telescópios nunca são
perfeitamente curvilíneas e lisas, as lentes lógicas do aprendizado de máquina
incorporam falhas e inclinações. Entender o aprendizado de máquina e
registrar seu impacto na sociedade é estudar o grau em que os dados sociais
são difratados e distorcidos por essas lentes. Isso geralmente é conhecido
como o debate sobre o viés (inclinações/predisposições) na IA, mas as
implicações políticas da forma lógica do aprendizado de máquina são mais
profundas. O aprendizado de máquina não está trazendo uma nova era das
trevas, mas uma racionalidade difratada, na qual, como será mostrado, uma
episteme de causalidade é substituída por uma de correlações automatizadas.
Em geral, a IA é um novo regime de verdade, prova científica, normatividade
social e racionalidade, que muitas vezes toma a forma de uma alucinação
estatística. Este manifesto diagrama é outra maneira de dizer que a IA, o Rei
da computação (uma fantasia patriarcal do conhecimento mecanizado,
“algoritmo mestre” e alpha machine) está nu. Aqui, estamos espiando dentro de
sua caixa preta.
Sobre a invenção de metáforas como instrumentos de ampliação do
conhecimento. Tesauro, Il cannocchiale aristotelico [O telescópio aristotélico],
frontispício da edição de 1670, Turim.

[1] N.T – Optamos traduzir “alien” por “alienígena(s)”, uma vez que no campo
das ciências cognitivas (tal como John Searle, Daniel Dennett, David Chalmers
e cia) a expressão é usual e se refere a qualquer “mente” não humana, seja ela
maquínica, seja um animal, um ET ou zombie etc.

2. A linha de montagem do aprendizado de máquina: Dados,


Algoritmo, Modelo
A história da IA é uma história de experimentos, falhas de máquinas,
controvérsias acadêmicas, rivalidades épicas em torno de financiamento militar,
popularmente conhecidas como “invernos da IA”.5 Embora a IA corporativa hoje
descreva seu poder com a linguagem da “magia negra” e da “cognição sobre-
humana”, as técnicas atuais ainda estão em estágio experimental. 6 Ela está
agora no mesmo estágio em que estava o motor a vapor quando foi inventado,
antes que as leis da termodinâmica necessárias para explicar e controlar seu
funcionamento interno fossem descobertas. Da mesma forma, hoje existem
redes neurais eficientes para o reconhecimento de imagens, mas não existe
uma teoria da aprendizagem para explicar porque elas funcionam tão bem e
como elas falham tanto. Como qualquer invenção, o paradigma do aprendizado
de máquina se consolidou lentamente, neste caso através do último meio
século. Um algoritmo mestre não apareceu da noite para o dia. Ao contrário,
houve uma construção gradual de um método de computação que ainda
precisa encontrar uma linguagem comum. Manuais de aprendizado de máquina
para estudantes, por exemplo, ainda não compartilham uma terminologia
comum. Como esboçar, então, uma gramática crítica do aprendizado de
máquina que pode ser concisa e acessível, sem participar do jogo paranóico de
definir uma Inteligência Geral?
Como instrumento de conhecimento, o aprendizado de máquina é composto de
um objeto a ser observado (conjuntos de dados de treinamento), um
instrumento de observação (algoritmo de aprendizagem) e uma
representação final (modelo estatístico). A montagem desses três elementos
é proposta aqui como um diagrama espúrio e barroco de aprendizado de
máquina, extravagantemente denominado Nooscópio.7 Seguindo a analogia da
mídia ótica, o fluxo de informações do aprendizado de máquina é como um
feixe de luz que é projetado pelos dados de treinamento, comprimido pelo
algoritmo e difratado para o mundo pelas lentes do modelo estatístico.
O diagrama Nooscópio tem como objetivo ilustrar dois lados do aprendizado de
máquina ao mesmo tempo: como ele funciona e como ele falha –
enumerando seus principais componentes, bem como o amplo espectro de
erros, limitações, aproximações, inclinações, falhas, falácias e vulnerabilidades
que são nativas ao seu paradigma.8 Essa dupla operação enfatiza que a IA não
é um paradigma monolítico de racionalidade, mas uma arquitetura espúria feita
de técnicas e truques de adaptação. Além disso, os limites da IA não são
simplesmente técnicos, mas são imbricados pelo viés humano. No diagrama do
Nooscope, os componentes essenciais do aprendizado de máquina estão
representados no centro, as intervenções e os vieses humanas à esquerda, e
as limitações e os vieses técnicas à direita. As lentes ópticas simbolizam os
vieses e aproximações que representam a compressão e distorção do fluxo de
informações. O viés total do aprendizado de máquina é representado pela lente
central do modelo estatístico através do qual a percepção do mundo é
difratada.
As limitações da IA são geralmente percebidas hoje graças ao discurso sobre
os vieses – a ampliação das discriminações de gênero, raça, habilidades e
classe social por algoritmos. No aprendizado de máquina, é necessário
distinguir entre viés histórico, viés dos conjuntos de dados e viés algorítmico,
os quais ocorrem em diferentes estágios do fluxo de informações. 9 O viés
histórico (ou visão de mundo) já é aparente na sociedade antes da
intervenção tecnológica. No entanto, a naturalização desse viés, que é a
silenciosa integração da desigualdade em uma tecnologia aparentemente
neutra, é por si só prejudicial.10 Parafraseando Michelle Alexander, Ruha
Benjamin chamou de New Jim Code: “o emprego de novas tecnologias que
refletem e reproduzem as desigualdades existentes, mas que são promovidas
e percebidas como mais objetivas ou progressistas do que os sistemas
discriminatórios de uma época anterior”.11 O viés do conjunto de dados é
introduzido através da preparação do treinamento de dados por operadores
humanos. A parte mais delicada do processo é a rotulagem de dados, na qual
taxonomias antigas e conservadoras podem causar uma visão distorcida do
mundo, deturpando diversidades sociais e exacerbando hierarquias sociais
(veja abaixo o caso do ImageNet).
Viés algorítmico (também conhecido como viés de máquina, viés estatístico
ou viés de modelo, ao qual o diagrama Nooscópio dá atenção especial) é a
ampliação adicional do viés histórico e viés dos conjuntos de dados por
algoritmos de aprendizado de máquina. O problema do viés se originou
principalmente do fato de que os algoritmos de aprendizado de máquina estão
entre os mais eficientes para a compressão de informações [data
compression], o que engendra problemas de resolução, difração e perda de
informações.12 Desde os tempos antigos, os algoritmos têm sido procedimentos
de natureza econômica, projetados para alcançar um resultado com o menor
número de etapas e com o consumo da menor quantidade de recursos:
espaço, tempo, energia e trabalho.13 A corrida armamentista das empresas de
IA ainda está preocupada em encontrar os algoritmos mais simples e rápidos
com os quais capitalizar dados. Se a compressão de informações produz a
taxa máxima de lucro na IA corporativa, do ponto de vista da sociedade, produz
discriminação e perda de diversidade cultural.
Embora as consequências sociais da IA sejam popularmente entendidas sob a
questão do viés, o entendimento comum das limitações técnicas é conhecido
como o problema caixa preta. O efeito caixa preta é uma questão real de
redes neurais profundas (que filtram tanto informações que sua cadeia de
raciocínio não pode ser revertida), mas se tornou um pretexto genérico para a
opinião de que os sistemas de IA não são apenas inescrutáveis e opacos, mas
até “alienígenas” e fora de controle.14 O efeito caixa preta faz parte da natureza
de qualquer máquina experimental no estágio inicial de desenvolvimento (já foi
observado que o funcionamento do motor a vapor permaneceu um mistério por
algum tempo, mesmo depois de ter sido testado com sucesso). O problema
atual é a retórica da caixa preta, que está intimamente ligada a sentimentos
conspirativos nos quais a IA figura como um poder oculto que não pode ser
estudado, conhecido ou controlado politicamente.

3. O conjunto de dados de treinamento: as origens sociais da


inteligência da máquina
A digitalização em massa, que se expandiu com a Internet nos anos 90 e
aumentou com os centros de dados nos anos 2000, disponibilizou vastos
recursos de dados que, pela primeira vez na história, são gratuitos e não
regulamentados. Um regime de extrativismo do conhecimento (então
conhecido como Big Data) gradualmente empregou algoritmos eficientes para
extrair “inteligência” dessas fontes abertas de dados, principalmente com o
objetivo de prever o comportamento do consumidor e vender anúncios. A
economia do conhecimento se transformou em uma nova forma de capitalismo,
chamada capitalismo cognitivo e, em seguida, capitalismo de vigilância, por
diferentes autores.15 Foi a Internet que fez transbordar informações, enormes
centros de dados, microprocessadores mais rápidos e algoritmos de
compressão de dados lançando as bases para o surgimento dos monopólios
em IA no século XXI.
Que tipo de objeto técnico e cultural é o conjunto de dados que constitui a fonte
da IA? A qualidade dos dados de treinamento é o fator mais importante que
afeta a chamada ‘inteligência’ que os algoritmos de aprendizado de máquina
extraem. Há uma perspectiva importante a ser levada em consideração, a fim
de entender a IA como um Nooscópio. Os dados são a primeira fonte de valor e
inteligência. Algoritmos são os segundos; elas são as máquinas que computam
esse valor e inteligência em um modelo. No entanto, os dados de treinamento
nunca são brutos, independentes e imparciais (eles próprios já são
‘algorítmicos’).16 A criação, formatação e edição dos conjuntos de dados de
treinamento é uma tarefa trabalhosa e delicada, provavelmente mais
significativa para os resultados finais do que os parâmetros técnicos que
controlam o algoritmo de aprendizado. O ato de selecionar uma fonte de dados
em vez de outra é a marca profunda da intervenção humana no domínio das
mentes “artificiais”.

O conjunto de dados de treinamento é uma construção cultural, não apenas


técnica. Isso geralmente inclui dados de input associados ao output ideal do
dados, como imagens com suas descrições, também chamadas de rótulos ou
metadados.17 O exemplo canônico seria uma coleção de museu e seus
arquivos, no qual as obras de arte são organizadas por metadados como autor,
ano, meio etc. O processo semiótico de atribuir um nome ou uma categoria a
uma imagem nunca é imparcial; essa ação deixa mais uma marca humana
profunda no resultado final da cognição da máquina. Um conjunto de dados de
treinamento para aprendizado de máquina geralmente é composto pelas
seguintes etapas: 1) produção: trabalho ou fenômeno que produz informações;
2) captura: codificação das informações em um formato de dados por um
instrumento; 3) formatação: organização dos dados em um conjunto de dados;
4) rotulagem: no aprendizado supervisionado, a classificação dos dados em
categorias (metadados).
A inteligência da máquina é treinada em vastos conjuntos de dados que são
acumulados de maneiras nem tecnicamente neutras nem socialmente
imparciais. Os dados brutos não existem, pois dependem do trabalho humano,
de dados pessoais e de comportamentos sociais que se acumulam por longos
períodos, por meio de redes estendidas e taxonomias controversas.18 Os
principais conjuntos de dados de treinamento para aprendizado de máquina
(NMIST, ImageNet, Labeled Faces in the Wild etc.) tiveram origem em
empresas, universidades e agências militares do Norte Global. Mas, olhando
com mais cuidado, descobrimos uma divisão profunda do trabalho que irriga o
Sul Global por meio de plataformas de crowdsourcing usadas para editar e
validar dados.19 A parábola do conjunto de dados ImageNet exemplifica os
problemas de muitos conjuntos de dados de IA. O ImageNet é um conjunto de
dados de treinamento para Deep Learning [Aprendizagem profunda] que se
tornou a referência de facto para algoritmos de reconhecimento de imagem:
deveras, a revolução da Deep Learning começou em 2012 quando Alex
Krizhevsky, Ilya Sutskever e Geoffrey Hinton venceram o desafio anual do
ImageNet com a rede neural convolucional [Convolutional Neural Network]
AlexNet.20 O ImageNet foi iniciado pela cientista da computação Fei-Fei Li em
2006.21 A Fei-Fei Li tinha três intuições para criar um conjunto de dados
confiável para o reconhecimento de imagens. Primeiro, faça o download de
milhões de imagens gratuitas de serviços web, como Flickr e Google. Segundo,
adote a taxonomia computacional WordNet para rótulos de imagens.22 Terceiro,
terceirize o trabalho de rotular milhões de imagens por meio da plataforma
de crowdsourcing Amazon Mechanical Turk. No final do dia (e da linha de
montagem), trabalhadores anônimos de todo o planeta recebiam poucos
centavos por tarefa para rotular centenas de fotos por minuto, de acordo com a
taxonomia do WordNet: tal trabalho resultou na engenharia de uma construção
cultural controversa. Os estudiosos da IA, Kate Crawford e o artista Trevor
Paglen investigaram e divulgaram a sedimentação de categorias racistas e
sexistas na taxonomia ImageNet: veja a legitimação da categoria “pessoa
fracassada, perdida, iniciante e mal-sucedida” para cem fotos arbitrárias de
pessoas.23
O voraz extrativismo de dados da IA causou uma reação [backlash]
imprevisível à cultura digital: no início dos anos 2000, Lawrence Lessig não
podia prever que o grande repositório de imagens online creditadas pelas
licenças Creative Commons se tornaria uma década mais tarde um recurso
não regulamentado para tecnologias de vigilância por reconhecimento facial.
De maneira semelhante, os dados pessoais seguem sendo continuamente
incorporados sem transparência aos conjuntos de dados privatizados para
aprendizado de máquina. Em 2019, o artista e pesquisador de IA Adam Harvey
divulgou pela primeira vez o uso não consensual de fotos pessoais em
conjuntos de dados de treinamento para reconhecimento facial. A divulgação
de Harvey fez com que a Universidade de Stanford, a Universidade de Duke e
a Microsoft retirassem seus conjuntos de dados em meio a um grande
escândalo de violação de privacidade.24 Os conjuntos de dados de
treinamento on-line desencadeiam questões de soberania de dados e direitos
civis que as instituições tradicionais demoram a combater (consulte o
Regulamento Geral sobre Proteção de Dados da União Européia). 25 Se 2012 foi
o ano em que a revolução da Deep Learning começou, 2019 foi o ano em que
suas fontes foram descobertas vulneráveis e corrompidas.

Padrões combinatórios e Kufic scripts, pergaminho de Topkapi, Irã,


1500 d.C.

4. A história da IA como a automação da percepção


A necessidade de desmistificar a IA (pelo menos do ponto de vista técnico)
também é entendida no mundo corporativo. O chefe da IA do Facebook e
padrinho das redes neurais convolucionais Yann LeCun reitera que os atuais
sistemas de IA não são versões sofisticadas de cognição, mas sim de
percepção. Da mesma forma, o diagrama Nooscope expõe o esqueleto da
caixa preta da IA e mostra que a IA não é um autômato pensante, mas um
algoritmo que executa reconhecimento de padrões. A noção de
reconhecimento de padrões contém questões que precisam ser elaboradas. A
propósito, o que é um padrão? Um padrão é exclusivamente uma entidade
visual? O que significa ler comportamentos sociais como padrões? O
reconhecimento de padrões é uma definição exaustiva de inteligência? Muito
provavelmente, não. Para esclarecer essas questões, seria bom realizar uma
breve arqueologia da IA.
A máquina arquetípica para reconhecimento de padrões é a Perceptron de
Frank Rosenblatt. Inventada em 1957 no Laboratório Aeronáutico de Cornell,
em Buffalo/Nova York, seu nome é uma abreviação de “Percebendo e
Reconhecendo o Autômato”.26 Dada uma matriz visual de fotorreceptores com
20 x 20, a Perceptron pode aprender a reconhecer letras simples. Um padrão
visual é registrado como uma impressão em uma rede de neurônios artificiais
que são acionados em conjunto com a repetição de imagens semelhantes e
ativando um único neurônio de output. O neurônio de output dispara 1 =
verdadeiro, se uma determinada imagem for reconhecida, ou 0 = falso, se uma
determinada imagem não for reconhecida.
A automação da percepção, como uma montagem visual de pixels ao longo de
uma linha de montagem computacional, estava originalmente implícita no
conceito de redes neurais artificiais de McCulloch e Pitt.27 Depois que o
algoritmo para reconhecimento visual de padrões sobreviveu ao “inverno da IA”
e se mostrou eficiente no final dos anos 2000, foi aplicado também a conjuntos
de dados não visuais, inaugurando propriamente a era do Deep Learning (a
aplicação de técnicas de reconhecimento de padrões a todos os tipos de
dados, não apenas visuais). Hoje, no caso de carros autônomos, os padrões
que precisam ser reconhecidos são objetos nos cenários das estradas. No
caso da tradução automática, os padrões que precisam ser reconhecidos são
as sequências de palavras mais comuns nos textos bilíngues.
Independentemente de sua complexidade, da perspectiva numérica do
aprendizado de máquina, noções como imagem, movimento, forma, estilo e
decisão ética podem ser descritas como distribuições estatísticas de padrão.
Nesse sentido, o reconhecimento de padrões se tornou verdadeiramente uma
nova técnica cultural usada em vários campos. Por motivos de explicação, o
Nooscópio é descrito como uma máquina que opera em três
modalidades: treinamento, classificação e previsão. Em termos mais
intuitivos, essas modalidades podem ser chamadas: extração de padrões,
reconhecimento de padrões e geração de padrões.
O Perceptron de Rosenblatt foi o primeiro algoritmo que abriu o caminho para o
aprendizado de máquina no sentido contemporâneo. Numa época em que a
‘ciência da computação’ ainda não havia sido adotada como definição, o campo
foi chamado de ‘geometria computacional’ e especificamente ‘conexionismo’
pelo próprio Rosenblatt. O negócio dessas redes neurais, todavia, era calcular
uma inferência estatística. O que uma rede neural calcula não é um padrão
exato, mas a distribuição estatística de um padrão. Apenas raspando a
superfície do marketing antropomórfico da IA, encontramos outro objeto técnico
e cultural que precisa ser examinado: o modelo estatístico. Qual é o modelo
estatístico no aprendizado de máquina? Como é calculado? Qual é a relação
entre um modelo estatístico e a cognição humana? Essas são questões
cruciais a serem esclarecidas. Em termos do trabalho de desmistificação que
precisa ser feito (também para dissipar algumas perguntas ingênuas), seria
bom reformular a questão banal “Uma máquina pode pensar?” nas questões
teoricamente mais sólidas “Um modelo estatístico pode pensar?”, “Um modelo
estatístico pode desenvolver uma consciência?”, et cetera.

5. O algoritmo de aprendizagem: comprimindo o mundo em


um modelo estatístico
Os algoritmos da IA são frequentemente evocados como fórmulas alquímicas,
capazes de destilar formas de inteligência ‘alienígenas’. Mas o que os
algoritmos de aprendizado de máquina realmente fazem? Poucas pessoas,
incluindo os seguidores da Inteligência Artificial Geral [Artificial General
Intelligence – AGI], se preocupam em fazer essa pergunta. Algoritmo é o nome
de um processo, pelo qual uma máquina faz um cálculo. O produto de tais
processos de máquina é um modelo estatístico (mais precisamente
denominado “modelo estatístico algorítmico”). Na comunidade de
desenvolvedores, o termo ‘algoritmo’ é cada vez mais substituído por ‘modelo’.
Essa confusão terminológica surge do fato do modelo estatístico não existir
separadamente do algoritmo: de alguma forma, o modelo estatístico existe
dentro do algoritmo sob a forma de memória distribuída através de seus
parâmetros. Pela mesma razão, é essencialmente impossível visualizar um
modelo estatístico algorítmico, como é feito com funções matemáticas simples.
Ainda assim, o desafio vale a pena.
No aprendizado de máquina, existem muitas arquiteturas algorítmicas:
Perceptron simples, rede neural profunda, Support Vector Machine, rede
Bayesiana, cadeia de Markov, autoencoder, máquina de Boltzmann, etc. Cada
uma dessas arquiteturas tem uma história diferente (muitas vezes enraizada
em agências e corporações militares do Norte Global). As redes neurais
artificiais começaram como estruturas de computação simples que evoluíram
para estruturas complexas que agora são controladas por
alguns hiperparâmetros que expressam milhões de parâmetros.28 Por
exemplo, redes neurais convolucionais são descritas por um conjunto limitado
de hiperparâmetros (número de camadas, número de neurônios por camada,
tipo de conexão, comportamento dos neurônios etc.) que projetam uma
topologia complexa de milhares de neurônios artificiais com milhões de
parâmetros no total. O algoritmo inicia como uma folha em branco e, durante o
processo chamado treinamento, ou ‘aprendendo com os dados’, ajusta seus
parâmetros até atingir uma boa representação dos dados de input. No
reconhecimento de imagens, como já visto, a computação de milhões de
parâmetros deve ser resolvida em um output binário simples: 1=verdadeiro,
uma determinada imagem é reconhecida; ou 0=falso, uma determinada
imagem não é reconhecida.29

Fonte: https://www.asimovinstitute.org/neural-network-zoo

Tentando uma explicação acessível da relação entre algoritmo e modelo,


vamos dar uma olhada no complexo algoritmo Inception v3, uma profunda rede
neural convolucional para reconhecimento de imagens projetada no Google e
treinada no conjunto de dados ImageNet. Diz-se que a v3 tem uma precisão de
78% na identificação do rótulo de uma imagem, mas o desempenho da
‘inteligência da máquina’ nesse caso também pode ser medido pela proporção
entre o tamanho dos dados de treinamento e o algoritmo (ou modelo) treinado.
O ImageNet contém 14 milhões de imagens com etiquetas associadas que
ocupam aproximadamente 150 gigabytes de memória. Por outro lado, o
Inception v3, destinado a representar as informações contidas no ImageNet,
tem apenas 92 megabytes. A taxa de compressão entre os dados de
treinamento e o modelo descreve parcialmente também a taxa de difração de
informações. Uma tabela da documentação da Keras compara esses valores
(número de parâmetros, profundidade da camada, dimensão do arquivo e
precisão) para os principais modelos de reconhecimento de imagem. 30 Essa é
uma maneira grosseira, mas eficaz, de mostrar a relação entre modelo e
dados, para mostrar como a ‘inteligência’ dos algoritmos é medida e avaliada
na comunidade de desenvolvedores.
Documentação por modelos individuais
Top-1 Top-5
Taman Profundida
Modelo PrecisãPrecisã Parametro
ho de
o o s
Xception 88 MB 0.790 0.945 22,910,480 126
138,357,54
VGG16 528 MB 0.713 0.901 23
4
143,667,24
VGG19 549 MB 0.713 0.900 26
0
ResNet50 98 MB 0.749 0.921 25,636,712 –
ResNet101 171 MB 0.764 0.928 44,707,176 –
ResNet152 232 MB 0.766 0.931 60,419,944 –
ResNet50V2 98 MB 0.760 0.930 25,613,800 –
ResNet101V2 171 MB 0.772 0.938 44,675,560 –
ResNet152V2 232 MB 0.780 0.942 60,380,648 –
InceptionV3 92 MB 0.779 0.937 23,851,784 159
InceptionResNet
215 MB 0.803 0.953 55,873,736 572
V2
MobileNet 16 MB 0.704 0.895 4,253,864 88
MobileNetV2 14 MB 0.713 0.901 3,538,984 88
DenseNet121 33 MB 0.750 0.923 8,062,504 121
DenseNet169 57 MB 0.762 0.932 14,307,880 169
DenseNet201 80 MB 0.773 0.936 20,242,984 201
NASNetMobile 23 MB 0.744 0.919 5,326,716 –
NASNetLarge 343 MB 0.825 0.960 88,949,818 –
Fonte: keras.io/applications
Os modelos estatísticos sempre influenciaram a cultura e a política. Eles não
surgiram apenas com o aprendizado de máquina: este é apenas uma nova
maneira de automatizar a técnica da modelagem estatística. Quando Greta
Thunberg adverte ‘Ouça a ciência’, o que ela realmente quer dizer, sendo uma
boa aluna de matemática, é ‘Ouça os modelos estatísticos da ciência climática’.
Sem modelos estatísticos, sem ciência climática – e sem ciência climática, sem
ativismo climático. A ciência do clima é realmente um bom exemplo para
começar, a fim de entender modelos estatísticos. O aquecimento global foi
calculado coletando primeiro um vasto conjunto de dados de temperaturas da
superfície da Terra todos os dias do ano, e segundo, aplicando um modelo
matemático que traça a curva das variações de temperatura no passado e
projeta o mesmo padrão no futuro.31 Modelos climáticos são artefatos históricos
que são testados e debatidos na comunidade científica, e hoje, também para
além dela.32 Os modelos de aprendizado de máquina, pelo contrário, são
opacos e inacessíveis ao debate da comunidade. Dado o grau de criação de
mitos e viés social em torno de suas construções matemáticas, a IA realmente
inaugurou a era da ficção científica estatística. Nooscópio é o projetor deste
grande cinema estatístico.

6. Todos os modelos estão errados, mas alguns são úteis


“Todos os modelos estão errados, mas alguns são úteis” – o ditado canônico
do estatístico britânico George Box há muito encapsula as limitações lógicas da
estatística e do aprendizado de máquina.33 Essa máxima, no entanto, é
frequentemente usada para legitimar o viés da IA corporativa e estatal. Os
cientistas da computação argumentam que a cognição humana reflete a
capacidade de abstrair e de se aproximar de padrões. Então, qual é o problema
das máquinas tambem serem formas aproximadas, e fazerem o mesmo?
Dentro desse argumento, é repetido retoricamente que “o mapa não é o
território”. Isso parece razoável. Mas o que deve ser contestado é que a IA é
um mapa fortemente comprimido e distorcido do território e que esse mapa,
como muitas formas de automação, não está aberto à negociação da
comunidade. AI é um mapa do território sem acesso e consentimento da
comunidade.34
Como o aprendizado de máquina traça um mapa estatístico do mundo? Vamos
encarar o caso específico do reconhecimento de imagens (a forma básica
do trabalho de percepção, que foi codificado e automatizado como
reconhecimento de padrões).35 Dada uma imagem a ser classificada, o
algoritmo detecta as bordas de um objeto como a distribuição estatística de
pixels escuros cercados por pixels claros (um padrão visual típico). O algoritmo
não sabe o que é uma imagem, não percebe uma imagem como a cognição
humana, apenas calcula pixels, valores numéricos de brilho e proximidade. O
algoritmo é programado para registrar apenas a borda escura de um perfil (que
se ajusta no padrão desejado) e não, exatamente, todos os pixels da imagem
(o que resultaria em um superajuste e na repetição de todo o campo visual).
Diz-se que um modelo estatístico é treinado com sucesso quando
pode ajustar [fit] elegantemente apenas os padrões importantes dos dados de
treinamento e aplicar esses padrões também aos novos dados “em estado
selvagem”. Se um modelo aprende muito bem os dados de treinamento, ele
reconhece apenas correspondências exatas dos padrões originais e ignorará
aqueles com semelhanças próximas, “em estado selvagem”. Neste caso, o
modelo é superajustado [overfitting], porque aprendeu meticulosamente tudo
(incluindo os ruídos) e não é capaz de distinguir um padrão de seu background.
Por outro lado, o modelo é subajustado [underfitting] quando não for capaz de
detectar padrões significativos a partir dos dados de treinamento. As noções de
superajuste, ajuste e subajuste de dados podem ser visualizadas em um plano
cartesiano.

O desafio de proteger a precisão do aprendizado de máquina está na


calibração do equilíbrio entre o subajuste e o superajusta dos dados, o que é
difícil de executar devido a diferentes vieses da máquina. Aprendizado de
máquina é um termo que, tal como “IA”, antropomorfiza uma parte da
tecnologia: o aprendizado de máquina não aprende nada no sentido apropriado
da palavra, como um humano; o aprendizado de máquina simplesmente
mapeia uma distribuição estatística de valores numéricos e desenha uma
função matemática que, esperançosamente, se aproxima da compreensão
humana. Dito isto, o aprendizado de máquina pode, por esse motivo, lançar
uma nova luz sobre as maneiras pelas quais os seres humanos compreendem.
O modelo estatístico dos algoritmos de aprendizado de máquina também é
uma aproximação no sentido de adivinhar as partes ausentes do gráfico de
dados: por meio de interpolação, que é a previsão de um output y dentro do
intervalo conhecido do input x no conjunto de dados de treinamento, ou
por extrapolação, que é a previsão do output y além dos limites de x,
geralmente com altos riscos de imprecisão. Isso é o que “inteligência” significa
hoje em inteligência da máquina: extrapolar uma função não linear além dos
limites de dados conhecidos. Como Dan McQuillian coloca apropriadamente:
“Não há inteligência em inteligência artificial, nem aprender, mesmo que seu
nome técnico seja aprendizado de máquina, ela é simplesmente minimização
matemática”.36
É importante lembrar que a “inteligência” do aprendizado de máquina não é
dirigida por fórmulas exatas de análise matemática, mas por algoritmos
de aproximação de força bruta. O formato da função de correlação entre
a input x e a output x é calculado algoritmicamente, passo a passo, através de
processos mecânicos cansativos de ajuste gradual (como descida do gradiente
[gradient descent], por exemplo) que são equivalentes ao cálculo diferencial de
Leibniz e Newton. Diz-se que as redes neurais estão entre os algoritmos mais
eficientes, porque esses métodos diferenciais podem se aproximar da forma de
qualquer função, com camadas suficientes de neurônios e recursos
computacionais abundantes.37 A aproximação gradual de força bruta de uma
função é o principal recurso da IA de hoje, e somente dessa perspectiva é
possível entender suas potencialidades e limitações – particularmente a
escalada da sua pegada de carbono (o treinamento de redes neurais profundas
requer quantidades exorbitantes de energia devido à descida do gradiente e
algoritmos de treinamento que operam com base em ajustes infinitesimais
contínuos).38

7. Mundo em vetor
As noções de ajuste, superajuste, subajuste, interpolação e extrapolação
podem ser facilmente visualizadas em duas dimensões, mas os modelos
estatísticos geralmente operam em espaços multidimensionais de dados. Antes
de serem analisados, os dados são codificados em um espaço vetorial
multidimensional [multi-dimensional vector space] que está longe de ser
intuitivo. O que é um espaço vetorial e por que é multidimensional? Cardon,
Cointet e Mazière descrevem a vetorização dos dados desta maneira:
Uma rede neural requer que os inputs da calculadora assumam a forma
de um vetor. Portanto, o mundo deve ser codificado antecipadamente na forma
de uma representação vetorial puramente digital. Enquanto certos objetos,
como imagens, são naturalmente divididos em vetores, outros objetos
precisam ser ´incorporados´ dentro de um espaço vetorial antes que seja
possível calculá-los ou classificá-los com redes neurais. Este é o caso do texto,
que é o exemplo prototípico. Para inserir uma palavra em uma rede neural, a
técnica Word2vec a “incorpora” em um espaço vetorial que mede sua distância
de outras palavras no corpus. Assim, as palavras herdam uma posição dentro
de um espaço com várias centenas de dimensões. A vantagem de tal
representação reside nas inúmeras operações oferecidas por essa
transformação. Dois termos cujas posições inferidas estão próximas umas das
outras neste espaço são semelhantes semanticamente; diz-se que essas
representações estão distribuídas: o vetor do conceito ‘apartamento’ [-0,2, 0,3,
-4,2, 5,1 …] será semelhante ao de ‘casa’ [-0,2, 0,3, -4,0, 5,1. ..] (…) Enquanto
o processamento de linguagem natural foi pioneiro na “incorporação” de
palavras em um espaço vetorial, hoje estamos testemunhando uma
generalização do processo de incorporação que se estende progressivamente
a todos os campos de aplicativos: graph2vec, textos com paragraph2vec,
filmes com movie2vec, significados das palavras com sens2vec, estruturas
moleculares com mol2vec, etc. Segundo Yann LeCun, o objetivo dos
projetistas de máquinas conexionistas é colocar o mundo em um vetor
(world2vec).39

O espaço vetorial multidimensional é outra razão pela qual a lógica do


aprendizado de máquina é difícil de compreender. O espaço vetorial é outra
técnica cultural nova, com a qual vale a pena se familiarizar. O campo das
Humanidades Digitais, em particular, tem abordado a técnica de vetorização
através da qual nosso conhecimento coletivo é invisivelmente renderizado e
processado. A definição original de William Gibson de ciberespaço profetizou,
muito provavelmente, a chegada de um espaço vetorial em vez da realidade
virtual: “Uma representação gráfica de dados abstraídos dos bancos de todos
os computadores do sistema humano. Complexidade impensável. Linhas de luz
variavam no não-espaço da mente, aglomerados [clusters] e constelações de
dados. Como as luzes da cidade, recuando.”40
A direita: espaço vetorial de sete palavras em três contextos 41

Deve-se enfatizar, no entanto, que o aprendizado de máquina ainda se


assemelha mais a um artesanato do que a matemática exata. A IA ainda é uma
história de “hacks and tricks”, em vez de intuições místicas. Por exemplo, um
truque de compressão de informações é a redução dimensional, usada para
evitar a Maldição da Dimensionalidade, que é o crescimento exponencial da
variedade de recursos no espaço vetorial. As dimensões das categorias que
mostram baixa variação no espaço vetorial (ou seja, cujos valores flutuam
apenas um pouco) são agregadas para reduzir os custos de cálculo. A redução
dimensional pode ser usada para agrupar significados de palavras (como no
modelo word2vec), mas também pode levar à redução categorial, que pode
ter um impacto na representação da diversidade social. A redução dimensional
pode reduzir as taxonomias e introduzir viés, normalizando ainda mais a
diversidade mundial e obliterando identidades únicas.42

8. A sociedade da classificação e previsão robótica


A maioria das aplicações contemporâneas do aprendizado de máquina pode
ser descritas de acordo com duas modalidades a de classificação e a de
previsão, que descrevem os contornos de uma nova sociedade de controle e
governança estatística. A classificação é conhecida como reconhecimento de
padrões, enquanto a previsão pode ser definida também como geração de
padrões. Um novo padrão é reconhecido ou gerado ao interrogar o núcleo
interno do modelo estatístico.
A classificação de aprendizado de máquina geralmente é empregada para
reconhecer um sinal, um objeto ou um rosto humano e atribuir uma categoria
correspondente (etiqueta) de acordo com a taxonomia ou convenção cultural.
Um arquivo de input (e.g. um tiro na cabeça capturado por uma câmera de
vigilância) é executado no modelo para determinar se ele está dentro da sua
distribuição estatística ou não. Em caso positivo, é atribuída a etiqueta
de output correspondente. Desde os tempos da Perceptron, a classificação tem
sido a aplicação originária das redes neurais: com a Deep Learning, essa
técnica é onipresente em classificadores de reconhecimento de rosto, que são
implantados por forças policiais, assim como por fabricantes de smartphones.
A previsão de aprendizado de máquina é usada para projetar tendências e
comportamentos futuros de acordo com os passados, ou seja, para completar
uma informação conhecendo apenas uma parte dela. Na modalidade de
previsão, uma pequena amostra de dados de input (um iniciador) é usada para
prever a parte ausente das informações, seguindo mais uma vez a distribuição
estatística do modelo (pode ser a parte de um gráfico numérico orientado para
o futuro ou o parte ausente de uma imagem ou arquivo de áudio). Aliás,
existem outras modalidades de aprendizado de máquina: a distribuição
estatística de um modelo pode ser visualizada dinamicamente por meio de uma
técnica chamada exploração espacial latente e, em algumas aplicações
recentes de design, também exploração de padrões [pattern exploration].43
A classificação e a previsão de aprendizado de máquina estão se tornando
técnicas onipresentes que constituem novas formas de vigilância e governança.
Alguns aparelhos, como veículos autônomos e robôs industriais, podem ser
uma integração de ambas as modalidades. Um veículo autônomo é treinado
para reconhecer diferentes objetos na estrada (pessoas, carros, obstáculos,
placas) e prever ações futuras com base em decisões que um motorista
humano tomou em circunstâncias semelhantes. Mesmo que reconhecer um
obstáculo na estrada pareça um gesto neutro (não é), identificar um ser
humano de acordo com categorias de gênero, raça e classe (e na recente
pandemia do COVID-19 como doente ou imune), como instituições estatais
cada vez mais o fazem, é o gesto de um novo regime disciplinar. A soberba da
classificação automatizada causou o renascimento das técnicas lombrosianas
reacionárias que se pensava terem sido consignadas à história, técnicas como
o Reconhecimento Automático de Gênero (AGR), “um subcampo de
reconhecimento facial que visa identificar algoritmicamente o gênero de
indivíduos a partir de fotografias ou vídeos”.44
Recentemente, a modalidade generativa de aprendizado de máquina teve um
impacto cultural: seu uso na produção de artefatos visuais foi recebido pelos
meios de comunicação de massa como a idéia de que a inteligência artificial é
“criativa” e pode autonomamente fazer arte. Uma obra de arte que se diz ter
sido criada pela IA sempre oculta um operador humano, que aplica a
modalidade generativa de uma rede neural treinada em um conjunto de dados
específico. Nesta modalidade, a rede neural é executada ao
contrário (movendo-se da menor camada de output em direção à maior
camada de input) para gerar novos padrões após ser treinada para classificá-
los, um processo que geralmente se move da maior camada de input para a
menor camada de output. A modalidade generativa, no entanto, tem algumas
aplicações úteis: pode ser usada como uma espécie de verificação da
realidade para revelar o que o modelo aprendeu, ou seja, para mostrar como o
modelo “vê o mundo”. Pode ser aplicado ao modelo de um carro autônomo, por
exemplo, para verificar como o cenário da estrada é projetado.
Uma maneira famosa de ilustrar como um modelo estatístico “vê o mundo” é o
Google DeepDream. O DeepDream é uma rede neural convolucional baseada
no Inception (treinada no conjunto de dados ImageNet mencionado acima) que
foi programada por Alexander Mordvintsev para projetar padrões alucinatórios.
Mordvintsev teve a idéia de “virar a rede de cabeça para baixo”, ou seja,
transformar um classificador em um gerador, usando algum ruído aleatório ou
imagens genéricas da paisagem como output.45 Ele descobriu que “redes
neurais treinadas para discriminar entre diferentes tipos de imagens também
possuem bastante da informação necessária para gerar imagens”. Nos
primeiros experimentos do DeepDream, penas de pássaros e olhos de cães
começaram a surgir em toda parte, à medida que as raças de cães e as
espécies de pássaros são amplamente super-representadas no ImageNet.
Também foi descoberto que a categoria ‘haltere’ era aprendida com um braço
humano surreal sempre ligado a ele. Prova de que muitas outras categorias do
ImageNet são deturpadas.
As duas principais modalidades de classificação e geração podem ser
montadas em outras arquiteturas, como nas Redes Adversárias Generativas
(GANs). Na arquitetura GAN, uma rede neural com o papel
de discriminador (um classificador tradicional) precisa reconhecer uma imagem
produzida por uma rede neural com o papel de gerador, em um loop de reforço
que treina os dois modelos estatísticos simultaneamente. Para algumas
propriedades convergentes de seus respectivos modelos estatísticos, as GANs
se mostraram muito boas em gerar imagens altamente realistas. Essa
habilidade provocou seu abuso na fabricação de ‘falsificações profundas’ [deep
fakes]46. Em relação aos regimes da verdade, uma aplicação controversa
semelhante é o uso de GANs para gerar dados sintéticos em pesquisas sobre
câncer, nas quais redes neurais treinadas em conjuntos de dados
desequilibrados de tecidos cancerígenos começaram a alucinar o câncer onde
não havia.47 Nesse caso, “em vez de descobrir coisas, estamos inventando
coisas”, observa Fabian Offert, “o espaço da descoberta é idêntico ao espaço
de conhecimento que a GAN já tinha.(…) Enquanto nós pensamos que
estamos vendo através da GAN – olhando para algo com a ajuda de uma GAN
– estamos na verdade vendo dentro de uma GAN. A visão da GAN não é
realidade aumentada, é realidade virtual. GANs obscurecem a descoberta e a
invenção”.48 A simulação GAN de câncer no cérebro é um exemplo trágico de
alucinação científica movido a IA.

Joseph Paul Cohen, Margaux Luck and Sina Honari. ‘Distribution Matching
Losses CanHallucinate Features in Medical Image Translation’, 2018. Cortesia
dos autores.

9. Falhas de um instrumento estatístico: a não detecção do


novo
O poder normativo da IA no século XXI tem de ser analisada nestes termos
epistemológicos: o que significa enquadrar conhecimento coletivo como
padrões, e o que significa desenhar espaços vetoriais e distribuições
estatísticas de comportamentos sociais? Segundo Foucault, no início da
França moderna, o poder estatístico já era usado para medir normas sociais,
discriminando comportamento normal e anormal.49 A IA amplia facilmente o
“poder da normalização” das instituições modernas, como a burocracia, a
medicina e a estatística (originalmente, o conhecimento numérico possuído
pelo Estado sobre sua população), que agora passam para as mãos das
corporações de IA. A norma institucional tornou-se computacional: a
classificação do sujeito, de corpos e comportamentos parece não ser mais um
assunto para registros públicos, mas para algoritmos e centro de dados. 50 “A
racionalidade centrada nos dados”, concluiu Paula Duarte, “deve ser entendida
como uma expressão da colonialidade do poder.”51
Uma lacuna, um atrito, um conflito, no entanto, sempre persiste entre os
modelos estatísticos da IA e o sujeito humano que deve ser medido e
controlado. Essa lacuna lógica entre os modelos estatísticos da IA e a
sociedade é geralmente debatida como viés. Foi amplamente demonstrado
como o reconhecimento facial deturpa as minorias sociais e como os bairros
negros, por exemplo, são ignorados pelo serviço de logística e entrega movido
a IA.52 Se as discriminações de gênero, raça e classe são amplificadas pelos
algoritmos de IA, isso também faz parte de um problema maior de
discriminação e normalização no núcleo lógico do aprendizado de máquina. A
limitação lógica e política da IA é a dificuldade da tecnologia
no reconhecimento e previsão de um novo evento. Como o aprendizado de
máquina lida com uma anomalia verdadeiramente única, um comportamento
social incomum, um ato inovador de interrupção? As duas modalidades de
aprendizado de máquina exibem uma limitação que não é meramente uma
questão de viés.
Um limite lógico da classificação de aprendizado de máquina, ou
reconhecimento de padrões, é a incapacidade de reconhecer uma anomalia
única que aparece pela primeira vez, como uma nova metáfora na poesia, uma
nova piada na conversa cotidiana ou um obstáculo incomum (um pedestre? um
saco de plástico?) no cenário da estrada. A não detecção do novo (algo que
nunca ‘foi visto’ por um modelo e, portanto, nunca foi classificado antes em
uma categoria conhecida) é um problema particularmente perigoso para carros
autônomos e que já causou mortes. A previsão de aprendizado de máquina, ou
geração de padrões, mostra falhas semelhantes na adivinhação de tendências
e comportamentos futuros. Como uma técnica de compressão de informações,
o aprendizado de máquina automatiza a ditadura do passado, de taxonomias e
padrões comportamentais do passado, sobre o presente. Esse problema pode
ser chamado de regeneração do antigo – a aplicação de uma visão espaço-
temporal homogênea que restringe a possibilidade de um novo evento
histórico.
Curiosamente, no aprendizado de máquina, a definição lógica de um problema
de segurança também descreve o limite lógico de seu potencial criativo. Os
problemas característicos da previsão do novo estão logicamente
relacionados aos que caracterizam a geração do novo, porque a maneira
como um algoritmo de aprendizado de máquina prevê uma tendência em um
gráfico de tempo é idêntica à maneira como gera um novo trabalho artístico a
partir de padrões aprendidos. A pergunta banal “A IA pode ser criativa?” deve
ser reformulado em termos técnicos: o aprendizado de máquina é capaz de
criar obras que não são imitações do passado? O aprendizado de máquina é
capaz de extrapolar além dos limites estilísticos de seus dados de treinamento?
A ‘criatividade’ do aprendizado de máquina é limitada à detecção de estilos a
partir dos dados de treinamento e, em seguida, à improvisação aleatória dentro
desses estilos. Em outras palavras, o aprendizado de máquina pode explorar e
improvisar apenas dentro dos limites lógicos definidos pelos dados de
treinamento. Para todas essas questões, e seu grau de compressão de
informações, seria mais preciso denominar aprendizado de máquina como arte
estatística.

Lewis Fry Richardson, Previsão do Tempo por Processo Numérico, Cambridge


University Press, 1922.

Outro erro implícito do aprendizado de máquina é que a correlação estatística


entre dois fenômenos é frequentemente adotada para explicar a causa de um
para o outro. Nas estatísticas, é comumente entendido que a correlação não
implica causalidade, o que significa que apenas uma coincidência estatística
não é suficiente para demonstrar a causalidade. Um exemplo trágico pode ser
encontrado no trabalho do estatístico Frederick Hoffman, que em 1896 publicou
um relatório de 330 páginas para companhias de seguros para demonstrar uma
correlação racial entre ser um americano negro e ter uma expectativa de vida
curta.53 Na mineração superficial de dados, o aprendizado de máquina pode
construir qualquer correlação arbitrária que é, então, percebida como real. Em
2008, essa falácia lógica foi orgulhosamente adotada pelo diretor da Wired,
Chris Andersen, que declarou o “fim da teoria” porque “o dilúvio de dados torna
obsoleto o método científico”.54 Segundo Andersen, ele próprio não especialista
em método científico e inferência lógica, a correlação estatística é suficiente
para o Google administrar seus negócios de anúncios; portanto, também deve
ser bom o suficiente para descobrir automaticamente paradigmas científicos.
Até a Judea Pearl, pioneira em redes bayesianas, acredita que o aprendizado
de máquina é obcecado por “ajuste de curvas”, registrando correlações sem
fornecer explicações.55 Tal falácia lógica já se tornou política, se considerarmos
que as forças policiais em todo o mundo adotaram algoritmos de policiamento
preditivo.56 Segundo Dan McQuillan, quando o aprendizado de máquina é
aplicado à sociedade dessa maneira, ele se transforma em um aparato
biopolítico de preempção, que produz subjetividades que podem ser
posteriormente criminalizadas.57 Por fim, o aprendizado de máquina obcecado
por “ajuste de curvas” impõe uma cultura estatística e substitui a episteme
tradicional de causalidade (e responsabilidade [accountability] política) por uma
de correlações cegamente conduzidas pela automação da tomada de decisão.

10. Inteligência Adversarial Vs. Inteligência Artificial


Até agora, as difrações e alucinações estatísticas do aprendizado de máquina
foram seguidas passo a passo através das múltiplas lentes do Nooscópio.
Nesse ponto, a orientação do instrumento precisa ser revertida: as teorias
científicas, tanto quanto os dispositivos computacionais, tendem a consolidar
uma perspectiva abstrata – a “visão científica do lugar nenhum”, que
geralmente é apenas o ponto de vista do poder. O estudo obsessivo da IA pode
levar o estudioso a um abismo da computação e a ilusão de que a forma
técnica ilumina a social. Como Paola Ricaurte observa: “O extrativismo de
dados assume que tudo é uma fonte de dados”. 58 Como nos emancipar de uma
visão do mundo centrada em dados? É hora de perceber que não é o modelo
estatístico que constrói o sujeito, mas o sujeito que estrutura o modelo
estatístico. Os estudos internalistas e externalistas da IA precisam embaçar: as
subjetividades fazem a matemática do controle a partir de dentro, não de fora.
Seguindo o que Guattari disse sobre as máquinas em geral, a inteligência das
máquinas também é constituída de “formas hiper-desenvolvidas e hiper-
concentradas de certos aspectos da subjetividade humana”.59
Em vez de estudar apenas como a tecnologia funciona, a investigação crítica
estuda também como ela quebra, como os sujeitos se rebelam contra seu
controle normativo e os trabalhadores sabotam suas engrenagens. Nesse
sentido, uma maneira de soar os limites da IA é observar as práticas de
hackers. O hacking é um método importante de produção de conhecimento,
uma investigação epistêmica crucial na obscuridade da IA.60 Os sistemas de
aprendizagem profunda para reconhecimento facial desencadearam, por
exemplo, formas de ativismo de contra-vigilância. Através de técnicas de
ofuscação facial, os seres humanos decidiram tornar-se ininteligíveis à
inteligência artificial: isto é, tornarem-se, eles próprios, caixas pretas. As
técnicas tradicionais de ofuscação contra a vigilância adquirem imediatamente
uma dimensão matemática na era do aprendizado de máquina. Por exemplo, o
artista e pesquisador de IA Adam Harvey inventou um tecido de camuflagem
chamado HyperFace que engana os algoritmos de visão de computador para
ver vários rostos humanos onde não há nenhum.61 O trabalho de Harvey
provoca a pergunta: o que constitui uma face para um olho humano, por um
lado, e para um algoritmo de visão computacional, por outro? As falhas neurais
do HyperFace exploram essa lacuna cognitiva e revelam qual é a aparência de
um rosto humano para uma máquina. Essa lacuna entre a percepção humana
e da máquina ajuda a introduzir o crescente campo de ataques adversariais.

Adam Harvey, padrão HyperFace, 2016

Os ataques adversariais[2] exploram pontos cegos e regiões fracas no


modelo estatístico de uma rede neural, geralmente para enganar um
classificador e fazê-lo perceber algo que não existe. No reconhecimento de
objetos, um exemplo adversarial pode ser uma imagem manipulada de uma
tartaruga, que parece inócua para o olho humano, mas é classificada
erroneamente por uma rede neural como um rifle.62 Exemplos adversariais
podem ser percebidos como objetos 3D e até adesivos para sinais de trânsito
que podem desencaminhar carros autônomos (que podem ler um limite de
velocidade de 120 km/h onde na verdade é de 50 km/h). 63 Exemplos
adversariais são projetados sabendo o que uma máquina nunca viu antes.
Esse efeito é obtido também pela engenharia reversa do modelo estatístico ou
poluindo o conjunto de dados de treinamento. Nesse último sentido, a técnica
de envenenamento de dados tem como alvo o conjunto de dados de
treinamento e apresenta dados medicados. Ao fazer isso, altera a precisão do
modelo estatístico e cria uma porta dos fundos que pode eventualmente ser
explorada por um ataque adversarial.64
O ataque adversarial parece apontar para uma vulnerabilidade matemática
comum a todos os modelos de aprendizado de máquina: “Um aspecto
intrigante dos exemplos adversariais é que um exemplo gerado para um
modelo é frequentemente classificado erroneamente por outros modelos,
mesmo quando eles têm arquiteturas diferentes ou foram treinados em
conjuntos de treinamento desconexos.”65 Ataques adversariais nos lembram a
discrepância entre a percepção humana e da máquina, e que o limite lógico do
aprendizado de máquina também é político. O limite lógico e ontológico do
aprendizado de máquina é o sujeito indisciplinado ou evento anômalo que
escapa à classificação e ao controle. O sujeito do controle algorítmico contra-
ataca. Ataques adversariais são uma maneira de sabotar a linha de montagem
do aprendizado de máquina, inventando um obstáculo virtual que pode deixar o
aparelho de controle em desacordo. Um exemplo adversarial é a sabotagem na
era da IA.
[2] N.T – Optamos por traduzir “adversarial” por adversarial e adversariais com
vista ao uso corrente no campo técnico da Inteligência Artificial, vide “Artificial
Intelligence: A Modern Approach” (4ºEd., 2020) de Stuart J. Russell.e Peter
Norvig.

11. Trabalho na era da IA


As naturezas do input e output do aprendizado de máquina devem ser
esclarecidas. Os problemas de IA não são apenas sobre viés de informação,
mas também sobre trabalho. A IA não é apenas um aparelho de controle, mas
também um aparelho produtivo. Como acabamos de mencionar, uma força de
trabalho invisível está envolvida em cada etapa de sua linha de montagem
(composição do conjunto de dados, supervisão de algoritmo, avaliação de
modelo etc.). Pipelines de infinitas tarefas irrigam do Norte Global para o Sul
Global; plataformas de trabalhadores da Venezuela, Brasil e Itália, por
exemplo, são cruciais para ensinar os carros autônomos alemães a “como
ver”.66 Contra a idéia de inteligência alienígena no trabalho, deve-se enfatizar
que, em todo o processo de computação da IA o trabalhador humano nunca
saiu do circuito, ou, com mais precisão, nunca saiu da linha de montagem.
Mary Gray e Siddharth Suri cunharam o termo ‘trabalho fantasma‘ para o
trabalho invisível que faz a IA parecer artificialmente autônoma.
Além de algumas decisões básicas, a inteligência artificial de hoje não pode
funcionar sem humanos no circuito. Seja na entrega de um feed de notícias
relevante ou na execução de um pedido complicado de pizza, quando a
inteligência artificial (IA) tropeça ou não consegue terminar o trabalho, milhares
de empresas chamam as pessoas para concluir o projeto silenciosamente.
Essa nova linha de montagem digital agrega o input coletivo de trabalhadores
distribuídos, envia peças de projetos em vez de produtos e opera em diversos
setores econômicos em todos os momentos do dia e da noite.
Automação é um mito porque as máquinas, incluindo a IA, pedem
constantemente ajuda humana, alguns autores sugeriram substituir
‘automação’ pelo termo mais preciso heteromação.67 Heteromação significa
que a narrativa familiar da IA como perpetuum mobile só é possível graças a
um exército de reserva de trabalhadores.
No entanto, existe uma maneira mais profunda pela qual o trabalho constitui a
IA. A fonte de informações do aprendizado de máquina (qualquer que seja o
nome: dados de input, dados de treinamento ou apenas dados) é sempre uma
representação de habilidades, atividades e comportamentos humanos, da
produção social em geral. Todos os conjuntos de dados de treinamento são,
implicitamente, um diagrama da divisão do trabalho humano que a IA precisa
analisar e automatizar. Os conjuntos de dados para reconhecimento de
imagem, por exemplo, registram o trabalho visual que os motoristas, guardas e
supervisores geralmente executam durante suas tarefas. Até conjuntos de
dados científicos dependem de trabalho científico, planejamento de
experimentos, organização de laboratórios e observação analítica.68 Em
resumo, a origem da inteligência das máquinas é a divisão do trabalho e seu
principal objetivo é a automação do trabalho .
Os historiadores da computação já salientaram os primeiros passos da
inteligência de máquina no projeto do século XIX de mecanizar a divisão do
trabalho mental, especificamente a tarefa de cálculo a mão. 69 O
empreendimento da computação desde então tem sido uma combinação de
vigilância e disciplina do trabalho, do cálculo ótimo de mais-valia e do
planejamento de comportamentos coletivos.70 A computação foi estabelecida
por, e ainda segue assim impondo, um regime de visibilidade e inteligibilidade,
não apenas de raciocínio lógico. A genealogia da IA como um aparato de poder
é confirmada hoje por seu amplo emprego em tecnologias de identificação e
predição, mas a principal anomalia que sempre precisa ser computada é
a desorganização do trabalho.
Como tecnologia de automação, a IA terá um tremendo impacto no mercado de
trabalho. Se a Deep learning tiver uma taxa de erro de 1% no reconhecimento
de imagens, por exemplo, significa que aproximadamente 99% do trabalho de
rotina baseado em tarefas visuais (por exemplo, segurança aeroportuária) pode
ser potencialmente substituído (restrições legais e oposição sindical
permitindo). O impacto da IA no trabalho é bem descrito (da perspectiva dos
trabalhadores, finalmente) em um documento do European Trade Union
Institute, que destaca as “sete dimensões essenciais que a futura
regulamentação deve abordar para proteger os trabalhadores”: 1) salvaguardar
a privacidade dos trabalhadores e proteção de dados; 2) abordar o problema
da vigilância, rastreamento e monitoramento; 3) tornar transparente o objetivo
dos algoritmos de IA; 4) garantir o exercício do ‘direito à explicação’ em relação
às decisões tomadas por algoritmos ou modelos de aprendizado de máquina;
5) preservar a segurança e a proteção dos trabalhadores nas interações
homem-máquina; 6) aumentar a autonomia dos trabalhadores nas interações
homem-máquina; 7) permitir que os trabalhadores se tornem alfabetizados em
IA.”71
Por fim, o Nooscópio se manifesta por uma nova “Questão das máquinas” na
era da IA. A Questão das máquinas foi um debate provocado na Inglaterra
durante a revolução industrial, quando a resposta ao emprego de máquinas e o
subsequente desemprego tecnológico dos trabalhadores foi uma campanha
social para mais educação sobre máquinas, que assumiu a forma do
Movimento do Instituto de Mecânica.72 Hoje, é necessária uma Questão das
Máquinas Inteligentes para desenvolver mais inteligência coletiva sobre
‘inteligência de máquina’, mais educação pública em vez de ‘máquinas
aprendizes’ e seu regime de extrativismo do conhecimento (o que reforça
antigas rotas coloniais, basta olharmos o mapa da rede das plataformas
de crowdsourcing hoje). Também no Norte Global, essa relação colonial entre a
IA corporativa e a produção de conhecimento como um bem comum deve ser
destacada. O objetivo do Nooscópio é expor a sala oculta da corporação
Mechanical Turk e iluminar o trabalho invisível do conhecimento que faz a
inteligência da máquina parecer ideologicamente viva.

Notas
1. Sobre a autonomia da tecnologia, veja: Langdon Winner, Autonomous
Technology: Technics Out-of-Control as a Theme in Political Thought.
Cambridge, MA: MIT Press, 2001.
2. Sobre a extensão do poder colonial nas operações de logística,
algoritmos e finanças, consulte: Sandro Mezzadra e Brett Neilson, The
Politics of Operations: Excavating Contemporary Capitalism. Durham:
Duke University Press, 2019. Sobre o colonialismo epistêmico da IA,
veja: Matteo Pasquinelli, ‘Three Thousand Years of Algorithmic
Rituals’ e-flux 101, 2019.
3. Humanidades digitais denominam uma técnica semelhante
chamada leitura distante [distant reading], que gradualmente envolve
análise de dados e aprendizado de máquina na história literária e da
arte. Veja: Franco Moretti, Distant Reading. London: Verso, 2013.
4. Gottfried W. Leibniz, ‘Preface to the General Science’, 1677. In: Phillip
Wiener (ed.) Leibniz Selections. New York: Scribner, 1951, 23.
5. Para uma história concisa da IA, veja: Dominique Cardon, Jean-Philippe
Cointet and Antoine Mazières, ‘Neurons Spike Back: The Invention of
Inductive Machines and the Artificial Intelligence Controversy.’ Réseaux
211, 2018.
6. Alexander Campolo and Kate Crawford, ‘Enchanted Determinism: Power
without Control in Artificial Intelligence.’ Engaging Science, Technology,
and Society, 6, 2020.
7. O uso da analogia visual também visa registrar a distinção entre imagem
e lógica, representação e inferência, na composição técnica da IA. Os
modelos estatísticos de aprendizado de máquina são representações
operativas (no sentido das imagens operativas de Harun Farocki).
8. Para um estudo sistemático das limitações lógicas do aprendizado de
máquina, consulte: Momin Mailk, ‘A Hierarchy of Limitations in Machine
Learning.’ Arxiv preprint, 2020. https://arxiv.org/abs/2002.05193
9. Para obter uma lista mais detalhada dos vieses de IA, consulte: John
Guttag e Harini Suresh, ‘A Framework for Understanding Unintended
Consequences of Machine Learning.’ Arxiv preprint, 2019.
https://arxiv.org/abs/1901.10002 Veja também: Aram Galstyan, Kristin
Lerman, Ninareh Mehrabi, Fred Morstatter e Nripsuta Saxena, ‘A Survey
on Bias and Fairness in Machine Learning.’ Arxiv preprint,
2019. https://arxiv.org/abs/1908.09635
10. Virginia Eubanks, Automating Inequality. New York: St. Martin’s Press,
2018. Veja também: Kate Crawford, ‘The Trouble with Bias.’ Keynote
lecture, Conference on Neural Information Processing Systems, 2017.
11. Ruha Benjamin, Race After Technology: Abolitionist Tools for the New
Jim Code. Cambridge, UK: Polity, 2019, 5.
12. Cientistas da computação argumentam que a IA pertence a um
subcampo do processamento [signal processing ] de sinais, que é a
compressão de dados.
13. Matteo Pasquinelli, The Eye of the Master. London: Verso, no prelo.
14. Projetos como Explainable Artificial Intelligence, Interpretable Deep
Learning e Heatmapping, entre outros, demonstraram que é possível
invadir a ‘caixa preta’ do aprendizado de máquina. No entanto, a total
interpretabilidade e explicabilidade dos modelos estatísticos de
aprendizado de máquina continua sendo um mito. Veja: Zacharay
Lipton, ‘The Mythos of Model Interpretability.’ ArXiv preprint, 2016.
https://arxiv.org/abs/1606.03490
15. A. Corsani, B. Paulré, C. Vercellone, J.M. Monnier, M. Lazzarato, P.
Dieuaide e Y. Moulier-Boutang, ‘Le Capitalisme cognitif comme sortie de
la crise du capitalisme industriel. Un programme de recherché’, Paris:
Laboratoire Isys Matisse, Maison des Sciences Economiques, 2004.
Veja também : Zuboff, Shoshana, The Age of Surveillance Capitalism:
The Fight for a Human Future at the New Frontier of Power. London:
Profile Books, 2019.
16. Lisa Gitelman (ed.), “Raw Data” Is an Oxymoron, Cambridge, MA: MIT
Press, 2013.
17. Na aprendizagem supervisionada. O aprendizado auto-supervisionado
também mantém formas de intervenção humana.
18. Sobre a taxonomia como forma de conhecimento e poder, veja: Michel
Foucault, The Order of Things. London: Routledge, 2005.
19. Como o Amazon Mechanical Turk, cinicamente denominado “inteligência
artificial artificial” por Jeff Bezos. Veja: J. Jason Pontin, ‘Artificial
Intelligence, With Help from the Humans.’ The New York Times, 25
Março 2007.
20. Embora a arquitetura convolucional remonta ao trabalho de Yann
LeCunn no final dos anos 80, a aprendizagem profunda começa com
este artigo: Geoffrey Hinton, Alex Krizhevsky e Ilya Sutskever, ‘ImageNet
Classification with Deep Convolutional Neural
Networks.’ Communications of the ACM 60(6), 2017.
21. Para uma avaliação acessível (não muito crítica) do desenvolvimento do
ImageNet, consulte: Melanie Mitchell, Artificial Intelligence: A Guide for
Thinking Humans. London: Penguin, 2019.
22. O WordNet é”um banco de dados lexical de relações semânticas entre
palavras”, iniciado por George Armitage na Universidade de Princeton,
em 1985. Ele fornece uma rígida estrutura em árvores para definições.
23. Kate Crawford e Trevor Paglen, ‘Excavating AI: The Politics of Training
Sets for Machine Learning.’ 19 September 2019. https://excavating.ai
24. Adam Harvey e Jules LaPlace, Megapixel project, 2019.
https://megapixels.cc/about/ e : Madhumita Murgia, ‘Who’s Using Your
Face? The Ugly Truth About Facial Recognition.’ Financial Times, 19
April 2019.
25. O GDPR (General Data Protection Regulation) que foi aprovado pelo
Parlamento Europeu em maio de 2018 é, no entanto, uma melhoria em
comparação com o regulamento que está faltando nos Estados Unidos.
26. Frank Rosenblatt, ‘The Perceptron: A Perceiving and Recognizing
Automaton.’ Cornell Aeronautical Laboratory Report 85-460-1, 1957.
27. Warren McCulloch e Walter Pitts, ‘How We Know Universals: The
Perception of Auditory and Visual Forms.’ The Bulletin of Mathematical
Biophysics 9(3): 1947.
28. Os parâmetros de um modelo que são aprendidos com os dados são
chamados de “parâmetros”, enquanto os parâmetros que não são
aprendidos com os dados e são corrigidos manualmente são chamados
de ‘hiperparâmetros’ (estes determinam o número e as propriedades dos
parâmetros).
29. Este valor também pode ser um valor percentual entre 1 e 0.
30. https://keras.io/applications (documentação para modelos individuais).
31. Paul Edwards, A Vast Machine: Computer Models, Climate Data, and
The Politics of Global Warming. Cambridge, MA.
32. Veja o “Modelo do Sistema Terrestre Comunitário” [Community Earth
System Model] (CESM) desenvolvido pelo Centro Nacional de Pesquisa
Atmosférica em Bolder, Colorado, desde 1996. O CESM é uma
simulação numérica totalmente acoplada do sistema terrestre que
consiste em atmosfera, oceano, gelo, superfície terrestre, ciclo do
carbono e outros componentes. O CESM inclui um modelo climático que
fornece simulações de última geração do passado, presente e futuro da
Terra.” http://www.cesm.ucar.edu
33. George Box, ‘Robustness in the Strategy of Scientific Model Building.’
Technical Report #1954, Mathematics Research Center, University of
Wisconsin-Madison, 1979.
34. As escolas pós-coloniais e pós-estruturalistas de antropologia e
etnologia enfatizaram que nunca há território em si, mas sempre um ato
de territorialização.
35. O reconhecimento de padrões é uma entre muitas outras economias de
atenção. “Olhar é trabalhar”, como nos lembra Jonathan Beller. In.
Jonathan Beller, The Cinematic Mode of Production: Attention Economy
and the Society of the Spectacle. Lebanon, NH: University Press of New
England, 2006, 2.
36. Dan McQuillan, ‘Manifesto on Algorithmic Humanitarianism.’ Presented
at the symposium Reimagining Digital Humanitarianism, Goldsmiths,
University of London, February 16, 2018.
37. Conforme comprovado pelo Teorema da Aproximação Universal.
38. Ananya Ganesh, Andrew McCallum e Emma Strubell, ‘Considerações
sobre energia e políticas para aprendizado profundo em PNL’. Pré-
impressão do ArXiv, 2019. https://arxiv.org/abs/1906.02243
39. Cardon et al., ‘Neurons Spike Back’.
40. William Gibson, Neuromancer. Nova York: Ace Books, 1984, 69.
41. Fonte: corpling.hypotheses.org/495
42. Jamie Morgenstern, Samira Samadi, Mohit Singh, Uthaipon
Tantipongpipat e Santosh Vempala, ‘The Price of Fair PCA: One Extra
Dimension.’ Advances in Neural Information Processing Systems 31,
2018.
43. Veja a ideia de criação assistida e generativa em: Roelof Pieters e
Samim Winiger, ‘Creative AI: On the Democratisation and Escalation of
Creativity’ , 2016. http://www.medium.com/@creativeai/creativeai-
9d4b2346faf3
44. Os Keyes, ‘The Misgendering Machines: Trans/HCI Implications of
Automatic Gender Recognition.’ Proceedings of the ACM on Human-
Computer Interaction 2(88), November 2018.
https://doi.org/10.1145/3274357
45. Alexander Mordvintsev, Christophe Olah e Mike Tyka, ‘Inceptionism:
Going Deeper into Neural Networks.’ Google Research blog, June 17,
2015. https://ai.googleblog.com/2015/06/ inceptionism-going-deeper-into-
neural.html
46. Falsificações profundas [deep fakes] são mídias sintéticas, como vídeos
nos quais o rosto de uma pessoa é substituído pelos traços faciais de
outra pessoa, geralmente com o objetivo de criar notícias falsas.
47. Joseph Paul Cohen, Sina Honari e Margaux Luck, ‘Distribution Matching
Losses Can Hallucinate Features in Medical Image Translation.’
International Conference on Medical Image Computing and Computer-
Assisted Intervention. Cham: Springer, 2018. arXiv:1805.08841
48. Fabian Offert, Neural Network Cultures panel, Transmediale festival and
KIM HfG Karlsruhe. Berlin, 1 February 2020.
http://kim.hfg-karlsruhe.de/events/neural-network-cultures
49. Michel Foucault, Abnormal: Lectures at the Collège de France 1974-
1975. New York: Picador, 2004, 26.
50. Sobre normas computacionais, veja: Matteo Pasquinelli, ‘Arcana
Mathematica Imperii: The Evolution of Western Computational Norms.’
In: Maria Hlavajova et al. (eds), Former West. Cambridge, MA: MIT
Press, 2017.
51. Paola Ricaurte, ‘Data Epistemologies, The Coloniality of Power, and
Resistance.’ Television & New Media, 7 March 2019.
52. David Ingold e Spencer Soper, ‘Amazon Doesn’t Consider the Race of its
Customers. Should It?’, Bloomberg, 21 April 2016.
https://www.bloomberg.com/graphics/2016-amazon-same-day
53. Cathy O’Neil,Weapons of Math Destruction. New York: Broadway Books,
2016, ch9.
54. Chris Anderson, ‘The End of Theory: The Data Deluge Makes the
Scientific Method Obsolete.’ Wired, 23 June 2008. Para uma crítica,
consulte: Fulvio Mazzocchi, ‘Could Big Data Be the End of Theory in
Science? A Few Remarks on the Epistemology of Data-Driven Science.’
EMBO Reports 16(10), 2015.
55. Judea Pearl e Dana Mackenzie, The Book of Why: The New Science of
Cause and Effect. New York: Basic Books, 2018.
56. Experiências do Departamento de Polícia de Nova York desde o final
dos anos 80. Veja: Pasquinelli, ‘Arcana Mathematica Imperii’.
57. Dan McQuillan, ‘People’s Councils for Ethical Machine Learning.’ Social
Media and Society 4(2), 2018.
58. Ricaurte, ‘Data Epistemologies.’
59. Felix Guattari, Schizoanalytic Cartographies. London: Continuum, 2013,
2.
60. A relação entre IA e hackers não é tão antagônica quanto pode parecer:
geralmente se resolve em um ciclo de aprendizado, avaliação e reforço
mútuos.
61. Adam Harvey, projeto HyperFace, 2016.
https://ahprojects.com/hyperface
62. Anish Athalye et al., ‘Synthesizing Robers Adversarial Examples’. Pré-
impressão do ArXiv, 2017. https://arxiv.org/abs/1707.07397
63. Nir Morgulis et al., ‘Fooling a Real Car with Adversarial Traffic Signs.’
ArXiv preprint, 2019. https://arxiv.org/abs/1907.00374
64. O envenenamento por dados também pode ser empregado para
proteger a privacidade, inserindo informações anônimas ou aleatórias no
conjunto de dados.
65. Ian Goodfellow et al., ‘Explaining and Harnessing Adversarial Examples.’
ArXiv preprint, 2014. https://arxiv.org/abs/1412.6572
66. Florian Schmidt, ‘Crowdsourced Production of AI Training Data: How
Human Workers Teach Self-Driving Cars to See.’ Düsseldorf: Hans-
Böckler-Stiftung, 2019.
67. Hamid Ekbia e Bonnie Nardi, Heteromation, and Other Stories of
Computing and Capitalism. Cambridge, MA: MIT Press, 2017.
68. Para a idéia de inteligência analítica, veja: Lorraine Daston, ‘Calculation
and the Division of Labour 1750–1950.’ Bulletin of the German Historical
Institute 62, 2018.
69. Simon Schaffer, ‘Babbage’s Intelligence: Calculating Engines and the
Factory System’, Critical Inquiry 21, 1994. Lorraine Daston,
‘Enlightenment calculations’. Critical Inquiry 21, 1994. Matthew L.
Jones, Reckoning with Matter: Calculating Machines, Innovation, and
Thinking about Thinking from Pascal to Babbage. Chicago: University of
Chicago Press, 2016. 62, 2018.
70. Matteo Pasquinelli, ‘On the Origins of Marx’s General Intellect.’ Radical
Philosophy 2.06, 2019.
71. Aida Ponce, ‘Labour in the Age of AI: Why Regulation is Needed to
Protect Workers.’ ETUI Research Paper – Foresight Brief 8, 2020.
http://dx.doi.org/10.2139/ssrn.3541002
72. Maxine Berg, The Machinery Question and the Making of Political
Economy. Cambridge, UK: Cambridge University Press, 1980. De fato,
até o Economist alertou recentemente sobre ‘o retorno da questão das
máquinas’ na era da IA. Veja: Tom Standage, ‘The Return of the
Machinery Question.’ The Economist, 23 June 2016.

Você também pode gostar