Você está na página 1de 180

Theodore Roszak

O CULTO DA INFORMAÇÃO

Tradução e prefácio
José Luiz Aidar

editora brasiliense
1988
• O Direito de Comunicar — Desmond Fischer
• Informática e Sociedade — Henrique Rattner
• Logo: Computadores e Educação — Seymour Papert
• A Questão da Informática no Brasil — Rabah Benakouche (org.)
• O Segredo e a Informação — João Almino
Coleção Primeiros Passos
• O que é Cibernética — Jocelyn Bennatonn
• O que é Documentação — Johanna Smit
• O que é Ideologia — Marilena Chaui
• O que é Informática — João C. do Carmo
Coleção QualÉ
• A Questão da Reserva de Mercado — Olavo Setúbal
Copyright© by Theodore Roszak
Titulo original: The Cult of Information

Copyright © da tradução:
Editora Brasiliense S. A.,
para publicação e comercialização no Brasil.
Revisão:
Ana Maria Oliveira Mendes Barbosa Lúcio
Flávio de Souza Mesquita Filho

ISBN: 85-11-27006-X

editora brasiliense s.a. rua


da consolação, 2697
01416 - são paulo - sp.
fone (011) 280-1222
telex: 11 33271 DBLMBR
Sumário

Prefácio ............................................................................................................................................................ 7
Introdução ...................................................................................................................................................... 9
1. “Information, please” ............................................................................................................................12
Informação ao estilo antigo .............................................................................................................12
Surge o UNIVAC.....................................................................................................................................14
A cibernética e o segredo da vida..................................................................................................16
Mensagens sem significado..............................................................................................................18
O biocomputador ..................................................................................................................................22
2. Os negociantes de dados ....................................................................................................................25
A high tech (tecnologia de ponta) e os oportunistas conservadores ............................25
A política das regiões quentes e o estado de guerra .............................................................29
Hackers e hucksters ............................................................................................................................36
O silício e a seleção natural ..............................................................................................................40
Tecnofilia..................................................................................................................................................43
3. O curriculum secreto ...........................................................................................................................45
A quimera da utilização do computador ....................................................................................45
Uma solução na busca de problemas ...........................................................................................48
O campus computadorizado ............................................................................................................52
Poder e dependência ..........................................................................................................................58
Um universo particular......................................................................................................................61
4. O programa dentro do programa...................................................................................................64
O caso do LOGO .....................................................................................................................................64
5. Sobre idéias e dados ............................................................................................................................75
As idéias primeiro ................................................................................................................................75
Idéias mestras ........................................................................................................................................77
Experiência, memória, insight ........................................................................................................80
O gambito do empirista .....................................................................................................................85
Sem idéias não há informação ........................................................................................................87
6. O computador e a razão pura ..........................................................................................................90
A luz na caverna de Platão................................................................................................................90
A antiga mágica da matemática .....................................................................................................93
As seduções do software ...................................................................................................................95
Uma inteligência alienígena.............................................................................................................99
Um vôo além da realidade ............................................................................................................. 104
A quinta geração... e muito além ................................................................................................. 106
7. O computador e a contracultura ................................................................................................. 110
Um populismo eletrônico .............................................................................................................. 112
A heróica era do microcomputador .......................................................................................... 114
Saudosistas e tecnófilos .................................................................................................................. 118
Domos, dados e drogas ................................................................................................................... 121
Declínio e queda................................................................................................................................. 123
8. A política da informação ................................................................................................................. 126
Nada senão os fatos .......................................................................................................................... 126
Fartura de dados................................................................................................................................ 129
Questões de informação ................................................................................................................. 133
Comunidade on-line: a promessa das redes .......................................................................... 134
A biblioteca pública: o elo perdido da era da informação ............................................... 138
9. Nas mãos erradas............................................................................................................................... 141
Os fundamentos da tecnologia da informação ..................................................................... 141
A máquina da vigilância ................................................................................................................. 144
A máquina de pesquisas de opinião .......................................................................................... 148
A máquina de guerra........................................................................................................................ 153
Machine à gouverner ....................................................................................................................... 158
Nos limites da sanidade: a máquina psicótica ...................................................................... 161
10. O anjo de Descartes ........................................................................................................................ 167
Reflexões sobre a verdadeira arte de pensar........................................................................ 167
ÍNDICE REMISSIVO ................................................................................................................................ 175
Prefácio

O cinema da década de 80 já não apresenta com tanta insistência computadores


malévolos que acabam por tornar-se mais “inteligentes” do que seus projetistas, como em
2001. Ao contrário, dizem as personagens de 80: “O computador faz apenas aquilo que
programamos”. Mas os cientistas continuam falando de “inteligência artificial”. Eles
consideram que solucionar problemas é questão de “seleção apropriada”, ou seja, de
poder de seleção. Um sistema pode ter maiores condições de sobrevivência em relação a
outro se puder criar e modificar aspectos da própria estrutura que o tornem mais apto a
adaptação ao ambiente cambiante.
Ora, esses cientistas consideram o “poder intelectual” dessas máquinas passível de
ampliação; existem sistemas que aprendem, podendo, portanto, amplificar sua inteligência.
Se isso ocorre com a evolução do cérebro, por que não poderia ocorrer com outros tipos
de sistema? Escreve Ross Ashby:
“A novidade é que agora podemos fazê-lo sinteticamente,
conscientemente, deliberadamente”.
Será que podemos fabricar máquinas que venham a ser mais inteligentes do que o
homem? Esta questão é discutida por Roszak, para quem é preciso tomar cuidado com todo
esse “folclore” criado por aquilo que ele chama de “poderosos interesses” que anunciam
a chegada da ‘iluminada” Era da Informação como sendo a máxima realização da espécie
humana. Estamos entrando nessa era pela via da high tech (alta tecnologia). Mas é preciso
— é o que nos diz Roszak — não sermos ingênuos. É preciso saber, por exemplo, que nos
Estados Unidos o primeiro cliente da tecnologia da informação é o governo e em especial
os militares. E os especialistas em inteligência artificial constituem um segmento
significativo e bem financiado da comunidade tecno-científica: “eles deram ao modelo da
mente-computadora a sanção de uma proposição metafísica profunda”. Os publicitários
tornaram esse mundo-futuro liso e maravilhoso.
Nas mãos desse capitalismo-de-ponta essa promissora tecnologia está, segundo
Roszak, sendo degradada a um instrumento de vigilância e controle, de centralização
financeira e administrativa, de manipulação da opinião pública, de realização da guerra.
Daí decorre, para Roszak, o perigo do modelo de processamento de dados, que acaba sendo
utilizado para nos ensinar a pensar, fazendo com que — principalmente as crianças —
adotem as máquinas como modelos de seres pensantes. Como se precisássemos das
máquinas para aprender a pensar. Este livro é uma crítica a esse controle total, a esta
vontade de dominação completa.

* * *

Wiener definiu em 1948 a cibernética como a ciência do controle e da comunicação


no animal e na máquina. Essa “arte de governo” busca evitar a desagregação quando há
necessidade de se efetuar mudanças no sistema, ou seja, em caso de crise. O sistema, a
nível interno, seja em certa parte ou em inúmeros grupos componentes, necessita, para
superar a crise, mudar suas regras e normas de funcionamento. Mas a organização como
um todo pode abominar a desordem e aí instaura-se a contradição: a mudança necessária
é combatida. É preciso um salto até um novo estado de equilíbrio. Nesse sentido, sistema
“ultra-estável” é aquele que consegue readquirir o equilíbrio (a estabilidade) após uma
perturbação ou crise.
Vejamos um exemplo, com relação ao Chile de 70. Salvador Allende contrata o
especialista inglês em cibernética Stafford Beer para desenvolver e administrar uma ordem
econômica otimizada para o país. Mas enquanto o Chile procurava resolver sua crise
através de uma série de experiências completamente inéditas na América Latina, como por
exemplo a autogestão das fábricas (e mesmo a atualização cibernética), o sistema
americano viu-se ameaçado, temendo talvez a “exportação” da revolução cubana. Em
crise, o sistema americano resolveu terminar a crise chilena, através da CIA, inclusive com
a chamada “máquina da liberdade” de Beer, mostrando-se mais eficaz e “ultra-estável”
do que o sistema chileno.
É nesse sentido que o livro de Roszak se mostra pertinente: menos por sua acuidade
epistemológica ao buscar discutir “como pensa a mente”, do que quando desvela as
maquinações da economia política do projeto cibernético. Parece que não caminhamos
para a aldeia global ou para uma quarta onda. A inteligência artificial parece não estar
preocupada com a democracia, apesar do que afirmam a publicidade, os entusiastas da
computação e os donos das enormes empresas de computadores.
Não temos, portanto, em mãos uma crítica epistemológica à cibernética, mas uma
atenta observação daquilo que Roszak chama de “folclore” dos computadores, ou seja, a
imagem que certos setores ligados à informática e à ciência da computação constroem e
vendem como acessório do hardware e do software. Informações fundamentais para
podermos situar o funcionamento das gigantescas empresas de tecnologia de ponta na
dinâmica do capitalismo avançado.
O tradutor.
Introdução

O garoto do conto de fadas que inadvertidamente revelou a verdade embaraçosa de que o


imperador estava nu não sugeriu necessariamente que o imperador não merecesse respeito.
O pobre homem poderia ter um sem-número de qualidades que o redimissem. Em sua
vaidade, ele simplesmente não resistiu ao apelo de uma majestade inatingível. Seu erro mais
grave foi permitir que alguns oportunistas utilizassem sua credulidade e a de seus súditos.
Esta crítica do papel dos computadores em nossas vidas e especialmente em nossas
escolas tem a mesma dimensão limitada. Não pretendo desqualificar o computador,
considerando-o sem valor ou malévolo. Dificilmente eu poderia assumir esta posição. Os
originais deste livro foram digitados em um processador de palavras; em inúmeras ocasiões
a pesquisa para o livro exigiu ampla utilização de um banco de dados eletrônico. Minha
abordagem considera com saudável respeito as variadas possibilidades de auxílio trazidas
pelos computadores, evitando uma postura tecnofóbica dogmática. Quero, contudo, sugerir
que o computador, da mesma forma que o tão suscetível imperador, tem sido
ostensivamente “vestido” com pretensões inacreditáveis. Além disso, acredito que essas
pretensões foram difundidas por elementos de nossa sociedade que utilizam o poder do
computador de algumas formas moralmente bastante questionáveis. As promessas mais
veementes, com as quais esses elementos têm cercado tal poder, devem ser desafiadas, se
acreditarmos que o computador não deve ser confiado a mãos erradas.
Deve ficar claro que meu interesse nessas páginas não está na tecnologia dos
computadores, mas em seu folclore: as imagens de seu poder, as ilusões de bem-estar, as
fantasias e desejos que surgiram em tomo da máquina. Em primeiro lugar, meu alvo é o
conceito que está intimamente ligado à tecnologia no que se refere à opinião pública:
informação. A informação tem sido considerada como aquela seda impalpável, invisível,
mas aclamada, com a qual foi supostamente tecida a vestimenta etérea do imperador. A
palavra recebeu definições globais ambiciosas que impressionavam as pessoas. Palavras
que passam a tudo significar acabam por significar nada; apesar disso, seu completo vazio
pode permitir que sejam preenchidas com um glamour hipnotizante. A conversa imprecisa,
frouxa, mas efusiva, que ouvimos atualmente em todos os lugares, sobre “economia
informacional”, ou “sociedade da informação”, tem exatamente essa função. Tais frases
“contagiantes” e clichês são fetiches de um culto público tão difundido. Como todos os
cultos, também esse tem a intenção de recrutar a aquiescência e a submissão não refletidas.
Pessoas que não têm idéia clara do que quer dizer informação, ou por que poderiam precisar
dela, são preparadas para acreditar que vivemos numa Era da Informação, que faz de todos
os computadores ao nosso redor aquilo que as relíquias da Cruz significavam na Idade da
Fé: emblemas de salvação.
A informação teve uma carreira extraordinariamente ascendente no vocabulário do
público nos últimos quarenta anos. Apesar de estar entre os candidatos menos prováveis ao
elevado status de palavra “divina”, ela o conseguiu, e não por acidente. A partir de sua
esotérica redefinição pelos teóricos da informação durante a Segunda Guerra, veio com o
objetivo de acompanhar uma transição histórica em nossa vida econômica, unindo
importantes interesses corporativistas, o governo, as instituições científicas e, finalmente,
alimentando a retórica persuasiva de anunciantes e comerciantes. Mesmo que considerando-
o somente como um tema unificador que mantém juntas tantas forças sociais poderosas, o
conceito já mereceria atenção crítica. Mas a Era da Informação entra agora no curriculum
educacional de forma particularmente insidiosa e agressiva, que poderia distorcer o próprio
significado do pensamento. Esta é a principal preocupação deste estudo.
Dois elementos distintos aparecem juntos no computador: a capacidade de
armazenar grandes quantidades de informação e a capacidade de processar essa informação
de acordo com procedimentos lógicos bem determinados. Cada uma será examinada nos
capítulos 5 e 6, respectivamente, e explorada quanto a sua relação com o pensamento.
Veremos como o culto à informação escolhe um desses elementos (algumas vezes opta por
ambos) e daí infere seu valor intelectual. Uma vez que a capacidade de armazenar dados
corresponde, de certo modo, àquilo que chamamos memória nos seres humanos, e uma vez
que a capacidade para seguir procedimentos lógicos corresponde, de certo modo, àquilo que
chamamos raciocínio nos seres humanos, muitos membros desse culto concluíram que
aquilo que fazem os computadores corresponde, de certo modo, ao que chamamos
pensamento. Não há grande dificuldade para persuadir o grande público de tal conclusão,
pois os computadores realizam processamento de dados em intervalos de tempo pequenos
e em espaços exíguos, bem abaixo do nível de “visibilidade”; não parecem com outras
máquinas quando estão em funcionamento. Parecem estar operando leve e silenciosamente,
como faz o próprio cérebro ao lembrar, raciocinar e pensar.
Por outro lado, aqueles que projetam e constroem computadores sabem exatamente
como as máquinas estão trabalhando sob as profundezas de seus semicondutores.
Computadores podem ser desmontados, examinados minuciosamente e montados
novamente. Suas atividades podem ser rastreadas, analisadas, medidas e, dessa forma,
claramente entendidas — o que é impossível com relação ao cérebro. Isto levanta a
suposição tentadora, por parte dos construtores e projetistas, de que os computadores podem
nos contar algo sobre o cérebro, de que eles podem servir de modelos da mente, que passa,
então, a ser vista como uma espécie de máquina processadora de informação, mas
possivelmente não tão boa quanto a máquina.
Meu argumento consiste justamente em insistir que há uma distinção fundamental
entre aquilo que faz a máquina, ao processar informação, e o que faz a mente, quando pensa.
Numa época em que os computadores estão sendo introduzidos maciçamente nas escolas,
esta distinção deve estar bem clara tanto para professores quanto para estudantes. Mas,
graças à mística típica do culto que cerca os computadores, a linha que divide mente e
máquina está sofrendo perigosas mudanças. Em conseqüência disso, os poderes do
raciocínio e da imaginação, que as escolas existem para celebrar e reforçar, estão sob perigo
de serem enfraquecidos com simulações mecânicas de nível inferior.
Se queremos recuperar a verdadeira arte de pensar, tirando-a dessa terrível
confusão,* devemos começar abrindo caminho através da vegetação rasteira dos exageros
da publicidade, das ficções da mídia e da propaganda comercial. Mas tendo feito isto para
limpar o terreno, acabamos por chegar no âmago filosófico do culto à informação, que é
criação tanto das academias e laboratórios quanto dos mercados. Mentes privilegiadas no
campo da ciência de computação se ligaram ao culto a fim de obter prestígio e lucro. Uma

*
No original, crippling confusion: confusão aleijada, que leva à incapacidade. (N. T.)
vez que os “mascates” aliciaram tantos cientistas para sua causa, há uma série de questões
de cunho intelectual e de interesses políticos que devem ser examinados se quisermos
entender toda a influência, todo o prestígio dos computadores em nossa sociedade. Para
sermos claros, os poderes e propósitos da mente humana estão, de forma bastante
contundente, em debate. Se, finalmente, os educadores também forem arrastados pelo culto,
podemos vislumbrar a geração atual de estudantes tolhida seriamente em sua capacidade de
pensar e resolver as questões sociais e éticas que nos confrontam, à medida que
atravessamos o último estágio da revolução industrial ainda em curso.
A assim chamada economia informatizada pode não ser aquilo que seus mais
notáveis incentivadores nos levaram a acreditar. Não é a utopia futurista há tanto tempo
prevista pela ficção científica. É, contudo, uma transição significativa e excitante em nossa
história industrial. Nenhuma tecnologia expandiu anteriormente suas potencialidades tão
rapidamente quanto os computadores e as telecomunicações. É compreensível que aqueles
de nós que estão testemunhando esta transformação/turbilhão, deveriam sentir-se aturdidos
com a investida (o rush) das inovações, com o súbito influxo de novos poderes técnicos.
Nós vimos, porém, muitas tecnologias do passado conduzirem a sérios problemas, para
deixar que nossa atenção crítica seja mal dirigida pelos entusiastas dos computadores. A
tecnologia da informação apresenta a capacidade óbvia de concentrar poder político, de
criar novas formas de dominação e confusão (no sentido de uma pasmaceira geral) sociais.
Quanto menos preparados nos sentirmos para questionar os usos do computador, mais
teremos de assumir e sofrer as suas perigosas conseqüências.
Finalmente, este livro trata tanto da arte de pensar quanto da política e da tecnologia
dá informação. Há, sem dúvida, uma série de questões humanistas que perpassam a crítica.
Eu parto da suposição de que a mente — e não apenas na forma da inteligência humana —
pode ser considerada tão próxima de uma maravilha da natureza quanto qualquer milagre
reverenciado pelos religiosos. Fazer a crítica dos poderes da mente e devassar seus segredos
estão entre as ocupações tradicionais da filosofia. Outra coisa bem diversa é ensinar as
crianças é contar ao público que os segredos foram todos revelados e os poderes utilizados
— e oferecer uma série de semicondutores instalados em uma caixa metálica como prova.
Segundo essa asseveração, mesmo o mais ingênuo computador pareceria sem dúvida
ridiculamente inadequado aos olhos de pessoas de reflexão: mais um chiste do que uma
realização. Por mais crítico que possa ser este livro em muitos pontos ao desafiar o papel
do computador em nossa sociedade, ele inclui entre seus propósitos o de salvar essa notável
invenção de pretensões excessivas reivindicadas por seus entusiastas. Livre do peso de uma
ambição jactanciosa, vestido com roupas de trabalho mais modestas, porém palpáveis, o
computador, da mesma forma que o imperador do conto de fadas, pode ainda se tornar um
servidor público razoavelmente valioso.
1. “Information, please”

Informação ao estilo antigo


Quando eu ainda era um adolescente, nos anos que antecederam a Segunda Guerra Mundial,
a informação não era ainda um conceito estimulante. Como categoria intelectual,
apresentava uma posição modesta e marginal. Poucas pessoas a concebiam como tema de
uma teoria ou de uma ciência; não era associada a uma tecnologia avançada que lhe
emprestava especial encanto ou valor financeiro notável. O uso público mais comum da
palavra era associado, provavelmente, à frase Information, please.* Era o que você deveria
dizer ao perguntar à telefonista por algum número, ao discar 411.** Havia, também, nas
décadas de 30 e 40, um programa popular de rádio com esse nome, que convocava os
ouvintes a desafiar um grupo de especialistas, enviando questões capciosas sobre
trivialidades em geral. Quem era o presidente mais baixo dos Estados Unidos? Que ópera
famosa contém o dueto mais longo? Qual mamífero põe ovos?
Era deste modo que a maioria das pessoas pensava sobre informação naquela época:
assuntos desarticulados que surgiam em pequenos pacotes distintos. Algumas vezes o
conteúdo dos pacotes era surpreendente, algumas divertido, outras útil. Na maioria das
vezes tomava a forma de número, nome, data, lugar, resultado ou medida que respondia a
uma questão específica que começava com: quem, o que, quando, onde, quanto. Tais
assuntos eram abordados com palavras comuns; não exigiam formulações matemáticas
esotéricas ou vocabulário técnico especial. Ocasionalmente a informação poderia ter caráter
de urgência — saber, por exemplo, como estancar o sangramento —, mas não era
considerada como algo pelo qual havia uma necessidade insaciável do público. Certamente
ninguém teria dado a ela o status que ela adquiriu atualmente — aquele de uma produção
industrial de bilhões de dólares que gostaríamos de ver reproduzida sem quantidades
limitadas.
Naturalmente todos sabiam que havia certos negócios e profissões que exigiam a
manutenção de inúmeros arquivos repletos de informação. Eram os contadores, os
advogados, os engenheiros. As ocupações típicas de “colarinho branco” — bancárias,
ligadas a seguros ou corretagem, imobiliárias — eram caracterizadas por salas repletas de
arquivos verdes de aço e por pelotões de arquivistas ocupados. Acima de tudo estava o
governo que, como recenseador, arrecadador de impostos, regulador de leis, tinha sempre
sido o armazenador de registros par excellence, desde os primórdios da civilização. Desde
o início do século XIX os governos das sociedades industrialmente avançadas passaram a
ter de assumir maior número de responsabilidades administrativas, até mesmo a tarefa de
cuidar para que os dados oficiais não se tornassem um fim em si mesmos. Obrigações como
a supervisão da economia e da força de trabalho, a distribuição de pensões, a dotação de
empregos, a alocação de rendimentos públicos e recursos, passavam a exigir mais atenção
das lideranças políticas nas nações industriais urbanas. Para alguns dos primeiros cientistas

*
Equivalente a: “Você pode me dar uma informação?”. (N. T.)
**
O nosso 102 em São Paulo. (N. T.)
sociais, como Max Weber, este papel em expansão das estatísticas sociais representou um
dos piores vícios da sociedade moderna: a burocratização da vida, a transformação da
experiência em abstrações numéricas.
De modo geral, a responsabilidade pelo processamento de dados em todas essas
profissões, públicas e privadas, era mais lamentada do que celebrada. Era vista como uma
necessidade desanimadora, que deveria ser deixada para aqueles què ocupavam posições
inferiores, normalmente auxiliares de escritório não-especializados. A imagem familiar do
funcionário de escritório que encontramos nas estórias de Dickens e Gogol é a dos
escreventes pálidos e de rostos macilentos atrapalhando-se com seus livros-caixa
superlotados, estatísticos e atuários desalmados somando colunas infindáveis de cifras, e
arquivistas subnutridos escarafunchando arquivos empoeirados para encontrar um
memorando inexistente. Estas eram as pessoas do nível mais baixo do formigueiro. Herman
Melville captou algo sobre a percepção geral desses desafortunados em sua famosa estória
Bartleby the Scrivener [Bartleby, o Escrevente], o funcionário eficiente e organizado cuja
deprimente labuta acaba finalmente transformando-o em um zumbi.
A imagem desses armazenadores de dados não melhorou nem mesmo quando sua
ocupação ultrapassou o estágio da caneta e do lápis, com a chegada da era da máquina. As
máquinas utilizadas nas indústrias de serviços e no governo surgiram, nos primeiros anos
desse século, a fim de se economizar tempo e espaço. A máquina de calcular, o furador, a
máquina de endereçar — eram todos processadores de informação. Mas ninguém os teria
encarado como algo mais que engenhocas que serviam apenas para classificar ou somar,
tão dignas de interesse intelectual quanto o freio de ar ou a pilha seca. Seus inventores
dificilmente são lembrados; as empresas que as fabricaram não eram de grande importância
para a economia; aqueles que as operavam permaneceram como auxiliares de níveis
inferiores. Em geral, os manipuladores de dados da economia eram office-girls que
poderiam ter sido treinadas no curso secundário ou em escolas de comércio e que
trabalhavam penosamente em empregos monótonos sem esperança de promoção. Seu
trabalho era visto, normalmente, por sensibilidades mais humanistas, como um lamentável
exemplo de progressiva massificação da vida moderna.
Na sátira amarga de Elmer Rice para a Broadway The Adding Machine* (1923), o
protagonista é um funcionário de escritório apropriadamente chamado Mr. Zero. É um
patético ser sem importância, um “pobre pateta desmiolado e covarde” que está desterrado
no país dos arquivos. No final da peça, ele ganha uma “magnífica super-hiper-máquina de
somar”; é a mais espetacular máquina de escritório jamais imaginada. Mesmo assim, a peça
acaba por identificar Mr. Zero com uma forma de vida inferior e menos útil do que um
servo. Ele é um “escravo de uma geringonça de ferro e aço” e o seu trabalho é retratado
como a síntese da desumanização. Nas mãos de Mr. Zero e dos de seu tipo, as pessoas são
reduzidas a fantasmas estatísticos; mas aqueles que fazem tal proeza não têm nem status
nem poder. São ninharia no sistema.
Em minha juventude eu tive uma experiência dessa lúgubre subserviência. No início
da década de 50 trabalhei como arquivista em uma grande companhia de seguros, cujo
subsolo sem janelas era uma caverna em forma de colméia repleta de arquivos negros como
esquifes, e livros de registros amarrados e colocados em prateleiras até o teto. Juntamente

*
A Máquina de Somar (N.T.)
com inúmeros outros jovens recém-saídos da escola secundária, eu circulava entre os
departamentos levando bojudos maços de correspondência e memorandos. Éramos tratados
como burros de carga. De tempos em tempos nosso supervisor, tentando dar um impulso
em nossa moral flácida, lembrava-nos que éramos o sangue que circulava nas veias da
empresa. Sem nós, mesmo os executivos dos cargos mais altos nada poderiam fazer. Mas
sabíamos ser os mais inferiores dos inferiores. O serviço era chatíssimo e recebíamos o
salário-mínimo da companhia. Nenhum de nós permaneceu no emprego por mais tempo do
que o necessário.

Surge o UNIVAC
A mais conhecida relíquia da época de Mr. Zero, o período paleolítico das primeiras
máquinas de escritórios, era o cartão de perfuração Hollerith, que data de antes de 1890.
Eventualmente, tornar-se-ia o emblema da alienação humana em um mundo cada vez mais
burocrático. Em algum lugar no princípio dos anos 60, sua imposição seria elaborada para
atingir a compreensão dos leigos, sendo utilizado o seguinte appeal: “Eu sou um ser
humano. Não dobre, não espete nem mutile”.
Mas na época em que a justificativa foi expressa, o cartão já estava obsoleto e
substituído por meios bem superiores de rastreamento de dados. Nas mãos de firmas
inovadoras como Sperry-Rand, Control Data e Digital Equipment Corporation (a IBM
estava bastante retardatária nesse campo até o começo da década de 60), as máquinas
sofreram uma evolução rápida e inesperada. Incitada pela necessidade militar na Segunda
Guerra e, mais tarde, pelo Census Bureau,* essa evolução ocorreu a partir do
amadurecimento rumo à transformação daquelas máquinas em aparelhos elétricos de
arquivamento, que especificavam um endereço numérico para os dados e, a seguir, podiam
realizar uma série de operações e cálculos rápidos com tais dados. Ora, isto, em sua forma
mais rudimentar, é um computador: um aparelho que lembra aquilo que inventaria,
inventaria o que lembra e recupera qualquer dado já armazenado apenas com o toque de
uma tecla. As jovens miseráveis que outrora cuidavam dos furadores lerdos e pesadões no
escritório ficariam certamente surpreendidas ao saber que algum dia haveria “cientistas da
informação”, que considerariam suas máquinas que emitiam estalos e tinidos como os
ancestrais distantes de uma forma de inteligência mecanizada possivelmente superior à
mente humana.
A palavra computador entrou para o vocabulário do público na década de 50, quando
os modelos de aparelhos mais avançados eram ainda dinossauros mecânicos do tamanho de
um quarto que consumiam suficiente eletricidade para apresentar um sério problema de
refrigeração. O primeiro computador a adquirir uma reputação significativa foi o UNIVAC,
fruto da imaginação de John Mauchly e J. P. Eckery, com contribuições importantes do
famoso matemático John von Neumann.1 O UNIVAC foi o primeiro computador que
armazenava programas; surgiu a partir de pesquisas militares realizadas na Universidade da

*
Agência de recenseamento. (N. T.)
1
Para um estudo da história do inicio da indústria de computadores, ver Joel Shurkin, Engines of the Mind Norton, Nova Iorque,
1984, pp. 250-253. Shurkin detalha o primeiro uso do UNIVAC na CBS em 1952.
Pensilvânia durante a guerra. Seu desenvolvimento posterior foi fomentado pelos contratos
com o National Bureau of Standards and Prudential Insurance; finalmente foi comprado
pela Remington Rand na década de 50, para uma variedade de serviços. Mas o surgimento
público do UNIVAC foi um truque dos meios de comunicação. A máquina foi emprestada
à rede de televisão CBS para as previsões dos resultados das eleições de 1952. Esse
gigantesco e ruidoso animal* (continha 5 mil válvulas, mas utilizava um novo sistema de
tape magnético compacto, ao invés dos cartões perfurados para armazenamento de dados)
foi programado para analisar as estatísticas da votação para a CBS em distritos-chave,
comparando-os com os primeiros resultados da noite da eleição. Desta forma, o UNIVAC
fornecia uma projeção que rapidamente poderia efetuar os cálculos que indicariam o
candidato de vitória mais provável.
Há uma piada divertida sobre a apresentação do UNIVAC ao público americano
naquela noite. No centro de apurações da CBS, a máquina esotérica, que estava sendo
afagada por ansiosos engenheiros eletrônicos como se fosse uma criança mimada, era
considerada como um mero show paralelo. Assim, quando o UNIVAC, a partir de apenas 5
a 7% de votos apurados, começou a projetar uma vitória esmagadora de Dwight
Eisenhower, os experts da CBS se recusaram a noticiar essa previsão. Os técnicos,
preocupados, concordaram então em ajustar a máquina para mantê-la em linha direta com
as autoridades da rede televisiva. Mas o UNIVAC continuou a insistir no ritmo de
Eisenhower, mesmo na solidez democrática do Sul. Finalmente, quando suas previsões
provaram ser exatas, os experts concordaram e confessaram publicamente que o UNIVAC
tinha realmente levado a melhor e que as aparentes inconsistências da máquina naquela
noite tinham sido devidas à interferência humana. O UNIVAC tinha previsto uma votação
de 438 para Eisenhower; ele terminou com 442, dentro de uma margem de 1% com relação
à previsão espantosa do UNIVAC. Esta foi uma demonstração impressionante daquilo que
um processador avançado de dados poderia fazer, tão impressionante que durante algum
tempo a marca UNIVAC ameaçou substituir a palavra genérica computador.
As atividades de “colarinho branco” foram as últimas a entrar na era da máquina.
Bem depois da mecanização das minas, fábricas e fazendas, os funcionários de escritório
ainda utilizavam caneta e lápis, arquivando sua papelada em estantes. Mesmo a máquina de
escrever (que apareceu na década de 1880 e contribuiu bastante para que uma nova geração
de mulheres fosse para os escritórios) era um instrumento manual de nível inferior, o
equivalente tecnológico do tear manual, já há muito extinto. Até muito recentemente
poderíamos procurar, sem êxito, por anúncios em revistas que destacassem algum tipo de
equipamento para processamento de dados, que eram relegados aos livros e artigos que
celebravam seus inventores e fabricantes. Comparem com a situação atual, em que os
anúncios mais lustrosos e futurísticos tanto na imprensa escrita comò na televisão são os de
computadores para escritórios, e vocês terão uma medida formidável de como a informação
ganhou status. A tecnologia dos modestos armazenadores de dados finalmente levou
vantagem sobre as oficinas laminadoras de metais, os dínamos e as estradas de ferro.
“Hoje” — declara uma empresa líder em telecomunicação, em um anúncio
imponente de página inteira — “a informação é a mais valiosa mercadoria para os negócios.
Quaisquer negócios.” Anos atrás pensava-se em informação mais como um lubrificante que
auxiliava na produção de mercadorias, ou talvez a conclusão de um serviço como o
*
Behemoth no original: beemonte, animal gigantesco. (N. T.)
diagnóstico de um médico ou o parecer legal de um advogado. Seu valor não seria constante
(mantido como universal, invariavelmente supremo), mas sofreria variações de acordo com
sua precisão e aplicações. Mas atualmente a informação é livremente chamada de produto,
recurso, capital, moeda. Não há limites para as altas aspirações da retórica. Em um
comercial de TV de 1984, Frank Herbert, autor de Duna, um trabalho que invoca a
perspectiva da ficção científica, entoa um pequeno hino ao progresso tecnológico dos
sistemas de informação dos telefones do Pacífico. “A verdadeira revolução da Era da
Informação”, declara ele, “não se referirá ao hardware, mas ao espírito humano. Será a
oportunidade de sermos mais do que humanos.” Aparentemente uma promessa de
possibilidades divinas. O produto por ele oferecido é simplesmente outro sistema eletrônico
para escritórios, um dos muitos no mercado. Mesmo assim, conforme a linguagem pródiga
sugere, a transição para o computador passou a ser vista como algo mais do que uma questão
de substituição de velhas máquinas por novas. As novas máquinas têm a aparência de algo
que caracteriza um salto evolucionário na história da industrialização. Constituem uma nova
espécie de tecnologia, que desde sua primeira aparição parece ter flertado com os mistérios
da própria mente.

A cibernética e o segredo da vida


Em minha própria vida, houve um livro que teve uma importância maior que o UNIVAC
para alterar meu entendimento sobre a informação e sobre a maquinaria que a manipula.
Em 1950 o matemático Norbert Wiener escreveu um estudo pioneiro e bastante lido
chamado O Uso Humano dos Seres Humanos [The Human Use of Human Beings], uma
versão popularizada de seu clássico trabalho de 1948, Cybernetics [A Cibernética].2 Para a
maioria dos leitores, esse pequeno livro cativante e provocador serviu de marco de
referência do surgimento da elevada promessa da cybernation, palavra cunhada por Wiener
para a nova tecnologia de automação, em que ele reconhecia os traços de uma segunda
revolução industrial. Nas páginas de seu estudo, o computador era ainda uma invenção
exótica, sem nome estabelecido ou imagem precisa; Wiener se refere a ele como “uma
máquina de computação ultra-rápida”. Mas mesmo em seu estado primitivo, tal máquina
afigurava-se importante naquilo que consistia para Wiener em um dos aspectos-chave da
cybernation: o feedback,* ou seja, a habilidade de uma máquina para utilizar os resultados
de sua própria performance como informação auto-reguladora, ajustando assim a si mesma
como parte do processo em andamento.
Para Wiener, o feedback era mais do que um ardil mecânico inteligente; ele o
considerava como uma característica essencial da mente e da vida. Tudo o que é vivo pratica
alguma forma de feedback, à medida que se adapta ao seu meio ambiente; aqui estava uma
nova geração de máquinas alcançando o status de um animal sensível e, assim, prometendo
encarregar-se de tarefas que apenas a inteligência humana tinha sido, desde muito, capaz de
realizar. E não apenas tarefas ligadas ao trabalho, mas também a certos tipos de jogos.
Wiener se impressionou bastante com a pesquisa a respeito da construção de máquinas que

2
Norbert Wiener. The Human Use of Human Beings: Cybernetics and Society Houghton Mifflin, Boston, 1950. Uma edição
bastante revista apareceu em edição em paperback em 1954 (Doubleday Anchor Books).
*
Em português, realimentação. (N. T.)
jogavam xadrez; isto serviu de evidência posterior para o fato de que máquinas seriam
capazes de processar dados segundo formas que aproximariam a complexidade da
inteligência humana. “Viver de modo eficaz” — concluiu ele — “é viver com a informação
adequada. Assim, comunicação e controle pertencem à essência da vida interior do homem,
bem como de sua vida em sociedade”.
Wiener estava afirmando nada menos que, ao aperfeiçoar o feedback e os meios de
manipulação rápida de dados, a ciência da cibernética atingia um entendimento mais
profundo da vida como sendo, em seu âmago, processamento de informações. “É minha
tese” — ele escreveu — “que o funcionamento físico do indivíduo vivo e a operação de
algumas das modernas máquinas de comunicação são precisamente semelhantes em suas
tentativas análogas em controlar a entropia através de feedback”.
Aproximadamente cinco anos após a publicação do livro de Wiener, um novo campo
de estudos baseado nessa tese começou a marcar a sua presença nas universidades, uma
mistura intelectual de filosofia, lingüística, matemática e engenharia elétrica. Era chamado
de inteligência artificial, ou simplesmente IA. A suposição fundamental da IA era clara
desde o princípio; nas palavras de dois de seus pais-fundadores, Alan Newell e Herbert
Simon, “o computador programável e o solucionador de problemas humanos pertencem
ambos ao gênero ‘Sistema de Processamento de Informações’ ”.3
Alguns anos mais tarde (1958) as expectativas de Newell e Simon já tinham quase
alcançado os céus:
Há agora, no mundo, máquinas que pensam, aprendem e criam. Sobretudo, sua
habilidade para fazer tais coisas está crescendo rapidamente até que — num
futuro já visível — a classe de problemas que elas poderão manipular será co-
extensiva com aquela a que a mente humana tem se dedicado.4
Na época em que eles fizeram esta previsão, os computadores estavam ainda lutando
para jogar damas de forma louvável. Mas Simon tinha certeza de que “em dez anos um
computador digital seria o campeão mundial de xadrez”.5
Wiener pode ou não ter concordado com tais previsões estonteantes que brotavam
dos novos estudos de inteligência artificial, mas ele certamente não endossava esse
otimismo. Ao contrário, ele considerava a tecnologia da informação uma ameaça à
estabilidade social a curto prazo ou possivelmente como um desastre permanente. Tendo
inventado a cibernética, ele pretendia assumir o papel de sua consciência. The Human Use
of Human Beings, conforme o próprio nome sugere, foi escrito para despertar a discussão
pública sobre a nova tecnologia até que atingisse um nível mais elevado de consciência
ética. Wiener notou que as máquinas automatizadas dominariam não apenas a rotina das
linhas de montagem, mas também a rotina dos escritórios. A maquinaria cibernética “não
aposta nem no trabalho manual nem no trabalho de ‘colarinho branco’ ”. Se deixada sob
completo controle dos industriais de visão curta que se preocupam apenas em maximizar
lucros, poderia “causar uma situação de desemprego, em comparação com a qual... mesmo
a depressão dos anos 30 pareceria uma brincadeira”.

3
Newell and Simon, citados em Joseph Weizenbaum, Computer Power and Human Reason W. H. Freeman, São Francisco, 1976,
p. 169.
4
Idem, ibidem, p. 138.
5
Simon, citado em John Pfeiffer, The Thinking Machine, Lippincott, Nova Iorque, 1962, p. 174.
Dois anos após este aviso de Wiener, surgiu a primeira antiutopia cibernética. Em
Player Piano, Kurt Vonnegut Jr., que trabalhara no departamento de relações públicas da
General Electric, uma das empresas mais agressivamente interessadas em automação,
imagina um mundo de máquinas inteligentes em que há “produção com quase nenhuma
participação humana”. Até mesmo os barbeiros são substituídos por máquinas de cortar
cabelo. O resultado é um despotismo tecnocrático inteiramente controlado por técnicos de
informação e administradores de corporações. O livro levanta a questão: deve-se permitir
que a tecnologia faça tudo aquilo que pode fazer, principalmente quando seus poderes se
estendem até os ofícios e habilidades que são a razão de ser das vidas das pessoas? As
máquinas são escravos, insiste o herói-engenheiro de Vonnegut. É claro que elas aliviam a
vida de muitas formas, mas também competem com as pessoas. E “qualquer um que venha
a competir com um escravo acabará se tornando um”. Conforme escreve Vonnegut,
“Wiener, um matemático, se referiu a toda essa retomada já nos anos 40”.

Mensagens sem significado


No mesmo ano em que Wiener escreveu seu Cybernetics, Claude Shannon, dos
Laboratórios Bell, publicou seu artigo fundamental “A Mathematical Theory of
Communication” [“Uma Teoria Matemática da Comunicação”], que estabeleceu a
disciplina da teoria da informação, a ciência das mensagens. O trabalho de, Shannon é
universalmente reconhecido como uma das maiores realizações intelectuais do século. É
também o trabalho que mais revolucionou o modo pelo qual cientistas e técnicos passaram
a utilizar a palavra informação. Esta palavra sempre denotava, outrora, uma afirmação
sensata que transmitia um significado verbal reconhecível, geralmente aquilo que
poderíamos chamar de “fato”. Mas Shannon deu à palavra uma definição técnica específica
que a diferenciou daquela utilizada pelo senso comum. Nesta teoria, a informação não é
mais ligada ao conteúdo semântico das afirmações. Ao contrário, a informação passa a ser
considerada uma medida apenas quantitativa de trocas comunicativas, especialmente
aquelas que ocorrem através de algum canal mecânico que exige que a mensagem seja
codificada e, a seguir, descodificada em impulsos eletrônicos. A maioria das pessoas tendia
a assumir que a informação estava ligada com o que ocorria com o entendimento entre um
emissor (speaker) e um ouvinte (listener) durante o processo de conversação. Shannon,
trabalhando nos laboratórios Bell, estava mais interessado no que poderia estar acontecendo
na linha telefônica que unia o emissor/falante e o receptor/ouvinte. Em seu artigo, os
conceitos fundamentais da teoria da informação — ruído, redundância e entropia — são
reunidos em uma apresentação matemática sistematizada. Aqui o bit, o dígito binário básico
para todo processamento de dados, aparece pela primeira vez como um quantum de
informação, uma unidade claramente mensurável pela qual a capacidade de transmissão de
toda tecnologia de comunicação pode ser avaliada.
Pode-se imaginar a utilidade de tal cálculo de tráfego de comunicações para os
engenheiros elétricos que lidam com o problema de canalizar sinais através de fios
telefônicos ou trazê-los desde satélites espaciais, e devendo fazer isso segundo a máxima
economia e clareza possíveis. Mas desde o início, Shannon foi assediado pela confusão
compreensível que surgiu entre seu uso restrito de “informação” e o significado
convencional da palavra. Segundo o seu ponto de vista, mesmo uma algaravia poderia ser
considerada “informação”, se alguém quisesse transmiti-la. Além do mais, uma mensagem
traduzida segundo um código secreto seria considerada como algaravia para qualquer um
que não conhecesse o código; seria, porém, facilmente compreensível por alguém que o
conhecesse. Os primeiros cientistas da informação facilmente chegavam a pensar desta
forma com relação às mensagens e sua transmissão; muitos deles haviam servido como
criptógrafos na guerra. Mesmo este era um modo estranho e desagradável de empregar a
palavra e Shannon tinha que admiti-lo. Certa vez, ao explicar seu trabalho a um grupo de
importantes cientistas que desafiavam sua extravagante definição, ele afirmou: “Penso que
a palavra ‘informação’ talvez esteja causando problemas demais..., mas é difícil encontrar
outra palavra para substituí-la. Deve-se ter em mente, de forma segura, que (a informação)
é apenas uma medida da dificuldade de transmitir seqüências produzidas por alguma fonte
de informações”.6
Durante algum tempo, Shannon tentou utilizar outra palavra: teoria das
comunicações. Com este nome, o novo campo estaria mais distante do conteúdo
significativo que associamos à informação. Uma moléstia, por exemplo, pode ser
“comunicada” — uma transmissão importante, mas sem conteúdo inteligente. A certa
altura, John von Neumann sugeriu — não muito proveitosamente — que Shannon utilizasse
a palavra entropia. Mas informação tornou-se a palavra, uma escolha que Fritz Machlup
chamou de “não-apropriada, enganosa e prejudicial” — o início da história do termo como
“uma velhacaria que serve a múltiplas utilidades”.7
O que vemos aqui é um exemplo de algo que ocorreu inúmeras vezes anteriormente,
na história da ciência. Uma palavra que tem um significado duradouro no senso comum é
tirada do vocabulário público e, a seguir, enviesada pelos cientistas para adquirir uma
definição nova e talvez bastante esotérica. O resultado pode ser uma grande e desafortunada
confusão, mesmo entre os cientistas, que podem até mesmo vir a esquecer o significado
anterior da palavra. A forma pela qual os físicos utilizam as palavras movimento, tempo,
gravidade, simultaneidade, tem uma conexão apenas tênue com a experiência cotidiana e
comum. A palavra ordem em termodinâmica tem uma aplicação especializada que diverge
em alguns pontos de forma marcante em relação a seu significado comum. Talvez o
exemplo mais conhecido de tal confusão é o da palavra inteligência, conforme foi
reexpressado pelos psicólogos. Entre aqueles que aplicam os testes de QI, “inteligência” é
algo que certos testes bastante exóticos medem. O resultado é conciso, numérico; uma
contagem elevada significa elevada inteligência, contagens baixas significam baixa
inteligência. Mas nem os testes nem a contagem de pontos têm qualquer relação com aquilo
que consideramos como a inteligência real (ou sua ausência), uma vez que nós formamos
nossa opinião a partir do cerne do vivido.
Da mesma forma, em seu novo sentido técnico, informação passou a significar algo
que pode ser codificado para transmissão em um canal que liga uma fonte a um receptor,

6
Warren Weaver, “The Mathematics of Communication”, Scientific American, jul. 1949, p. 12.
7
Fritz Machlup, “Semantic Quirks in Studies of Information”, em The Study of Information, Fritz Machlup e Una Mansfield (eds.),
Nova Iorque, Wiley, 1983, pp. 653-658. O prólogo e o epílogo de Machlup para esta antologia consiste em uma série de estudos
incisivos a respeito dos muitos estranhos significados adquiridos pela palavra “informação” desde que o trabalho de Shannon
foi publicado.
sem considerar seu conteúdo semântico. Para os propósitos de Shannon, podemos
considerar como “informação”:
E = mc2
Jesus salva.
Não matarás.
Eu penso, logo existo.
Santos 3, Palmeiras 2.
‘Twas brillig and the slithy toves did gyre and gimble in
the wabe’.*
E, realmente, tais “frases” não são mais ou menos significativas do que qualquer seqüência
casual de bits (x!9#44 jGH?566MRK) que eu poderia querer pagar ao enviar um telex
através do continente.
Conforme expôs certa vez o matemático Warren Weaver, explicando “a forma
estranha pela qual, nesta teoria, a palavra ‘informação’ é utilizada... É surpreendente mas
correto que, a partir de tal ponto de vista, duas mensagens, uma bastante carregada de
significado e outra que não passasse de absurdo, podem ser equivalentes, com referência à
informação”.8
Poderíamos esperar que alguém que lesse a lista de itens anteriormente relacionados
repararia imediatamente que cada um apresenta um nível intelectual acentuadamente
diverso. Uma afirmação é uma injunção moral; outra é uma fórmula matemática; outra é
uma questão de menor importância; outra é um ensinamento teológico; e a última é uma
bobagem deliberada (apesar de encantadora). Mas, uma vez que tenham sido transformadas
em impulsos elétricos, e uma vez que os técnicos nos tenham acostumado a classificá-las,
tais diferenças vitais — as quais seriam, ao contrário, importantes para a educação das
crianças — não podem auxiliar, mas podem ser obscurecidas.
Sem dúvida, o trabalho de Shannon é altamente técnico e portanto amplamente
inacessível ao grande público; apesar disso, sua influência foi enorme. Como a teoria da
informação se tornou amplamente aplicada em nossa economia altamente tecnológica, tem
causado um impacto dobrado em nossa cultura popular.
Em primeiro lugar, desde que “informação” tinha sido separada de seu significado
convencional, a palavra passou a ser especialmente considerada. Seguindo a liderança dos
teóricos da informação, cientistas e técnicos se sentiram livres para fazer uso cada vez mais
amplo e impreciso da palavra. Em pouco tempo foi aplicada a qualquer sinal transmitido
que poderia ser metaforicamente interpretado como “mensagem” — por exemplo, a
descarga de um impulso nervoso. Utilizar o termo de forma tão liberal implica deixar de
lado todo o cuidado com a qualidade ou com o cunho específico daquilo que está sendo
comunicado. O resultado foi uma confusão progressiva de distinções intelectuais. Da
mesma forma que é irrelevante para um físico (do ponto de vista do fenômeno apenas físico)
se estamos medindo a queda de uma pedra ou a queda de um corpo humano, para o teórico
da informação também não importa se estamos transmitindo um fato, um juízo, um clichê
vazio, um ensinamento profundo, uma verdade sublime ou uma obscenidade grosseira.

*
Trecho do poema The Jabberwog, que se utiliza de uma brincadeira linguística conhecida como Porte-manteau.
8
Weaver, “The mathematics of communication”, p. 12.
Tudo é “informação”. A palavra passa a ser amplamente generalizada, mas a um preço: o
significado daquilo que é comunicado é nivelado, o mesmo ocorrendo com o valor.
O efeito é similar àquele que a teoria matemática dos jogos tinha sobre o que
pensavam as pessoas nos anos 50 e 60. Segundo o ponto de vista dos teóricos de jogos,
poderíamos considerar como “jogos”: xadrez, pôquer, investimentos no mercado,
discussões entre pais e filhos, negociações coletivas, guerra termonuclear — isto no sentido
de que certas estratégias poderiam ser aplicadas a todos esses itens. Este foi um insight
valioso em inúmeras formas de competição e negociação, mas foi adquirido a um custo
elevado. Ao redor da teoria dos jogos, surgiram obras literárias e discussões sobre estratégia
militar; esses autores se sentiram livres para discutir a aniquilação da raça humana tão
casualmente quanto alguém poderia discutir numa partida de baralho. Afinal de contas,
eram apenas diferentes tipos de “jogos”. Se quisermos fazer um balanço, o resultado desta
prestidigitação foi uma lamentável mistificação sofrida pelo público, que passou a encarar
as discussões perpassadas por essa terminologia esotérica (sempre repleta de muitos
números) como intimidativa e autoritária.
Em segundo lugar, a teoria da informação funcionou. Em seu próprio campo de
aplicação, proporcionou aos engenheiros eletricistas um instrumento poderoso que
contribuiu significativamente para uma inovação rápida. Com o UNIVAC, o computador
original de válvulas atingiu seu limite de desenvolvimento e as máquinas eram ainda muito
grandes e vagarosas para executar programas realmente sofisticados. Contudo, durante os
anos 50 e 60, tais limitações foram superadas com o desenvolvimento do transistor e do
circuito integrado. Estes condutores altamente miniaturizados permitiram que o computador
fosse compactado e que suas funções fossem bastante aceleradas. Ao mesmo tempo,
também graças ao trabalho de Shannon, o computador encontrou seu caminho na rede de
telecomunicações mundial que germinava, de forma que seu poder poderia estender-se além
do uso local. Isto permitiu a comunicação entre computadores através de grandes distâncias
e finalmente, com desenvolvimento dos satélites espaciais, pode-se obter o contato
instantâneo ao redor de todo o mundo. Enquanto o computador encolhia fisicamente até o
tamanho de uma escrivaninha, assumia um novo tamanho “eletrônico”, que excedia toda a
tecnologia com relação a seu poder. Atualmente, esses dois desenvolvimentos —
miniaturização e evolução de telecomunicações — permitiram até mesmo ao mais simples
computador ser ligado a redes de informação que se estendem por todo o planeta, dando a
ele, segundo a perspectiva de alguns entusiastas, as dimensões de um cérebro mundial.
Realizações de tipo tão surpreendente iriam certamente deslocar o entendimento da
informação das pessoas (como fontes ou receptores), até as novas e excitantes técnicas de
comunicação. Isto ocorre devido ao fato de que o principal interesse daqueles que utilizam
a teoria da informação é a aparelhagem (apparatus) e não o conteúdo. A esse respeito a
teoria nem mesmo exige fonte ou receptor humanos nos extremos da aparelhagem. A fonte
poderia justamente ser um míssil balístico registrando sua trajetória em um radar; o receptor
poderia ser um computador programado para o contra-ataque. Tal situação cumpre todos os
requisitos matemáticos da teoria.
Graças ao elevado sucesso da teoria da informação vivemos em um tempo em que a
tecnologia das comunicações tem avançado a uma velocidade cega; mas aquilo que as
pessoas devem dizer umas às outras, amparadas nessa tecnologia, não mostra
desenvolvimento comparável. Além disso, na presença de uma tecnologia tão engenhosa, é
fácil concluir que justamente por termos a habilidade de transmitir maior quantidade de bits
eletrônicos de forma mais rápida e para uma quantidade de pessoas mais elevada do que
nunca é que estamos fazendo um progresso cultural real — e que a essência deste progresso
é a tecnologia da informação.

O biocomputador
Wiener e Shannon reconceitualizaram radicalmente o significado da informação, dando ao
termo uma nova precisão matemática, sem a qual o computador nunca poderia ter-se
desenvolvido tão além do poder do UNIVAC. Mas o trabalho profissional desses homens
foi esotérico demais para atingir um auditório que não fosse composto por lógicos e
técnicos. Para o público em geral, a imagem intrigante sugerida por Wiener em The Human
Use of Human Beings — de que a informação é a base da vida, encontrou seu apoio mais
contundente em uma área inesperada: a biologia, ou melhor, a nova biologia, em que estava
ocorrendo a revolução científica mais divulgada desde Darwin.
Em 1952, os microbiologistas James Watson e Francis Crick anunciaram que tinham
resolvido o principal problema da biologia moderna. Tinham quebrado o “código genético”
profundamente escondido na estrutura molecular do DNA. O próprio uso da palavra código
nesse contexto era significativo. Por um lado, parecia imediatamente ligar as descobertas
dos biólogos àquelas dos novos teóricos da informação, cujo trabalho tinha muita relação
com a “codificação” da informação. A palavra também carregava consigo a sensação de
uma história policial e, de fato, retornava ao uso original do computador na Inglaterra:
quebrar o código secreto alemão durante a Segunda Guerra Mundial. Tão logo Watson e
Crick publicaram sua descoberta, a molécula de DNA começou a ser vista universalmente
como uma espécie de aparelho cibernético minúsculo que armazenava e processava bits de
dados codificados quimicamente. Estas mensagens codificadas supostamente controlariam
processos físicos discretos na reprodução de coisas vivas. Logo, o código completo da
hélice dupla seria arranjado e sua mensagem poderia ser lida bit após bit, como na memória
de um computador. Conforme a descrição de John Pfeiffer, do MIT, da função do DNA, em
um documentário de televisão em 1960 na CBS, “os padrões de programa de bases químicas
podem ser comparados a perfurações ou marcas magnéticas padronizadas, feitas em fitas
de papel que alimentam os computadores eletrônicos”.9 O “programa” do DNA acabou
revelando-se mais complicado, mas, nesta primeira fase entusiástica, parecia que a
proposição de Wiener tinha sido confirmada: a cibernética e a biologia tinham descoberto
uma base comum.
Desde o princípio, os conceitos da nova biologia tiveram uma ligação tão forte com
a linguagem e o imaginário da ciência da informação que é quase impossível imaginar o
desenvolvimento desse campo sem o auxílio do paradigma do computador. Um biólogo
identifica as “ferramentas teóricas” que permitiram o acesso à química da vida como sendo
as novas ciências associadas ao desenvolvimento dos computadores. Teorias
de “controle”, feedback e “transferência da informação” foram reunidas em
1948 pelo engenheiro e matemático americano Norbert Wiener sob o nome de

9
Pfeiffer, The Thinking Machine, p. 186. O livro é baseado no documentário de Pfeiffer para a televisão.
“cibernética”... Bioquímicos procuraram nesses novos conceitos aquilo que
poderia demonstrar as formas pelas quais a célula controlava e regulava seu
próprio metabolismo.
A tarefa do cibernético, explica ele,
é o estudo da transferência de informação: a conversão de informação de uma
forma em outra — a voz humana em ondas de rádio e de volta ao som
novamente, ou uma equação matemática complexa em uma série de
perfurações numa fita, para alimentar um computador e, em seguida, em uma
série de traços em rolos de fita magnética, na “memória de armazenamento”
do computador... Para ele, a síntese de proteínas é justamente um caso similar.
O mecanismo para garantir a exata reprodução de uma cadeia de proteínas por
uma nova célula é o de transferência de informação da estrutura protéica da
célula mãe para a filha.10
Poderíamos imaginar essa revolução na biologia se o modelo do computador não
tivesse sido convenientemente disponível para ser adotado? Essa não seria a primeira vez
que uma metáfora tecnológica teria servido para o surgimento de uma inovação científica.
No século XVII, bem no início da ciência moderna, astrônomos e físicos se apropriaram do
modelo do relógio para explicar a mecânica do sistema solar e logo ensinaram a sociedade
de seu tempo a ver todo o universo como se fosse um instrumento com o mecanismo de um
relógio.
Mesmo que a nova biologia tenha pedido emprestado muito do modelo da
cibernética preexistente, ela saldou seu débito de forma múltipla, cedendo informações que
um místico não teria adquirido de nenhuma outra forma. Com efeito, tornou-se o segredo
da vida. A partir de um mecanismo processador de dados tão minúsculo quanto a molécula
de DNA, desenvolveu-se toda a sutil complexidade da vida na terra. Conforme afirmação
confiante de John Pfeiffer, “esta é a automação no nível molecular”. Foi uma surpreendente
demonstração do quanto se podia reunir a partir de poucas partículas de dados. Foi como se
o próprio Deus, o primeiro grande relojoeiro do céu, tivesse se atualizado no computador
cósmico. Após uma década, no início dos anos 60, tornou-se lugar-comum as pessoas
falarem não apenas de seus genes, mas também de suas mentes e psiques como
“programados”. Se ainda não era o caso, como tinha previsto Wiener, de que as máquinas
cibernéticas se tornariam parecidas com seres humanos, as pessoas certamente estavam
começando a ver a si próprias mais e mais como um certo tipo de máquina: um
biocomputador.
Ironicamente, quando a nova biologia se tornou um pouco mais velha, houve
mudanças que tornaram o modelo cibernético não mais tão persuasivo. Primeiramente,
parecera que o código genético seria muito mais fácil de ser decifrado do que realmente
viria a ocorrer. Fora inicialmente assumido que a mensagem dos genes podia ser lida como
se fosse caracterizada por muitas seqüências lineares e fixas de bases nucleotídicas, tal como
a série digital de bits em um computador. Mais recentemente, à medida que os problemas
de regulação do desenvolvimento ganharam preeminência nesse campo, os genes passaram
a exigir mais habilidade para serem interpretados. O misterioso processo de “transposição”

10
Steven Rose, The Chemistry of Life, Baltimore, Penguin Books, 1970, pp. 17,162.
começou a atrair atenção. O trabalho de Barbara McClintock, entre outros, sugere que os
genes podem realmente aprender sozinhos e se moverem no genoma, alterando quase que
propositadamente seus significados da mesma forma que alteram sua posição em resposta
a algum contexto mais amplo.11 Até agora os biólogos não encontraram um modelo para
utilizar em tal contexto; e nem os computadores nem os sistemas cibernéticos parecem
servir. Talvez o contexto seja algo assim como uma “idéia” sobre todo o organismo e sua
relação com o ambiente. Se assim ocorre, então o modelo cibernético, que em muito
contribuiu para o início da nova biologia, poderia ser tido como enganador, pois não há
nenhum programa de computador que se comporte de tal forma. Se o fizesse, equivaleria a
dizer que teria uma mente própria, e isto nada mais é do que ficção científica e não
tecnologia útil. Entretanto, na falta de melhor opção, a imagem do processamento de dados
subsiste, tornando a biologia do século XX mais mecanicista do que a física.
Todo período histórico tem sua palavra mágica [god-word]. Houve uma Era da Fé,
uma Era da Razão, uma Era da Descoberta. Nosso tempo foi indicado como a Era da
Informação. Se o nome for de fato amplamente aceito, a conexão fortuita entre a cibernética
e a nova biologia deverá ser reconhecida. Talvez haja outra razão para o aumento de
popularidade e de generalização da palavra: a que nos transmite algo importante sobre uma
era que está propensa a aceitar uma designação aparentemente tão descaracterizada. De
maneira diversa de “fé”, “razão” ou “descoberta”, a informação apresenta um toque de
significação confortavelmente seguro e evasivo. Não há nada dramático, nem elevados
objetivos com relação a isso. É suave para o coração e, justamente em função disso,
agradavelmente invulnerável. A informação tem sabor de neutralidade segura; é uma grande
quantidade de fatos incontestáveis. Sob esse aspecto inocente encontra-se o ponto inicial de
uma agenda política tecnocrática, que não deseja expor muito seus objetivos. Afinal de
contas, o que se pode dizer contra a informação?
Mas na América contemporânea mesmo uma palavra mágica não atinge a
consciência popular de uma forma decisiva até que possa, de algum modo, ser comprada e
vendida no mercado. Apenas quando isso ocorre é que ela pode ser cobiçada como um bem
a ser possuído, pago e levado para casa. E, o mais importante, apenas depois de tudo isso
está qualificada para receber a atenção dos anunciantes que têm o poder de transformá-la
de um interesse em um desejo, de um desejo em uma necessidade. Durante os anos 50, a
informação tinha passado a ser identificada com o segredo da vida. Por volta dos anos 70,
tinha atingido um status mais elevado ainda. Tinha se tornado uma mercadoria — e, de fato,
como vimos, “a mais valiosa mercadoria em business. Em qualquer business”.

11
Para o trabalho de Barbara McClintock, ver Evelyn Fox Keller, A Feeling for the Organism, Nova Iorque, W. H. Freeman, 1983.
2. Os negociantes de dados

A high tech (tecnologia de ponta)


e os oportunistas conservadores
O merchandising de massa da informação é um dos últimos capítulos da grande história
econômica de nosso tempo. Durante a melhor época da geração passada, a economia
americana esteve mudando acentuadamente seu centro de gravidade, tanto financeiramente
como demograficamente. O movimento ocorre para fora dos velhos centros urbanos do
Nordeste/Centro-Oeste dos Estados Unidos, em direção à região quente [Sunbelt] e para
longe das chaminés das indústrias, rumo ao complexo de novas e sofisticadas tecnologias
eletrônicas/aeroespaciais, chamadas de high tech.* Essa transição histórica esteve
visivelmente em andamento pelo menos desde os anos 60, ou seja, desde a construção dos
locais de lançamento do Cabo Canaveral e do Centro Espacial Johnson em Houston. Mas
não atingiu significativamente o conhecimento do público até o início da década de 80,
quando dois best-sellers — Megatrends, de John Naisbitt, e The Third Wave, de Alvin
Toffler — o acondicionaram para o consumo popular e o rotularam como o crescimento da
“economia informacional”, o advento da Era da Informação.1
Tais livros pertencem à categoria bastante popular da literatura contemporânea
chamada futurologia, uma mistura desajeitada de ciência social enlatada, de suplementos
jornalísticos de domingo e profecia. Os frescos e joviais traços dos cenários do devir
armados ao nível intelectual de um exemplar publicitário. Recortes sensacionais e tolas
frases de efeito preenchem todas as páginas com excitante assombro; previsões
resplandecentes sibilam por todos os lados. Ler Naisbitt e Toffler é como uma andança
rápida e cheia de solavancos, na alameda principal de uma exposição mundial. Poderíamos
até mesmo acreditar, a julgar pelas formulações simplistas da economia informacional, que
breve estaremos vivendo uma dieta de discos flexíveis e passeando em ruas pavimentadas
com microchips. Aparentemente, não há mais campos para cultivar, minérios para serem
extraídos, ou bens da indústria pesada para fabricar; quando muito essas duradouras
necessidades da vida são mencionadas de passagem e, a seguir, perdidas no chiado da
energia eletrônica pura que resolve todas as necessidades humanas de alguma forma indolor
e instantânea.
Assim, Naisbitt, mapeando o megatrend (megacomércio) desde “a sociedade
industrial até a sociedade da informação”, descreve a nova ordem econômica como aquela
em que
nós produzimos informação em massa da mesma forma que produzimos carros
em quantidade. Na sociedade da informação, sistematizamos a produção de
conhecimento e amplificamos o poder de nosso cérebro. Para utilizar uma

*
Tecnologia de ponta ou alta tecnologia. (N. T.)
1
Todas as citações deste capítulo são de Naisbitt e Toffler, tiradas de seus livros: Megatrends, Nova Iorque, Warner Books, 1982,
e The Third Wave, Nova Iorque, Morrow, 1980, respectivamente.
metáfora industrial, produzimos agora conhecimento em massa e este
conhecimento é a força condutora de nossa economia.
Em apenas três sentenças, pode-se notar que “informação” se transformou em
sinônimo de “conhecimento”, como se não houvesse distinção significativa entre os dois;
terminamos com a idéia de que o conhecimento está sendo produzido em massa. Mas uma
vez que o conhecimento (da mesma forma que “o poder do cérebro”, se isso significa algo
assim como a inteligência) é a criação de mentes individuais e tem muito a ver com a
qualidade do pensamento, que relação — mesmo de um tipo metafórico — isto apresenta
com uma linha de montagem que constrói carros a partir de partes intercambiáveis?
Profundidade, originalidade, excelência, que têm sempre sido fatores na avaliação do
conhecimento, têm sido perdidos na confusão da futurologia apressada. Como veremos,
esta é uma responsabilidade que persegue todo esforço para inflacionar o valor cultural da
informação.
Naisbitt, contudo, não está entre aqueles que se detêm em distinções refinadas. Ao
contrário, ele se apressa em estabelecer “uma teoria do conhecimento do valor para
substituir a obsoleta teoria funcional do valor de Marx”, pois “em uma sociedade da
informação, o valor é aumentado pelo conhecimento”. Isto o leva à conclusão de que o
conhecimento (ou a informação?) é destinado a ser o produto principal (ou seria o serviço?)
de nossa vida econômica no futuro próximo. Ele cita, ratificando, um especialista que
observa: “Estamos nos exercitando para passarmos do business fabricado [manufacturing]
ao business refletido [thinking]”.
É difícil ver que uma passagem como essa (e ela é típica) não tem o menor
significado, uma vez que há muitas confusões subjacentes. Uma economia industrial é
fundamentalmente uma economia fabril; a própria high tech requer fabricação. A tecnologia
é constituída por máquinas; as máquinas existem para produção de bens, no que se refere
basicamente a alimentos, vestuário, abrigo e transporte — nossos requisitos de
sobrevivência. Uma economia baseada na alta tecnologia (high tech) permanece uma
economia de fabricação, mesmo se as fábricas forem automatizadas e o número de
ocupações do setor de serviços for multiplicado. Mesmo no caso em que o capital industrial
é exportado (Taiwan, Hong Kong, Coréia do Sul), a fabricação ainda assim não é eliminada
da economia, mas apenas internacionalizada pelo mesmo proprietário. Pode ser, então,
interessante perguntar por que está ocorrendo tal realocação e quem decidiu sua ocorrência.
Poderíamos, então, descobrir que o movimento está ocorrendo em função das empresas
multinacionais, que procuram força de trabalho não-organizada e barata, e subsídios de
governos necessitados e cooperativos. Poderia ser importante perguntar, com relação a tais
desenvolvimentos, quais são seus efeitos em nossa economia. Há, por exemplo, a
necessidade de manter algum equilíbrio saudável entre a produção de bens e serviços, e
podemos confiar somente nas forças de mercado para tal?
Estes não são assuntos que preocupam os futurologistas. Responder a tais questões
seria levantar a discussão sobre muitas áreas de controvérsia complicadas e desagradáveis,
com relação a escolhas de investimento, custos e condições de trabalho nacionais ou no
exterior, controle social do capital. Eles preferem assuntos mais frívolos: estilos de vida,
novas mercadorias, modas de consumo. Principalmente, eles gastam longas páginas falando
sobre bens, serviços, carreiras e divertimentos que serão disponíveis na Era da Informação
para profissionais endinheirados e famílias de classe média alta. Escrevem para descrever
as vitrinas dos bons tempos que virão para aqueles que puderem custear estes benefícios.
Mas se Naisbitt, Toffler e companhia são fracos em substância, eles contudo se
excedem em uma espécie de tendência à não-controvérsia, que facilmente atrai o pessoal de
business e os funcionários públicos na busca de vantagens “alimentares” agradavelmente
embaladas para o pensamento. Assim, a agência de tributação de tecnologia [Office of
Technology Assessment] foi bastante rápida para captar o tema, divulgando sombriamente
em uma grande declaração que “os Estados Unidos se tornaram uma sociedade da
informação em função do uso e da comunicação criativa da informação rumo a seu bem-
estar social e econômico”. O comitê nacional para aprimoramento da educação [National
Committee on Excellence in Education] concorda em outro importante documento público,
apressando-se a recomendar que todos os estudantes sejam obrigados a estudar, pelo menos
seis meses, a ciência da computação.2 Por razões óbvias, AT&T endossa as opiniões
econômicas de Naisbitt-Toffler em um anúncio, declarando de forma extravagante que
“Gostemos ou não, a informação finalmente ultrapassou os bens materiais como nosso
recurso básico”. É, realmente, “uma nova forma de capital, que é convincentemente a mais
crítica com relação ao futuro da economia americana do que o capital-moeda”.
De modo mais significativo, um contingente crescente de políticos que estão sempre
à caça de boatos, cochichos e rápidas tomadas de cena, adotaram os prognósticos atraentes
dos futurologistas. Nas eleições prévias de 1984 para a presidência, Gary Hart procurou
ativar sua candidatura com “novas idéias”, associando vagamente a high tech com a solução
para as dificuldades econômicas da América. Assim procedendo, ele estava planejando,
com sua campanha, atingir um eleitorado desprezado pela velha guarda do partido
democrata: os votantes das prósperas cidades da região Sul e os jovens profissionais de
elevada instrução de todo o país. O gambito* falhou e ele não foi escolhido por seu partido,
mas ele conseguiu estabelecer um contraste eficaz com a lealdade aparentemente retrógrada
de Walter Mondale para com as cidades industriais decadentes da América e seus
aborrecidos líderes de sindicatos, ainda atolados em problemas tão enfadonhos quanto
garantias no emprego e salários de subsistência. (De forma não amável, a ala Mondale do
partido foi chamada de “liberal reacionária”, principalmente devido a sua posição com
referência à high tech).
Mondale atraiu o eleitorado, desviou-se da retórica tendenciosa de Hart... e sofreu
uma derrota esmagadora. Esta decisão “fatal” da liderança do partido democrata de arriscar
a eleição com base em seu tradicional eleitorado blue collar** e as minorias étnicas abriu
uma possibilidade notável para a política americana. A fronteira da high tech pode agora
ser balizada antes pela ala direita radical do que pelos liberais de centro. Conservadores
cruzados da região quente, como o congressista da Geórgia, Newt Gingrich, foram
surpreendentemente rápidos para se apropriarem do glamour da Era da Informação para
atingir seus próprios objetivos. Sua meta foi projetar um estilo vistoso e moderno de
conservadorismo que se baseia nos futurologistas para criar uma impressão de uma

2
Congresso dos EUA, Office of Technological Assessment, Information Technology and Its Impact on American Education,
Government Printing Office, Washington, D. C., 1982; National Committee on Excellence in Education, A Nation at Risk,
Government Printing Office, Washington, D. C., 1983.
*
Abertura de partida no xadrez, em que é sacrificado um peão para se obter vantagem de posição. (N. T.)
**
Operários; palavra para fazer contraposição com white collar. (N. T.)
confiança com relação ao futuro. “A força mais poderosa para mudar nossa sociedade é a
revolução da informação”, afirma Gingrich em um livro (Window of Opportunity), que traz
os endossos do presidente Reagan, do congressista Jack Kemp e de Alvin Toffler. “É tão
poderosa quanto sugere a palavra ‘revolução’”.3 O texto de Gingrich oferece uma rápida
excursão até as fronteiras da high tech: computadores, aeroespaço, telecomunicações.
Mesmo as palavras de Carl Sagan têm o fito de validar a importância do “salto do homem
para o espaço”, que Gingrich, presidente do caucus do congresso espacial, vê como uma
oportunidade comercial fundamental. Realmente, uma vez que os “trens” espaciais tenham
sido equipados de modo a acomodar turistas, teremos o “populismo no espaço”.
Juntamente com Jack Kemp e outros congressistas do grupo direitista, Gingrich
organizou a Conservative Opportunity Society como uma voz política importante da Era da
Informação.4 A COS se define como partidária da “high tech, futurista, populista e
conservadora”. É “antiimpostos, antiestado do bem-estar social e anticomunista”. Sua
intenção é remover a imagem circunspecta e freqüentemente austera que há muito
caracteriza o conservadorismo. Ao contrário, os oportunistas conservadores pretendem
proporcionar um contraste agudo e surpreendente com relação àquilo que Gingrich vê como
o “desalento e o desespero” dos liberais, com seu interesse pelos limites ambientais do
crescimento. A COS opta por um “futuro brilhante e otimista”, que está em viva cadência
com o progresso tecnológico. Nos conturbados anos 60, observa Gingrich, “nossos hippies
eclipsaram nossos astronautas e o viés anti-tecnológico da esquerda eclipsou as
possibilidades da era do computador”. Havia “uma epidemia de aversão tecnológica” que
levava “a políticas negativas dos burocratas do estado do bem-estar social”. Produzia
também uma imoralidade que se espalhava por todos os cantos, a licenciosidade sexual e
uma queda geral dos valores patrióticos e tradicionais: “uma vida sem Deus”. A COS
pretende mudar tudo isso. Ela espera que através de concessões maciças de impostos
temporários possa oferecer aos empresários da high tech os incentivos necessários para uma
nova era de crescimento. Crescimento, insistem os oportunistas conservadores, é a panacéia
para todas as doenças da nação: desemprego, inflação, desequilíbrios comerciais. Há
mesmo alguns membros ousados do movimento que estão preparados para deitar fora o
conservadorismo fiscal, pois é um resíduo sem brilho do passado. O economista Paul C.
Roberts, outrora assistente de Jack Kemp, insiste que mesmo os tipos de déficits sem
precedentes acumulados durante a administração Reagan devem ser vistos como
“transitórios ou temporários” e deveriam ser solucionados através dos empréstimos que o
Departamento do Tesouro necessita fazer.5 No céu ensolarado da high tech os déficits são
apenas nuvens passageiras. Mais cedo ou mais tarde, a economia informacional superará
seus débitos, não importando seu montante.
Se a COS for bem-sucedida em seu lance agressivo ao assumir a direção do Partido
Republicano, o resultado será uma estranha infusão de religião antiga, ética social
darwinista, chauvinismo anticomunista e tecnologia à la Flash Gordon. Tal aliança
poderosa de grupos de direita das regiões quentes e da era espacial foi prevista pelo astuto
analista conservador Kevin Phillips no longínquo ano de 1968. Chamou-a “a maioria

3
New Gingrich, Window of Opportunity, Nova Iorque, TOR Books, 1984, p. 68.
4
Para uma literatura a respeito da “Conservative Opportunity Society” [sociedade dos oportunistas conservadores], escrever para
sua sede em 106, North Carolina Street, S. E., Washington, D. C. 20003. Gingrich revê as origens e fala sobre os membros do
grupo em seu pós-escrito a Window of Opportunity. Ver também Conservative Digest de agosto de 1984.
5
Paul Craig Roberts, The Supply-Side Revolution, Harvard University Press, Cambridge, 1984, p. 310.
republicana emergente” e reconheceu Ronald Reagan como um de seus líderes mais
promissores.6 Vários anos depois, em 1982, o futurólogo também conservador Herman
Kahn estaria impulsionando esta maioria, qualificando-a como o segredo do “advento
estrondoso” da presidência de Reagan.7 Ele a descreveu como a coalizão de conservadores
sociais e econômicos, assentados no dinheiro e na índole das regiões quentes. Tudo o que
essa aliança exigia, conforme argumentava Kahn, se queria tornar a ala direita equivalente
ao New Deal de Roosevelt, era “uma ideologia do progresso” para compensar a filosofia do
não crescimento econômico que se tornou um tema de discussão durante os anos 70. E isto
ele pensou ter constatado no dinamismo futurista da economia informacional, que garantia
o acesso à via que levava ao “mundo das oportunidades, glamour, opções”.

A política das regiões quentes e o estado de guerra


Segundo os futurologistas e seus discípulos conservadores, a ascensão da economia
informacional na América é uma questão de destino industrial evidente, uma mudança tão
vasta e inevitável que poderia ser quase que um processo natural além do controle humano.
Dificilmente isto ocorre. A conversão para a high tech é o resultado de escolhas deliberadas
por parte de nossas lideranças políticas e das corporações. Está intimamente ligada à
constante militarização de nossa vida econômica desde o início da Segunda Guerra
Mundial, sem a qual muito pouco de nossa tecnologia eletrônica e aeroespacial existiriam
hoje. Em suas pesquisas e em seu desenvolvimento, as indústrias de high tech permanecem
significativamente atadas ao orçamento do Pentágono. Isto tem sido claro há muito com
relação à NASA e ao poder nuclear; além disso, os dois mais importantes investimentos em
desenvolvimento de computadores da nação são financiados e controlados por fontes
militares. E, o mais importante, inclui-se aí a Agência de Técnicas de Processamento de
Informação do Departamento de Defesa e o consórcio recém-constituído de doze empresas,
a Corporação de Tecnologia em Computadores e Microeletrônica em Austin, Texas, com a
presidência de um membro do Conselho de Segurança Nacional e da CIA.8 Em 1985, nada
menos do que 40 bilhões de dólares foram gastos em eletrônica pelo Pentágono. Esta ligação
com a instituição militar se tornará mais intensa se os EUA adotarem a esmagadoramente
extravagante Iniciativa de Defesa Estratégica (o sistema de mísseis de defesa “guerra nas
estrelas”), que começou a adquirir apoio político e corporativo bem determinado durante a
administração Reagan.
É revelador que membros da COS como Gingrich e Kemp sejam cuidadosos ao
fazerem um apelo especial para gastos militares bem ampliados como parte de seu
programa, sem considerar os déficits que possam resultar. Apesar da firme insistência dos
oportunistas conservadores com relação a uma redução drástica de sua dimensão e de seus
custos, o Pentágono é sempre dispensado de tal prescrição. Isto é especialmente
compreensível por parte dos conservadores das regiões quentes; a prosperidade ocorrida há
não muito em estados como a Geórgia, de Gingrich, é bastante dependente da “dádiva” dos

6
Kevin P. Philips, The Emerging Republican Majority, New Rochelle, Nova Iorque, Arlington House, 1969.
7
Herman Kahn, The Corning Boom, Nova Iorque, Simon & Schuster, 1982.
8
Ver “Defense Men Take Control of America’s Computers”, New Scientist, Londres, 26.5.1983, p. 526.
militares. Em 1985, os estados das regiões quentes receberam 60% de 260 bilhões de
dólares, em contratos, do Departamento de Defesa; isto é mais que o dobro do quinhão por
eles recebido em meados dos anos 50. Somente a Califórnia — e principalmente a
Califórnia meridional, onde conservadores de extrema direita como Barry Goldwater e
Ronald Reagan sempre encontraram seu mais firme apoio — recebe mais de 2,5 vezes as
despesas de defesa de qualquer outro estado, uma quarta parte do orçamento do Pentágono
para 85. Enquanto isso, nos últimos 30 anos, os estados do Centro-Oeste viram sua parcela
dos contratos militares minguar de um terço até um décimo; o único modo pelo qual muitas
empresas desta parte do país podem usufruir de uma parte do orçamento de defesa é se
tornando subcontratadas das companhias das regiões quentes.9 Os ares mais conservadores
nos anos 70 e 80 certamente têm muita relação com a riqueza e o poder de voto das regiões
quentes, a fortaleza tradicional das comunidades isoladas, igrejas evangélicas e, em geral,
dos valores nativistas. Mas, por sua vez, esta inclinação política para a direita resulta, em
larga medida, em função do desvio constante, por parte do Oeste e do Sul, das verbas
militares durante a geração passada. A economia informacional pareceria surgir não apenas
com tendência militar, mas também com uma população conservadora incorporada.
É graças ao poder financeiro provido por este compromisso com o estado de conflito
armado que a comunidade de corporações foi capaz de executar a ruptura violenta com o
passado industrial da América. O advento da economia informacional, em grande escala,
significa que nossas principais corporações estão rapidamente recolhendo duas gerações de
capital já antigo e enviando-o ao exterior. Ao proceder assim, com o apoio dos ricos
contratos militares, estão se liberando da mão-de-obra mais altamente sindicalizada, de
forma que os investimentos possam ser transferidos para campos mais lucrativos. High tech
não é apenas cheia de glamour, ela é terrivelmente compensatória, particularmente no caso
de aqueles que recebem os lucros serem dispensados de pagar os custos sociais que resultam
da derrubada dos velhos centros industriais e do desemprego de sua força de trabalho, para
realocá-las nos estados quentes do Sul onde reina o “direito ao trabalho” (não
sindicalizado). Tais custos de transição são, na maioria das vezes, “externalizados” pelas
empresas de high tech, ou seja, eles são varridos do alcance da vista e ignorados. Mas
permanece uma obrigação da economia global que deve ser eventualmente paga. Por
exemplo, dois terços dos “novos empregos” criados em nossa economia no final dos anos
70 e nos anos 80, e tão alardeados pelas administrações Carter e Reagan, são de baixa
qualificação e de período não-integral. Nas ocasiões em que trabalhadores fabris altamente
treinados são forçados a pegarem empregos como porteiros ou guardas de segurança, eles
se tornam economicamente abatidos. Com eles, setores inteiros da economia caem para um
padrão de vida inferior e expectativas bastante diminuídas. O movimento trabalhista vê esta
erosão dos empregos industriais de classe média como o início de uma sociedade “de duas
camadas”, com cada vez menos empregos de alta remuneração na camada superior
altamente especializada e não sindicalizada.10

9
As estatísticas para os gastos com defesa de 1985 vieram de um relato na National Public Radio, feito por David Malthus em
8.7.1985.
10
Ver Henry Levin e Russell Rumberger, “The Low-Skill Future of High Tech”, Technology Review, agosto/setembro de 1983.
Ver também James Fallows, “America’s Changing Economic Landscape”, Atlantic, março de 1985, para um tributo otimista da
ascensão da high tech e das regiões quentes, mas que não questiona o fato de que o setor de serviços de remuneração mais baixa
é justamente aquele em que a maioria dos trabalhadores demitidos tem que procurar empregos. Para uma leitura AFL-CIO da
situação, ver Deindustrialization and the Two Tier Society, Industrial Union Department (AFL-CIO) Publication, Washington,
D. C., 1984.
Com relação a isto, mesmo aqueles que encontram trabalho em high tech podem ser
contratados para posições de baixa remuneração, monótonas e não sindicalizadas. Está se
tornando notório que as novas instalações de microchips, apesar de quão fascinante possa
parecer seu trabalho fora das paredes das fábricas, estão próximas — com referência aos
empregados menos especializados — das administrações que sugam ao máximo seus
empregados, principalmente da força de trabalho feminina por elas empregada. High tech
é, de fato, um exemplo de sociedade de duas camadas, com mobilidade praticamente nula
entre elas. No cume estão os empresários, inventores e engenheiros, que vivem e se
movimentam na pista de alta velocidade das indústrias. No fundo estão os trabalhadores da
produção, para quem, nas palavras de Everett Rogers e Judith Larsen, “Os vales de silício
representam baixos salários, empregos sem perspectiva, trabalho não especializado e
tedioso, e exposição a alguns dos mais elevados riscos de saúde em toda a indústria
americana. É o lado negro dos laboratórios cintilantes que nem churrascadas, balões, ou
mesmo o repouso remunerado podem esconder”.11
Para aqueles que reconhecem a economia informacional, algumas das informações
mais valiosas neste ramo de negócios é o know-how de destruidores profissionais de
sindicatos, que encontraram um dos melhores mercados na high tech. Essa indústria
permanece quase que completamente sem organização trabalhista nos EUA. Mesmo assim,
sempre à procura de custos inferiores, a linha de montagem demonstrou ser altamente
exportável; é facilmente realocável na Ásia ou na América Latina, onde a força de trabalho
é em geral mais jovem e onde há mais mulheres, ou seja, é mais dócil e mais barata.12 Além
da insegurança daqueles que trabalham na economia informacional, coloca-se também a
preeminência de investimentos especulativos e arriscados nas indústrias de high tech, em
que, desde o início dos anos 80, temos visto mercados inteiros — como o de video games,
computadores domésticos, telefones celulares — orbitarem desde o boom até a falência.
Aqueles que comemoram a economia informacional fazem vista grossa para o fato
de que a high tech, se deve ser considerada uma contribuição a longo prazo para a riqueza
da nação como um todo, precisa ser inserida no sistema industrial existente, utilizando suas
habilidades, sua mão-de-obra, seus recursos e centros fabris. Ela não pode suplantar
abruptamente esse sistema e esperar permanecer sozinha. Mas é justamente isso que
futurologistas como Naisbitt sugerem, ao descrever a “economia informacional” como algo
que se mantém em duro contraste com a “economia industrial” e deve agora substituí-la —
não apenas com uma nova tecnologia, mas com uma obscura e nova “teoria do
conhecimento do valor”. Tal esquema histórico é disparatado. A tecnologia da informação
é um resultado do sistema industrial existente, que sempre foi dependente do
“conhecimento” que perpassa a invenção, a administração e o marketing. Da mesma forma
que as tecnologias elétricas, automotoras ou químicas que a precederam, a high tech
inaugura um novo estágio na seqüência do processo industrial. Essas tecnologias não
substituem umas às outras; elas se sobrepõem, se compõem e devem estar coordenadas. Na
high tech americana, mesmo os entusiastas do computador permanecem mais dependentes,
para sua sobrevivência, dos trabalhadores do campo que fazem a colheita e dos
trabalhadores da construção civil que erguem os prédios do que dos programadores de
computadores ou dos consultores de investimentos.

11
Rogers e Larsen, Silicon Valley Fever: Growth of High Technology Culture, Nova Iorque, Basic Books, 1984, p. 189.
12
Annette Fuentes e Barbara Ehrenreich, Women in the Global Factory, Boston, South End Press, 1983, pp. 48-56.
A high tech está encravada na textura da história industrial; deve, portanto, ser
planejada. De outro modo, deixada aos caprichos e impulsos do mercado conforme
preferem os oportunistas conservadores, se transformará no mesmo tipo de salto brusco e
humanamente devastador (de um estágio econômico para outro) que produziu as piores
privações da primeira revolução industrial. Nenhuma sociedade humana escolheria uma
segunda revolução industrial que repetisse os mesmos erros.
Mas, inevitavelmente, à medida que os recursos econômicos da nação são lançados
na high tech, o resultado desse investimento deve ser vendido. Alguns desses produtos, os
mísseis, os ônibus espaciais, as armas de laser, estarão sempre restritos principalmente aos
compradores militares. Por outro lado, a indústria de computadores, apesar de bastante
dependente dos contratos militares, também tem acesso a um mercado civil razoável, pelo
menos para seus equipamentos mais caros, em business e administração pública. Surge a
questão: a última geração de micro e minicomputadores pode ser negociada em uma escala
mais ampla como itens de consumo de massa? O público em geral pode ser persuadido a
ver a informação como uma necessidade da vida moderna da mesma forma pela qual viu a
geladeira, o automóvel e a televisão como necessidades? Os fabricantes de computadores
estão apostando bilhões nisso. Seu jogo rendeu fantasticamente ou causou perdas
desastrosas em cada virada do ciclo dos negócios. Mas é primordialmente a partir de sua
publicidade e comercialização que a informação começou a adquirir em nossa sociedade
uma característica de culto, com inúmeros seguidores.

Megahype
No início dos anos 80, descobri-me trabalhando em um romance de ficção científica sobre
computadores e cientistas da computação.13 Como parte do processo, consultei vários
especialistas do campo para obter um panorama que permitisse a avaliação da situação atual
do assunto e de seu provável futuro próximo. Já que a tecnologia da informação está
mudando rapidamente, senti a necessidade de uma base para o romance, de forma que eu
pudesse ter uma idéia razoavelmente segura daquilo que os computadores poderiam (ou
não) fazer quando o livro fosse publicado e nos quatro ou cinco anos subseqüentes — queria
estar seguro de onde terminavam os fatos e onde começava a realidade.
Após conversar com inúmeros especialistas e entusiastas, alguns acadêmicos, alguns
especialistas na indústria, compreendi que tinha um problema. Com referência ao poder dos
computadores, quase todos que encontrei tinham propensão a um otimismo excessivamente
exagerado. Traduções feitas por máquinas... conversas em linguagem comum... total
mestria em xadrez... reconhecimento de rostos e vozes... escrita criativa... tomada de
decisões legais — nãd havia nada que essas máquinas não pudessem fazer, naquele
momento ou em breve. O quão breve, era isso o que eu queria saber. A resposta nunca era
clara o suficiente. Possivelmente no próximo ano, certamente em aproximadamente dois ou
três, com segurança por volta do fim da década. De qualquer modo, mais cedo do que você
poderia estar imaginando. Em uma discussão da qual participei, uma das maiores
autoridades mundiais em inteligência artificial sustentou firme convicção de que um

13
A novela era Bugs, Nova Iorque, Doubleday, 1981; Nova Iorque, Pocket Books, 1983.
computador capaz de ultrapassar a inteligência humana em todos os campos seria sem
dúvida construído... entre os próximos cinco ou quinhentos anos. Pois, em princípio (esta
expressão é repetida por todos os cantos como uma resposta litúrgica), nada é impossível.
Logo ficou claro para mim de que tipo de otimismo se tratava e por que eu estava
tendo tanto trabalho para obter previsões definidas a respeito do futuro dos computadores.
Todas essas pessoas — tanto os acadêmicos como os especialistas das indústrias — faziam
parte da economia informacional. Eles trabalhavam em empresas ligadas a ela ou estavam
ligados a programas acadêmicos financiados até certo ponto por tais firmas ou por seus
clientes militares. Sob o ponto de vista dessas fontes de fundos, era importante estar
atualizado e otimista a respeito de computadores, pois eram a sua mercadoria. Os
especialistas adotavam este ponto de vista com facilidade, uma vez que a “saúde” da
indústria de computadores era o sangue que vivificava sua profissão. Não somente isso, mas
também os meios de comunicação, que sempre solicitam entrevistas, aguardando ansiosos
por previsões surpreendentes; os jornalistas desejam relatos autorizados que corroborem os
futurologistas. Por sua vez, reportagens desse tipo realimentam as projeções industriais a
respeito do crescimento futuro, o que auxilia a vender estoques e a atrair capitais de risco.
Em suma, os especialistas estão vendendo. Tinham adquirido o hábito de extrapolar
assombrosas “hipertendências” para a imprensa, o público, as agências de financiamento.
Foi apenas quando eu apliquei uma persistente pressão cética — ou seja, com relação à
tradução mecanizada ou à habilidade dos computadores para “1er” e “resumir” um livro,
uma estória, uma palestra — que pude finalmente evidenciar uma admissão honesta de quão
extremamente complicada eram tais questões e quão longe estávamos de uma solução.
Mas no mercado essa pressão não existe, e o otimismo fica livre para caminhar entre
as nuvens até alcançar o zénite do céu azul — e nesta altitude não é distinguível da
hiperpublicidade convencional. Se fosse possível acreditar nas relações públicas da
indústria de computadores, o processamento eletrônico de dados teria se tornado a pulsação
da economia. Sem ele, nossas vidas ter-se-iam paralisado. Isto pode bem ser verdade em
uma série de atividades no mundo dos negócios. Quando os computadores não funcionam,
o mesmo ocorre com os bancos, e os investimentos não podem ser realizados, os aviões não
deixam o solo nem as passagens podem ser vendidas, os jornais não podem ser impressos,
relações não podem ser verificadas, contas não podem ser emitidas ou pagas, mais e mais
linhas de montagem devem ficar inativas. Muito provavelmente a nação não poderia ser
defendida de aniquilação instantânea por seus inimigos.
É sensato confiar a guarda da sociedade de forma tão ampla a uma tecnologia que é
tão vulnerável a avarias, erros, sabotagem e tramas criminosas? Os fabricantes de
computadores e os cientistas da computação não têm dúvida de que é. E, tendo atingido as
alturas de comando da economia, eles estão se movendo rapidamente para encontrar outras
fronteiras para investimentos. O esforço usual é para introduzir o microcomputador em
quantos aspectos da vida cotidiana for possível, de forma que nossas casas, locais de
trabalho e escolas sejam em breve bastante dependentes do fluxo de informação eletrônica.
Sem uma provisão constante, as crianças não poderão aprender, os talões de cheques não
serão conferidos, compromissos não serão marcados, impostos não serão pagos...
possivelmente o jantar não chegará à mesa.
A força de trabalho de escritórios é normalmente um dos principais objetivos dos
negociantes de dados. Como o processador de palavras e o arquivo eletrônico, o computador
ocupa um lugar óbvio no mundo do colarinho branco. Com tamanho poder, já de início
entre as ocupações de escrituração e arquivo, a indústria de computadores elevou as
expectativas de completa automação dos escritórios, em que o próprio papel ficará obsoleto.
Na superfície do vídeo da “escrivaninha inteligente”, dizem-nos, estarão em breve flutuando
simulações de memos e relatórios. Todos os registros da empresa estarão on-line, bancos
de dados para quaisquer propósitos serão instantaneamente acessíveis por meio de
programas amplamente integrados em uma unidade organizativa-contábil-administrativa.
Documentos processados através de editores de textos serão distribuídos por toda parte e
simultaneamente arquivados completamente catalogados. Cartas eletrônicas serão a regra.
Equipamento de reconhecimento de discurso cuidará daquilo que for ditado; tudo
funcionará através de um comando de voz; mesmo o teclado do computador será obsoleto.
Quando for necessário dirigir uma reunião, isto será feito através de teleconferência entre
colegas de trabalho e contatos com todos os locais do edifício ou ao redor do mundo.
O escritório completamente computadorizado fará pelo trabalho de colarinho branco
aquilo que a linha de montagem automatizada fez nas fábricas: “poupará” trabalho através
de eliminação, a começar pelos arquivistas e pelas secretárias, mas logo atingindo os
executivos “júnior” e os vendedores. Possivelmente essas vítimas do progresso encontrarão
trabalho no Burger King, onde as caixas registradoras são equipadas com imagens e não
com números, ou como porteiros que também fazem a limpeza diária — pelo menos até
que tais empregos também passem a ser realizados por robôs. Talvez não haja em breve
ninguém nos ziggurats* de nossas cidades, mas uma pequena elite de tomadores de decisão
em altos níveis, circundados por aparelhos eletrônicos. Estarão em contato com outros de
mesmo nível ao redor do mundo, a única força de trabalho com remuneração decente que
ainda resta na economia informacional, resolvendo desafios específicos, transferindo
fundos de banco para banco à velocidade da luz. À medida que passa o tempo, haverá cada
vez menos para eles fazerem, pois mesmo a tomada de decisões pode ser programada.
Conforme um grupo de cientistas da administração observou:
Não há razão para que não possamos programar computadores que realmente
tomem decisões e, através do meio adequado, seja papel ou outro output,
implementem suas decisões iniciando a ação. Não há diferença intrínseca entre
uma decisão de business e as decisões que estão envolvidas em um sistema de
controle de processos de produção — uma área considerada como
perfeitamente legítima para a computadorização.14
Nesse ponto, mesmo a direção da corporação não terá de se reportar ao escritório. A
maior parte daquilo que deve ser feito via intervenção humana será feito fora de casa. Tem-
se uma visão assustadora do futuro altamente industrial: um panorama de torres de vidro
vazias em bairros em que apenas máquinas trabalham interligadas com outras máquinas.
Com referência ao lar, os futurologistas apresentam, da mesma forma, um cenário
computadorizado. Tomar-se-á um “centro de informações” organizado ao redor de um
computador que está ligado a um conjunto mundial de bancos de dados. A nova família

*
Espécie de centro, cujas proporções atingiram dimensão fora do comum. Alusão aos antigos centros religiosos da Mesopotâmia.
(N. T.)
14
Tim Eiloart e Nigel Searle, “Business Games off the Shelf”, New Scientist, Londres, 28 de setembro de 1972, p. 579. Ver também
Jon Stewart, “The Eletronic Office of the Future”, San Francisco Chronicle, relato especial, 18 de setembro de 1979, e M. David
Stone, “The Intelligent Desk”, Science Digest, março de 1985, pp. 78-79.
eletrônica lerá sua correspondência e as notícias da hora em uma tela de vídeo; fará
transações bancárias, compras, investimentos, aprenderá e jogará neste terminal interativo.
Ninguém necessita nem mesmo deixar a casa, que se tornará escola e local de trabalho,
devido à possibilidade de acesso às redes de informação que circundam a Terra. Os
japoneses já estão vendendo agressivamente casas automatizadas projetadas por
computador. Inúmeros sistemas de automação integrada e casas também apareceram em
alguns setores mais afluentes do mercado americano. Eles têm nomes ardilosos:
Coordenador da Casa, A Casa de Amanhã, A Casa Inteligente. Tendo-se uma instalação
elétrica adequada para adaptar o painel principal, a casa pode ser automaticamente
ventilada, aquecida ou resfriada sem intervenção humana; não há necessidade de acionar
manualmente o termostato ou abrir a janela. A casa será monitorada continuamente para
que sejam garantidos os serviços de emergência e a segurança. Se alguém vai, à noite, de
um quarto a outro, não terá nem mesmo a necessidade de ligar ou desligar os interruptores
de luz; o eficiente computador “perceberá” e responderá a qualquer movimento.
Dispositivos falantes darão as recomendações e os avisos a respeito de seu próprio uso.
Alvin Toffler antecipa a existência de uma casa futura tão eletronicamente responsiva que
se detectasse um vazamento no banheiro, faria imediatamente uma consulta aos outros
computadores de outras casas na mesma rua para encontrar o nome de um bom encanador
— e programaria o conserto. Ele chama a isto de vida em um “meio ambiente inteligente”.15
Mesmo a amizade e o calor humano serão intermediados: o terminal de cada casa
será ligado a numerosas juntas de comunicação via computador, que fornecerão
recomendações, fofocas, piadas e outros serviços — todo o comércio social para o qual as
pessoas sempre necessitam ir para encontrar outros seres humanos em clubes, cafés, pubs,
parques e bares. Toffler prediz o surgimento das “famílias eletrônicas ampliadas”, espécies
de comunidades computadorizadas que poderiam estender-se pelos continentes. Outro
entusiasta, Myron Krueger, espera ver o computador amadurecer até uma “tecnologia
íntima”, que poderia ser programada para o “sexo eletrônico”. Por exemplo:
Uma sequência de ações que requerem normalmente duas mãos, poderiam ser
executadas automaticamente, permitindo ao amante deixar sua atenção fluir
para qualquer outro lugar, da mesma forma que se pode estabelecer ritmos em
um órgão eletrônico. Realmente, é possível que os concertos sexuais possam
fazer as massas do futuro se erguerem... É possível postular circunstâncias que
conduziriam a tal desenvolvimento e levar muitas pessoas a aceitarem-no.16
Um artigo na revista The Futurist leva essas possibilidades e especulações vários
passos adiante, chegando àquilo que alguém esperaria poder considerar pretensão absurda.
Mas a predição não é oferecida com essa intenção: é bastante séria.
O máximo em casa pode ser uma estrutura, cujo cérebro computadorizado,
equipado com sensores e ligado através de redes de telecomunicações a outros
bancos de dados de computadores e a cérebros de outras casas, desenvolveu
uma percepção de sua própria existência e um conhecimento íntimo de seus
habitantes... Este desenvolvimento acrescentará muito à nossa habilidade para

15
Ver The Third Wave, de Alvin Toffler, cap. 14.
16
Myron Krueger, Artificial Reality, Menlo Park, Califórnia, Addison-Wesley, 1983, p. 230.
“acreditar” no computador como uma entidade consciente. Uma vez que sua
casa possa falar com você, você nunca mais se sentirá sozinho novamente.17
Apesar de tão encantadora e talvez tão pouco delineada, essa imagem dos
microprocessadores conscientes e atenciosos parece também ser confirmada por Steven
Jobs da Apple Computer, quando ele fala de uma transformação do computador-servente
no computador como “agente ou guia”.
Ele funcionará mais em termos de antecipar aquilo que desejamos, fazendo-o
para nós, observando conexões e padrões no que fazemos, perguntando a nós
se isto é uma espécie de ato genérico que desejaríamos fazer regularmente, de
forma que teremos ... a ideia de gatilhos. Seremos capazes de pedir a nossos
computadores para funcionarem como nosso “monitor” e, quando ocorrerem
certas condições, quando forem acionados, os computadores agirão de forma
específica e depois nos informarão o fato.18
... esperemos pelo momento em que eles façam o grande e inevitável erro.
Às vezes não se pode decidir se devemos rir ou chorar com relação ao que a Era da
Informação supostamente nos reservará. Pamela McCorduck espera ver a casa do futuro
equipada com um “robô geriatra” que resolverá “os problemas do envelhecimento”.
O robô geriatra é maravilhoso. Nunca se inclina a ter esperanças em herdar
nosso dinheiro — nem, naturalmente, dará um pequeno empurrão em você para
acelerar o inevitável ... Ele está lá porque é seu. Ele não somente leva você
para tomar banho, não somente o alimenta ou empurra sua cadeira de rodas até
um local ensolarado quando você precisa de ar fresco e uma mudança no
cenário, apesar de que, sem dúvida, ele faz tudo isso. A coisa suprema deste
robô geriatra é que ele ouve. “Conte-me novamente como suas crianças são
maravilhosas/terríveis com você. Conte-me novamente aquela estória do
fascinante golpe de 63...” E é isso realmente que quer o computador. Ele nunca
se cansa de ouvir tais estórias, da mesma forma que você nunca se cansa de
contá-las. Ele também sabe quais são as suas favoritas, e essas são as preferidas
dele.19
Até parece uma peça de Samuel Beckett...

Hackers e hucksters*
Não importando quão cativantes possam ser esses debates, eles mostram o que os
negociantes de dados pensam sobre o desejo público. Se estão certos, deixam-nos com um
panorama desolador a respeito de nosso estado cultural. Causa sobressalto acreditar que

17
“The Futurist”, citado em Epiphany, outono de 1983, p. 17.
18
Entrevista de Steven Jobs em Playboy, fevereiro de 1985, p. 17.
19
Edward Feigenbaum e Pamela McCorduck, The Fifth Generation, Reading, Mass., Addison-Wesley, 1983, pp. 92-93.
*
Hackers são espécies de monomaníacos cibernéticos contraculturais, ou seja, aqueles sujeitos que acordam e já vão para o
computador antes mesmo de escovar os dentes. O autor falará mais sobre esse espécime nos próximos capítulos. Os hucksters
seriam mercenários da publicidade. O autor faz a crítica destes “negociantes mercenários”. (N. T.)
possa realmente haver um público que toma por sérias as aplicações ilusórias e pueris do
computador já citadas. Quantas pessoas pode haver que necessitam ter mediada sua mínima
atividade — e presumivelmente corroborada — por uma máquina? Ironicamente, a pior
vítima de tal exagero megahype pode ser o próprio computador. É uma invenção notável,
que merece nossa admiração em uma vasta série de usos. Mas, nas mãos de seus entusiastas,
a máquina engenhosa é reduzida a um mero brinquedo, portador de valores tolos e
sibaríticos.
Há um ponto, contudo, no qual a afobação das relações públicas que rodeia o
computador é obscurecida em uma zona crepuscular em que metafísica e ficção científica
enlatadas se mesclam livremente. Aqui, hackers e hucksters se tornam aliados convenientes
na tarefa de emprestar ao culto à informação um caráter bem mais intimidatório.
Começamos a ouvir predições precipitadas e impetuosas feitas por pessoas cultas sobre
computadores que serão, algum dia, mais sagazes que as pessoas. Sagazes até que ponto?
Um cientista da computação da Universidade da Califórnia declara jovialmente e sem
titubear: “Penso que algum dia haverá uma máquina que sabe tudo. É por essa razão que
estamos por aqui”.20
Por detrás dessa linha de pensamento está um longo e contínuo processo de
antropomorfização do computador como uma inteligência humana substituta. Até quando
o computador era considerado apenas um mastigador de números, dificilmente alguém o
via como algo além de uma supermáquina de somar. Ele deu seu primeiro passo importante
como uma espécie de retrato da mente logo após a Segunda Guerra Mundial, quando a
palavra memória foi adotada para designar sua capacidade de armazenamento. Ninguém
havia jamais utilizado esta palavra com referência às velhas máquinas de escritório de
Hollerith. Sua forma de armazenar e processar dados era óbvia e incômoda em demasia;
não faziam nada além de perfurar rapidamente cartões que eram introduzidos e retirados
pelas pessoas.
Com a invenção das máquinas programáveis como UNIVAC e outros sistemas
centrais magnéticos mais sofisticados, tornou-se bem menos aparente para o público como
os computadores armazenavam dados. Onde ficava escondida toda a informação nessas
máquinas cada vez mais compactas? Os engenheiros diziam que o computador tinha uma
“memória”, um atributo da mente. As máquinas “lembravam” coisas, coisas çada vez mais
amplas do que poderiam lembrar as pessoas, e — misteriosamente — eram capazes de
chamar tudo de volta com o apertar de uma simples tecla. Por outro lado, com relação aos
cérebros humanos, conforme observou Robert Jastrow, um cientista da computação, “a
quantidade de informação e ‘condutores’ elétricos que podem lotar um crânio de tamanho
determinado é limitada”.21
Mas não há evidência de que o cérebro humano esteja nem sequer próximo de
qualquer limite; nem temos qualquer razão para acreditar que o volume do cérebro tem
alguma relação com a função do pensamento, mesmo com a da lembrança. Ê possível que
aquilo que chamamos imprecisamente de “esquecimento” seja no cérebro humano
justamente a forma de armazenamento e processamento que torna a informação mais
utilizável para o pensamento significativo? Poderia ocorrer que a retenção de dados

20
O cientista é Roger Schank, citado em Frank Rose, Into the Heart of the Mind: An American Quest for Artificial Intelligence,
Nova Iorque, Harper & Row, 1984, p. 208.
21
Robert Jastrow, “Toward an Intelligence Beyond Man’s”, Time, 20. 2.1978, p. 59.
excessivos — mais do que uma simples mente possa lidar com ponderação — pudesse
comprometer a qualidade do pensamento? Através de publicações ou pessoalmente,
deparei-me com inúmeras pessoas que perderam seu rumo intelectual numa floresta de
fatos. “Dados, dados por toda parte, mas nem um pensamento para pensar”.22 Por outro
lado, uma quantidade bastante razoável de cultura foi criada durante milênios por
sociedades que, talvez com razão, deram pouco valor à compilação de dados brutos.
Esta não é a visão que poderíamos esperar dos negociantes de dados. Ao contrário, eles
recorrem à autoridade de cientistas da computação, que tornam possível para empresas
como a Sony anunciar um tape deck que é “tão engenhoso que realmente compensa as
deficiências de sua memória”.
Uma vez que a faculdade da memória foi metaforicamente concedida às máquinas,
sua semelhança com a mente ficou livre para se elevar a alturas sobre-humanas. Pois, se
pensar é essencialmente processar dados, conforme insistem os cibernéticos, então a mente
que retém a maior quantidade de dados é a mente superior em potencial, especialmente no
mundo complexo de hoje, em que há informação em demasia para ser manipulada pelo
cérebro.
A mente humana [observa o cientista do aprendizado da Universidade de
Stanford, Auron Barr] não é somente limitada em sua capacidade de armazenar
e processar, mas apresenta também seus defeitos; engana-se facilmente, é
obstinada e mesmo cega em relação à verdade... Sistemas inteligentes,
desenvolvidos para os computadores e para a tecnologia das comunicações,
terão algum dia mais conhecimento do que qualquer ser humano individual a
respeito do que se passa nos empreendimentos complexos que envolvem
milhões de pessoas.23
Os futurologistas foram bastante rápidos para progredir neste tema: a complexidade
social moderna conduz à supremacia dos computadores. “Uma bomba de informação está
explodindo entre nós”, declara Alvin Toffler. “As pessoas e organizações necessitam
continuamente de mais informação, e todo o sistema começa a pulsar com fluxos cada vez
maiores de dados.” Já alcançamos o ponto em que “ninguém pode lembrar-se de tanta
complexidade enquanto tenta pensar em uma solução para o problema”. Mas a situação está
ao alcance da mão.
Em função de sua capacidade de lembrar e correlacionar elevado número de
influências causais, o computador pode nos auxiliar a enfrentar certos
problemas (tais como criminalidade, habitação, deterioração urbana) em um
nível mais profundo que o usual. Ele pode “peneirar” amplas amostras de
dados para encontrar padrões sutis... Pode mesmo sugerir soluções criativas
para certos problemas, através da identificação de relações inusitadas ou
desapercebidas entre pessoas e recursos.24
Em um trecho como esse, nota-se como o computador foi personificado em uma
agência mental que trabalha aparentemente segundo sua própria iniciativa. Sua capacidade

22
Jesse H. Shera, conforme citado em Machlup, The Study of Information, p. 649.
23
Avron Barr, “AI: Cognition as Computation”, em Machlup, The Study of Information, p. 261.
24
Toffler, The Third Wave, pp. 172, 183, 190.
de armazenar dados amadureceu misteriosamente até o poder de encontrar “padrões sutis”
na sociedade e de sugerir “soluções imaginativas” para os dilemas políticos.
Uma máquina sem dúvida notável. Mas ela existe? Ou existirá algum dia? O autor
não sabe. Por que deveria um sociólogo se considerar digno de um padrão de credibilidade
mais elevado do que o de cientistas e técnicos responsáveis por tal tecnologia? Os cientistas
da computação I. G. Good e Christopher Evans previram a invenção de uma máquina ultra-
inteligente (MUI) na década de 90, e que será mais sagaz do que qualquer inteligência
humana e mais capaz de encarregar-se das principais decisões políticas, incluindo assuntos
de guerra e paz.25 Good, escrevendo no início da década de 70, antecipava uma época em
que essas MUI se dedicariam sozinhas aos negócios e produziriam “uma explosão de
inteligência”.
A MUI nos capacitará a resolver praticamente qualquer problema solúvel, e
nós talvez chegaremos à paz mundial, ao elixir da vida à transformação lenta
das pessoas em PUI (pessoas ultra inteligentes), ou à transformação da
população mundial em uma única PUI.
Em seu livro Machines Who Think [Máquinas que Pensam], Pamela McCorduck,
que trabalha no programa de inteligência artificial da Universidade de Stanford, dá um
passo adiante em relação a essa perspectiva. Ela prediz que a MUI “transformará todo o
universo em uma entidade pensante ampliada”.
Com que intenção os entusiastas do computador fazem prognósticos tão impetuosos
como estes? É difícil dizer. Algumas vezes, como no caso dos comentários de Good, há
algo patético marcante por detrás da efusão. Em uma tal extensão-limite de “benevolência
do usuário”, confiou-se ao computador o papel de um anjo protetor benigno que atenuará
nossas responsabilidades de adultos que se tornaram excessivamente incômodas,
opressivas. Por outro lado, alguns cientistas da computação parecem gostar de bravatas
mentais exageradas que provêm do desmascaramento daquilo que eles consideram ilusões
humanas de grandeza. Marvin Minsky, do MIT,* está entre os dessa categoria. Com o passar
dos anos, ele se delineou como uma figura pública pitoresca nos meios de comunicação,
dando maliciosas tesouradas em qualquer coisa que alguém indicasse como sendo uma
qualidade especial e possivelmente mais complicada da mente humana: senso comum,
julgamento, intuição, criatividade. Ou, por exemplo, as emoções. Nada há de notável lá, diz
Minsky: “Penso que seremos capazes de programar as emoções em uma máquina quando
pudermos fazê-la pensar... Estou certo de que logo que... tivermos decidido quais emoções
desejamos na máquina, não teremos dificuldade em fazê-lo”.26 Trabalhando a partir desta
concepção mínima da personalidade humana, Minsky não tem dificuldade em concluir:
“Penso que tudo o que aprendemos é que somos provavelmente computadores”. Tais
comentários fáceis não deixam de ter influência. Sherry Turkle, que realizou um estudo
sobre crianças em escolas altamente computadorizadas (incluindo uma bastante
influenciada pelo trabalho do laboratório de inteligência artificial de Minsky no MIT),

25
Christopher Evans, The Mighty Micro, Londres, Gollancz, 1984; I. G. Good, “Machine Intelligence”, Impact (uma publicação
da UNESCO), inverno de 1971.
*
Massachusetts Institute of Technology. (N. T.)
26
Minsky, citado em Patrick Huyge, “Of Two Minds”, Psychology Today, dez. 1983, p. 34.
encontrou estudantes que se caracterizaram prontamente como “computadores que sentiam,
máquinas emocionais”.27
Seja qual for a intenção que subjaz a tais especulações, vemos aí refletido um motivo
bem desenvolvido da história tecnológica ocidental. As máquinas por nós inventadas podem
ser divididas em duas categorias: máquinas pesadas e máquinas inteligentes. Máquinas
pesadas (motor a vapor, dínamo, avião) tiveram sua cota no apreço do público; as máquinas
inteligentes obtiveram uma resposta bastante diversa, uma impressão de temor respeitoso
não explícito que é quase patológica. As primeiras máquinas inteligentes consistiam de
diversos tipos de relógios, reguladores, pianos automáticos. Nós não podemos ficar mais
tão impressionados com os velhos instrumentos de contagem ou de cronometragem que
vemos em museus, mas durante alguns séculos de nosso passado, relógios e mecanismos
desse tipo exerceram um charme estranho sobre o pensamento ocidental. O relógio era,
apesar de tudo, uma máquina que parecia capaz de enumerar e regular; parecia possuir um
certo senso de ordem inteligente e matematicamente precisa que desde muito era
considerada um dom especificamente humano. A ligação do relógio com a matemática —
mesmo que apenas a contagem regular — era especialmente fascinante para os cientistas,
pois atuava como um eco de seu próprio gosto por medição exata e objetiva. Mecanismos
de relógio ou semelhantes, como as caixas de música e outros brinquedos, poderiam ser
“programados” (como diríamos hoje) para imitar as atividades inteligentes: mesmo para
tocar instrumentos musicais, escrever com caneta em papel, participar de jogos.
Em contraste com máquinas pesadas, cuja posição tem sido sempre aquela das bestas
de carga (daí medirmos sua força com o horse-power), as máquinas inteligentes têm sido
usualmente tratadas com maior respeito. Seduzem a imaginação científica, que as tomou
livremente como modelos do universo, freqüentemente reorganizando nossa experiência do
mundo para fazer com que ela se ajustasse ao modelo. E aí pode estar o perigo real de
cairmos em uma idolatria tecnológica, permitindo que uma invenção de nossas próprias
mãos se torne a imagem que venha dominar nosso entendimento de nós mesmos e de toda
a natureza ao nosso redor.
O computador é o último episódio nesta obsessão científica com metáforas
mecanicistas emprestadas das máquinas inteligentes. Uma vez mais, da mesma forma que
na época de Newton, os cientistas precisam ser lembrados que os organismos (seres
humanos) que vieram antes dos mecanismos são muito mais notáveis do que os
instrumentos que eles possam ocasionalmente inventar, quando não estão passando o tempo
cantando, fazendo piadas, contando estórias ou adorando deuses.

O silício e a seleção natural


No início da década de 20, Karl Capek escreveu uma peça chamada R.U.R., na qual o
conceito robô (e a palavra) apareceu pela primeira vez. O robô era um mecanismo sensível,
uma máquina com face humana. Mais do que um modelo abstrato de inteligência, poderia
ser imaginado como tendo uma vida própria. Na peça de Capek, por exemplo, os robôs se
transformam em marxistas metálicos incansáveis; rebelam-se contra seus exploradores

27
Sherry Turkle, The Second Self: Computers and the Human Spirit, Nova Iorque, Simon & Schuster, 1984, p. 313.
humanos e assumem o comando. Tal imagem da máquina humanóide deu origem a uma
linha de pensamento que está agora bem representada pelos entusiastas dos computadores
e que é a expressão última da supremacia mecanicista. O computador recebeu uma
interpretação evolucionária que deixa nele a marca de um destino espetacular. Poderá
sobreviver a seus criadores e se tornar a espécie dominante de “vida” na Terra.
Isto é novo na história da tecnologia ocidental. O tema surgiu em incontáveis estórias
de ficção; mas a partir do início dos anos 60, alguns cientistas começaram a tomar as
metáforas em seu sentido literal. Se o computador é um “cérebro” possuidor de
“inteligência”, ele não poderia ser considerado uma “espécie” biológica? E. se tal espécie
atravessa gerações, não poderíamos dizer que está “evoluindo”?
Sem dúvida, muitas máquinas — geladeiras, automóveis, aspiradores de pó —
também são aperfeiçoados, à medida que passam de um modelo a outro. Normalmente não
chamamos a isto evolução. Mas com relação ao computador, sua posição como uma
máquina inteligente ocupa uma categoria especial. Não são apenas progressos cumulativos;
ele está se tornando mais sensível, mais competente mentalmente, mais autônomo.
John Pfeiffer do MIT está entre os primeiros a afirmar que o desenvolvimento do
computador merece ser pensado em termos evolutivos, considerando-se o sentido estrito e
literal da palavra evolução. Em seu livro The Thinking Machine [A Máquina Pensante]
(1962), ele argumenta que o computador é uma tecnologia cujos limites não poderiam ser
especificados. Isto dava a ele uma certa imprevisibilidade, quase uma liberdade desejada
contra o construtor humano. “A partir desse ponto de partida, a máquina está sempre à sua
frente, e estará à sua frente por um tempo indefinido.” Especialmente sob a pressão da
“explosão de informação que já nos ameaça esmagar”, os seres humanos terão de permitir
que o desenvolvimento irrestrito do computador prossiga. Isto fará da “evolução dos
computadores... uma parte significativa da evolução humana”.28
De forma análoga, uma década mais tarde (1972), John Kemeny de Dartmouth,
inventor da linguagem BASIC, estava pronto para predizer uma “evolução simbiótica” da
espécie humana e do computador.29 Com a raça humana face à ameaça de extinção segundo
vários fronts, ele considerou uma “mudança evolutiva significativa” como sendo nossa
maior esperança de fazer uso apropriado do “rico mundo da informação” que criamos ao
nosso redor.
Estas eram predições bondosas que ainda imaginavam uma co-evolução benéfica de
computadores e homens. Contudo, alguns especialistas em inteligência artificial não estão
absolutamente convencidos de que a evolução dos computadores necessita ser sincronizada
com a do obviamente deficiente cérebro humano. “A quantidade de inteligência que nós
humanos temos é arbitrária”, observa Marvin Minsky. “É justamente a quantidade que
temos neste ponto da evolução. Há pessoas que pensam que a evolução estancou e nunca
haverá nada mais inteligente do que nós.” Minsky discorda; seria como dizer “que alguém
não pode construir uma casa mais alta que o alcance de sua mão”.30
Estas especulações evolucionárias se ajustam com precisão à idéia de que a
complexidade social necessita da dominação dos computadores. Com efeito, as condições

28
Pfeiffer, The Thinking Machine, pp. 20-21.
29
John Kemeny, Man and the Computer, Nova Iorque, Scribners, 1972.
30
Minsky, cit. William Stockton, “Creating Computers to Think Like Humans”, New York Times Magazine, 7.12.1980, p. 41.
da vida moderna se tornam uma força seletiva que favorece uma nova espécie, melhor
adaptada à escala e ao ritmo do futuro industrial. O dr. Gordon Pask chamou a esta nova
entidade de “micro-homem”:
A rápida proliferação do computador, da comunicação e dos instrumentos de
controle está constituindo o que chamamos “meio ambiente informatizado”.
Acreditamos, contudo, que a mudança não é meramente quantitativa.
Subjacentes a elas estão mudanças qualitativas bem mais profundas na relação
entre máquinas e seres humanos. Estas mudanças ... estão conduzindo à
evolução de uma nova espécie, uma espécie que apelidamos “micro homem”.31
É o micro-homem humano ou mecânico? Pask acredita que a questão não tem
sentido. “A distinção entre pensamento humano e pensamento da máquina está se tornando
insustentável. Podemos vislumbrar uma expansão revolucionária da mente, seja individual,
social ou forçada em qualquer outro material diverso do tecido cerebral.”
É importante sublinhar aquilo que inspira estas visões da obsolescência humana. Se
o pensamento é apenas uma questão de processamento de informação, então realmente não
há distinção significativa entre a forma pela qual homens e máquinas pensam, a não ser para
dizer que estas são melhores. E se o processamento de informação é a principal necessidade
de nossa época, então as máquinas devem, sem dúvida, ser consideradas como tendo
vantagem seletiva. Mas que espécie de “seleção” estamos a discutir? Não a natural, mas
certamente a cultural. O “meio ambiente informatizado” é, afinal de contas, algo feito por
nós. Deveria, portanto, estar sob nosso controle mudá-lo para que sirva a nossos próprios
valores. É uma visão sinistra da vida, esta que assume que devemos nos tornar timidamente
as vítimas da cultura que criamos.
Até onde pode ser estendido este cenário fatalista? Robert Jastrow prevê que o
computador será o advento de uma “inteligência além da do homem”. É “antes filho do
cérebro humano do que de suas entranhas” e será “sua salvação em um mundo de
complexidade esmagadora”. Mas esta aliança entre homem e máquina será instável. O
computador continuará sua evolução desenfreada. Enquanto
a evolução humana é um capítulo quase terminado na história da vida...
Podemos esperar que uma nova espécie surja a partir do homem, superando
suas realizações assim como ele superou aquelas de seu predecessor, o Homo
erectus... O novo tipo de vida inteligente será muito provavelmente feito de
silício.32
Neste alto grau de febre especulativa, não mais estamos discutindo a mera
inteligência das máquinas; a deliberação moral e a aptidão biológica de nossa própria
espécie estão sendo ponderadas nas escalas de sobrevivência evolutiva...
Há aqui uma atuação recíproca, deturpada de modo incrível, entre idéias e trabalho.
Em primeiro lugar, os biólogos tomaram emprestados conceitos da cibernética para explicar
a genética como um mecanismo de transferência de informação. Em seguida, vemos os
cientistas da computação tomando conceitos da biologia para sugerir a natureza

31
Gordon Pask e Susan Curran, Micro Man: Computers and the Evolution of Consciousness, Nova Iorque, Macmillan, 1982, pp.
2-3.
32
Robert Jastrow, Time, 20.2.1978, p. 59. Ver também Geoff Simons, The Biology of Computer Life, Londres, Harvester, 1985.
evolucionária da tecnologia de processamento de dados. A cultura é assim: freqüentemente
cresce, através da elaboração metafórica, um campo de pensamento que toma emprestadas
imagens sugestivas de outro. Mas em um certo ponto, a elaboração metafórica se torna
claramente pensamento de baixa qualidade.
Este é o ponto em que as metáforas deixam de ser sugestivas e passam a ser tomadas
literalmente.
Contudo, um pensamento tão descuidado, divulgado pelos especialistas da área,
tornou-se imerso no folclore dos computadores. Permeia a tecnologia com um sentido
obsessivo de inadequação humana e falha existencial. Na superfície, os futurologistas e os
negociantes de dados oferecem promessas efervescentes de conveniência, afluência, prazer
e jogos; mas seu otimismo murmurante é atropelado por especulações negras a respeito da
obsolescência humana. Este motivo desesperador surge com as máquinas e não pode
auxiliar, mas expressar nossa réplica à nova tecnologia, mesmo em suas mais triviais
aplicações. Será que criamos algo como uma mente, que é mais apropriada às condições
alienantes da sociedade moderna, mais capaz de lidar com a pressão, com a ansiedade e a
tensão moral? Se assim fosse, poderia ser tomada como um juízo condenatório sobre a
desumanização da ordem social que criamos para nós mesmos. Mas alguns cientistas da
computação a consideram, ao contrário, como uma acusação da própria natureza humana;
possuímos uma mente que não está ajustada para a sobrevivência. Esta conclusão pode ser
deixada flutuando em um elevado nível de especulação, aguardando o resultado dos
próximos milhares ou milhões de anos de seleção evolutiva. Mas enquanto isso, pode ser
dado a ela um conteúdo político significativo. Pode conduzir ao argumento de que mais
poder deveria ser depositado nas máquinas inventadas e controladas pelos cientistas da
computação.

Tecnofilia
As idéias que revisamos até aqui, apesar de quão extravagantes possam ser, são — em alto
grau — parte de uma tradição que é tão velha quanto a sociedade industrial. Podem ser
vistas como expressões extremas de tecnofilia, nosso caso de amor com as máquinas em
nossas vidas. Esta não é a primeira vez que as pessoas projetaram sua esperança de
felicidade e sua imagem de perfeição sobre o último aparelho mágico a surgir. O motor a
vapor, o dínamo elétrico, o automóvel, o avião — cada um em sua época manteve uma
posição similar como emblema do progresso. Tais obsessões tecnológicas vão e vêm tal
como cada nova onda de invenções e investimentos encontra um lugar para si em nossa
dinâmica economia industrial. Um século e meio atrás, um futurologista vitoriano registrou
estes versos burlescos em Illustrated London News:
Lay down your rails, ye nations near and far —
Yoke your full trains to Steam’s triumphal car.
Link town to town; unite in iron bands
The long-estranged and oft-embattled lands.
Peace, mild-eyed seraph — Knowledge, light divine,
Shall send their messengers by every line...
Blessings on Science, and her handmaid Steam!
They make Utopia only half a dream.*
Qual era o objeto dessas aspirações utópicas? A estrada de ferro. Com o auxílio de
uma percepção tardia, é fácil ver quão ingênuas são tais explicações. Poderíamos ainda
tolerar as ânsias de salvação que se emaranham na nova tecnologia. Penso, contudo, que a
fascinação atual pelo computador e seu principal produto, a informação, merece uma
resposta mais crítica. Isto ocorre porque o computador imita tão engenhosamente a
inteligência humana que pode abalar nossa confiança quanto aos usos da mente. E é a mente
que deve pensar sobre todas as coisas, incluindo o computador.
Em nossa cultura popular atual, a discussão sobre computadores e informação está
no mesmo nível dos exageros e mistificações oportunistas da instituição da ciência da
computação. Os hackers e hucksters poluíram nosso entendimento da tecnologia da
informação com fracas metáforas, comparações fáceis e um tanto de completa confusão. Há
bilhões de dólares de lucros e afluência social caída do céu que contam a favor disso. Talvez
haja muitas pessoas que acreditam não apenas que não podem emitir juízos sobre os
computadores, mas também que não têm o direito de assim proceder, pois os computadores
são superiores à sua própria inteligência — uma posição de absoluta deferência que os seres
humanos nunca haviam antes assumido com relação a qualquer outra tecnologia do passado.
À medida que ele entra mais profundamente na estrutura de nossa vida cotidiana,
apreciando a cada passo do caminho a celebração extravagante de seus entusiastas e
promotores, o computador sustenta a possibilidade de dar forma a nossos pensamentos, ou
mesmo a nossa própria concepção de pensamento. Isto é o mais provável a ocorrer no futuro
próximo devido à ampla escala da entrada dos computadores nas escolas de todos os níveis,
em que se forma toda uma geração de estudantes.

*
“Assentem os trilhos, nações próximas e distantes —/ Juntem seus vagões lotados ao Vapor triunfal./ Liguem cidade a cidade,
unam com linhas de ferro/ As terras tão apartadas e em pé de guerra. / Paz, serafim de olhar manso — Conhecimento, luz divina,/
Enviarão seus mensageiros por todas as linhas.../ Bênçãos para a Ciência e seu criado o Vapor!/ Eles fazem da Utopia apenas
um meio-sonho". (Tradução Livre) (N.T.)
3. O curriculum secreto

A quimera da utilização do computador


Numa tentativa de fornecer escorva para a bomba que alimentará o futuro fluxo de venda
de seus produtos, a indústria de computadores faz atualmente com que suas mercadorias
estejam disponíveis em universidades e redes escolares, através de descontos ou mesmo
gratuitamente. Na Califórnia, que poderíamos esperar como sendo a primeira a fixar o
padrão nacional para a educação através da alta tecnologia e onde (a partir dos anos 80)
80% das escolas têm computadores, a Apple Computer colocou, gratuitamente, uma de suas
máquinas em todas as escolas do estado. Isto atinge nada menos do que quase 10 mil
computadores, no valor de US$ 20 milhões (com desconto de imposto para a Apple). A
Atari, a IBM e a Hewlett-Packard rapidamente fizeram ofertas similares, fazendo com que
a Apple propusesse colocar um computador em cada escola nos Estados Unidos — algo
beirando 100 mil máquinas. Mas o Congresso se recusou a conceder o crédito solicitado do
imposto de US$ 64 milhões pela doação.1
À medida que o mercado de computadores domésticos diminui acentuadamente, o
esforço de introduzir microcomputadores nas salas de aula do país vai se tornando mais
intenso. Mas mesmo sem o benefício de tais favores de algumas empresas, o número de
computadores nas escolas públicas em 1983 chegava a 350 mil, mais do que duas vezes o
valor do ano anterior. Em 1984, o número dobrou novamente até 630 mil, com médias
superiores a seis máquinas para cada escola pública e aproximadamente de uma máquina
para cada 72 alunos. O aumento do número de computadores nas escolas irá supostamente
aumentar ano a ano na década de 80, atingindo uma taxa computador/aluno de 1/14 em
1990; alguns educadores predizem que uma taxa 1/1 será alcançada em meados da década
de 90: um computador para cada aluno. A América não está sozinha neste esforço; com
grande apoio do governo, os ingleses, franceses e japoneses também estão fazendo pressão
rumo à computadorização de suas salas de aula. No Japão, 70% das escolas secundárias
estão programadas pelo Ministério da Educação para instalação de computadores antes do
final da década; os franceses lançaram uma campanha oficial para que sejam atingidos “100
mil computadores em nossas escolas” em 1995. Os ingleses, com o auxílio de subsídios
generosos do governo, lideram o grupo com quase 98% das escolas micro-
computadorizadas.2
Nos Estados Unidos, as máquinas não são absolutamente distribuídas
uniformemente. Como se poderia esperar, elas tendem a se acumular nas escolas dos bairros
mais ricos. Procurando sanar tais desequilíbrios, uma maioria do legislativo da Califórnia
exigiu que fossem destinados 30 milhões de dólares por ano na década de 80, para garantir

1
Os números de computadores das escolas americanas são das seguintes fontes: Edward Fiske e Richard Vevero em New York
Times, 9, 10 e 11.12.1984; Alfred Bork, “The Computer in Education”, Education Network News, mar.-abr. 1984; Cathy Castillo,
“Computers in Califórnia Schools”, This World (San Francisco Chronicle Education Special), 29.4.1984; e Ian Anderson,
“Califórnia Schools Reap Bumper Harvest of Apples”, New Scientist, Londres, 3.3.1983.
2
Sobre computadores nas escolas japonesas, ver Electronic Learning, mar.-abr. 1982, p. 12. Para Inglaterra e França, ver
“Classroom Computing: A European Perspective”, Personal Computing, set. 1984, p. 70; e John Lamb, “Programming the First
Generation”, New Scientist, Londres, 28.3.1985, p. 34.
que cada estudante do estado, rico ou pobre, passe ao menos uma hora por semana frente à
tela de um terminal. O congresso debateu (e adiou) muitos projetos de lei que visavam
resolver a questão das diferenças de números de computadores entre as escolas; uma
proposta exigia um orçamento de 700 milhões de dólares por ano para a tarefa de espalhar
o computador e a capacidade de utilizá-lo uniformemente por todo o país.3 O Comitê
Nacional para Inovavação Industrial — um grupo de cidadãos organizado pelo anterior
governador da Califórnia, Jerry Brown — adotou um programa de ação ligeiramente
diverso. Exige a instituição de uma escola para demonstração em cada estado, para
orientação sobre a computadorização: essa recomendação custaria quase meio bilhão de
dólares.4
Estes planos são ambiciosos e caros. Alguns, tentando não perder o ponto de fuga
das propostas, como por exemplo o governador Brown, observaram que nenhum dos
programas em discussão custaria tanto quanto um simples submarino Trident. De certa
forma ele tem razão. Mas acontece também que estes “milhões educacionais” para
investimento em maquinaria estão sendo orçados em uma época em que o professor médio
americano recebe um salário inicial de US$ 13.000 anuais — um pouco acima do miserável
nível mínimo. Contra esse pano de fundo, salientado por todas as propostas, com sua
exigência de planejamento racional, está o fato de que o computador realizou uma entrada
destruidora nos sistemas escolares do país. Na maior parte, as escolas (ou principalmente
os administradores e pais ansiosos, e nem tanto os professores) replicaram com a prontidão
e credulidade de consumidores bem treinados para a pressão comercial da indústria de
computadores. O atual folclore, cujo script é de autoria dos negociantes ie dados, sustenta
a tese de que as crianças têm uma “afinidade natural” com os computadores, que “pode ser
um instrumento poderoso para ensinar as habilidades informatizadas necessárias para se
viver numa sociedade informacional”.5 De fato, o interesse e a habilidade instintivos das
crianças ao lidarem com o computador são tão grandes que seus pais e professores
trogloditas, como uma espécie quase em extinção, não podem entender a paixão que fervilha
na prole. “Atualmente, mães e pais devem sentir-se como pais europeus do século XIX,
quando seus filhos emigravam para o novo mundo”, escreve a educadora Barbara Deane.
“Aqui estamos, não apenas acenando para nossos filhos que adentram esse admirável
mundo novo, que quase não podemos imaginar, mas também esperando poder guiá-los
quanto à utilização dos computadores — dando a eles mapas, por assim dizer, de uma terra
que não conhecemos”. De modo similar, o criador de um programa (inglês) para capacitar
o usuário a utilizar o computador, nos conta que “no futuro, nossas crianças pensarão de
formas que não podemos imaginar agora. O computador está fornecendo a elas um
instrumento intelectual que elas podem dirigir e controlar para realizar façanhas intelectuais
que provavelmente consideraríamos absurdas”.6

3
O número USS 700 milhões/ano foi o custo estimado no Computer Literacy Act, de 1984, do membro da câmara legislativa
estadual Timothy Wirth. Para um estudo do panorama e das propostas que tramitaram no Congresso, ver “Will Legislation
Help?”, Personal Computing, set. 1984, pp. 72-73.
4
Beth Ann Krier, “Planning the Schools of the Future”, Los Angeles Times, 18.12.1984, 5, p. 1.
5
Rogers e Larsen, Silicon Valley Fever, p. 259.
6
Barbara Deane, “User-Friendly Learning”, Califórnia Living Magazine, 18 de agosto de 1985, p. 11. O educador é citado em
Liza Loop, Computer's Town, Reston, Va. Reston/Prentice-Hall, 1983, p. 10. Computer-Town é o nome de uma campanha sobre
a habilidade computacional financiada pelo National Science Foundation em 1979.
Nos anos 60 falava-se muito em conflito de gerações. Isto era entendido como uma
discrepância moral e política. Na Era da Informação, essa “lacuna” é meramente
tecnológica, uma questão de aptidão de programação e virtuosidade para o “teclado”.
“Meninos e computadores se combinam” possivelmente de uma forma que deixa seus pais
sem outra opção a não ser colocarem-se de lado e observarem com espanto — mas apenas
depois de terem comprado o equipamento.
Inegavelmente alguns garotos têm perfeito entrosamento com computadores. A
ênfase, contudo, está no alguns, da mesma forma que na frase “alguns garotos se entrosam
com violinos ou pincéis”. Apesar disso, não são gastos milhões para que violinos e pincéis
cheguem às escolas. Inicialmente, há uma justificação que favorece os computadores em
detrimento dos violinos e pincéis, nas prioridades orçamentárias das escolas. Está
incorporado na expressão mágica Computer literacy [habilidade de se utilizar o
computador]* — uma necessidade aparentemente inegável da era da informação. Sem essa
habilidade, as crianças cresceriam com a perspectiva do desemprego. Na Inglaterra, a Apple
tem tentado computadorizar as escolas com a utilização do slogan “Nossos garotos não
podem esperar”.
Mas o que é esta habilidade [Computer literacy]? O significado original da frase tem
relação com o ensino da programação — principalmente em BASIC, a mais simples e mais
amplamente utilizada entre as linguagens de computadores de alto nível. Mas no final da
década de 70 surgiram dúvidas. Muitos cientistas da computação começaram a considerar
o BASIC como uma escolha limitada e retrógrada entre as muitas linguagens disponíveis.
Porém, mais importante que isto: por que ensinar programação se estão surgindo no
mercado tantos softwares pré-programados? Para muitos propósitos, o software cumpre sua
tarefa de forma mais eficiente do que um programa tosco e amadorístico. Parecia não haver
necessidade alguma para a habilidade, a não ser a preparação de uma carreira específica em
programação, que requer muito mais treino do que o oferecido pelas escolas. Sem dúvida
aprender um pouco de programação básica conduz à desmistificação dos computadores —
desde que ensinada corretamente (o mesmo pode ser dito com relação a aprender como se
desmonta um carro, um aparelho de som ou uma geladeira — tais habilidades auxiliam a
penetrar nos segredos da moderna tecnologia). Adianta, porém, treinar as crianças para que
utilizem uma máquina que muda a cada ano? Vale a pena aprender a editar textos através
de um Wordstar quando programas bem superiores como Wordstar 2000 ou ainda o
MacWrite estão a caminho? Cada nova geração de computadores requer cada vez
habilidades menos específicas, menos literacy dos usuários, da mesma forma que avanços
na engenharia automobilística tornaram mais fácil guiar um carro.
À medida que a programação foi tirada furtivamente do curriculum, a habilidade
computacional se tornou cada vez mais uma quimera educacional. Freqüentemente nada
tem restado para os professores a não ser utilizar seus computadores para realização de
exercícios de níveis inferiores — nenhum avanço com relação aos sedutores materiais
didáticos auxiliados por computador e às máquinas de ensino dos anos 60. Alguns estados
(Califórnia, Nova Iorque, Virgínia, Minnesota) gastaram muito dinheiro para treinar seus
professores em muitas habilidades referentes a computadores, mas isto de nada adianta

*
Optaremos pela expressão “habilidade computacional”. (N. T.)
quando não se tem uma resposta precisa para a questão: as escolas devem ensinar sobre,
através ou por meio de computadores?
Outro problema: geralmente, os professores pouco descobriram que pudessem
integrar, através de instrução programada, curricula existentes com seus métodos
experimentados de ensino. Deveriam eles, portanto, se reaparelharem para se ajustarem à
exigência das máquinas? Valeria a pena? Mesmo que eles desejassem fazê-lo, que software
deveriam escolher? Há um forte consenso entre os educadores que afirma que a maioria do
que o mercado tem a oferecer é freqüentemente nada superior do que video games
rudemente adaptados com visual de apelo imediato, mas pouca substância intelectual. Um
importante estudo profissional realizado pela Minnesota Educational Computing
Corporation estima que, a partir de 1984, apenas 200 dos 10 mil softwares de programas
educacionais à venda tinham algum valor.7 O governo federal auxiliou na abertura de uma
via para que os computadores adentrassem a sala de aula. O Department of Education
concedeu à Universidade Harvard uma doação de USS 7,7 milhões para instituir um Centro
de Tecnologia Educacional, cujo propósito é testar e desenvolver software de qualidade
superior. Um dilema com o qual o centro pode confrontar as escolas: software de qualidade
é caro para ser utilizado. Os estudantes podem esgotar rapidamente os benefícios de um
software de nível inferior; poucos minutos defronte à máquina e eles podem terminar o
treino ou resolver o problema colocado por um jogo trivial. Por outro lado, software que
seja desafio, desperte interesse e seja interativo, exige intensa utilização do tempo da
máquina. Deve ser dado a cada estudante uma chance para que tente resolver os problemas.
Sem dúvida o material pode ser utilizado em grupos pequenos. De qualquer modo, deveria
haver maior quantidade de máquinas. Poderíamos esperar que a indústria de computadores
tivesse capitais investidos em softwares de alta qualidade, pelo menos a fim de vender uma
quantidade maior de hardware.

Uma solução na busca de problemas


Joseph Weizenbaum, do MIT, descreveu certa vez o computador como “uma solução na
busca de problemas”. O melhor exemplo disso é o modo pelo qual as escolas primárias e
secundárias estão utilizando a máquina. A situação atual é a seguinte: há um clima de
urgência tanto a nível nacional como local, no que se refere a colocar essa magnífica
solução, seja como for, para funcionar nas escolas — pelo menos para identificar o
problema correto. O interesse é entendido como algo que devemos a nossas crianças e
também se refere ao prestígio e ao poder nacional. Há muita conversa com referência a “sair
do atraso” ou “ir avante”, sobre o treinamento de presumíveis desempregados e sobre a
escolha dos melhores para um progresso rápido. Mas quanto às tarefas das classes de aula
reais, o computador é um assunto ou um veículo de instrução? Se é um veículo, que
materiais deve carregar? Que parte do curriculum ele deveria realizar? O curriculum deve
ser adaptado ao computador, ou este ao curriculum?
Sem dúvida tais questões deveriam ser respondidas antes da aquisição e antes de
serem orçados programas de retreinamento. Mas logo que cheguem os computadores,

7
O estudo MECC é descrito em Personal Computing, set. 1984, p. 69.
gratuitamente ou não, será difícil nada fazermos com eles. Assim, os professores iniciam
uma batalha para improvisar usos educacionais defensáveis. Talvez algumas vezes tenham
sucesso.
Pairando sobre o enevoado conceito de habilidade computacional está a futurológica
suposição-padrão de que a máquina irá algum dia dar aos estudantes uma abundância de
dados e irá fazê-los cidadãos de prestígio na Era da Informação. De fato, poucas escolas
estão ensinando aos alunos o modo de procurar bancos de dados. Talvez seja melhor: o
ensino desta complexa habilidade seria certamente prematuro (e muito dispendioso) antes
da universidade. Enquanto isso, a única informação que as crianças recebem do computador
é o que está contido no software, o que está projetado para ser ensinado, o curriculum
existente. A esse respeito, a máquina tem menos a oferecer do que um livro de textos. Seu
processamento de dados é necessariamente limitado à tarefa de complementar o texto ou
outras atividades de classe; ilustração, animação, testes, exercícios. Alguns entusiastas do
computador consideram essas utilizações como sendo de nível inferior; “uma perda de
tempo, energia e dinheiro”, comenta Robert Scarola. Tal software “reforça a idéia de
computadores como sendo máquinas de rotinização”.8
Aqueles que acreditam que o computador realiza bem essas tarefas complementares
argumentam que ele oferece ao estudante demonstrações e simulações atraentes e animadas
com as quais ele pode trabalhar, além de instruções individualizadas. É, sobretudo,
instantaneamente interativo. Isto significa que, ao invés de ter de esperar pelo livro de
exercícios para saber os resultados, perdendo assim o ímpeto, os estudantes podem ver suas
respostas avaliadas e corrigidas tão logo eles as dêem. Geralmente a máquina responde com
simpáticos sinais aos trabalhos melhores. Emite tons vivos, flashes, mostra uma face
sorridente ou convoca uma figura saltitante para apresentar a dança da vitória.
Pessoalmente devo dizer que considero os desenhos animados e gráficos, trazidos à
classe pelo computador, como esteticamente degradados, e mesmo feios. As figuras se
movem, mas são, contudo, desagradáveis ao olhar. A arte do computador no nível da
animação mais cara e de softwares de gráficos de três dimensões pode ser autenticamente
criativa. Mas nada próximo a isto chegará nem mesmo perto das escolas. O equipamento é
incrivelmente caro, uma vez que exige processamento matemático sofisticado a fim de
compor um quadro refinado de cores (os computadores gráficos comercializados pela
Lucasfilm’s Industrial Light and Magic division custam aproximadamente 125 mil dólares).
Além disso, apenas profissionais treinados podem utilizar corretamente tais máquinas. As
animações encontradas na maioria dos softwares educacionais de preços acessíveis podem
consumir milhares de linhas de programa para produzir movimentos de animação nessas
máquinas simples e standards. Os hackers têm satisfação nisso, mas seu padrão artítistico
não é confiável. A maioria daquilo que eles elogiam é simplesmente horrível de se ver; não
chega a se comparar nem mesmo ao nível de um desenho medíocre de Walt Disney. Os
entusiastas do computador já ponderaram honestamente sobre que conseqüências poderá
haver para as inclinações e o bom gosto das crianças expostas visualmente por um longo
período a tal tipo de arte-refugo? Pior que isso, alguns professores tentam utilizar as
habilidades gráficas de nível inferior do computador para ensinar “arte”, rebaixando o

8
Ver a introdução de Scarola para a parte referente a “Learning”, do The Whole Earth Software Catalog, Nova Iorque, Doubleday,
pp. 175-177. Esta parte do catálogo oferece um bom estudo a respeito de alguns dos melhores softwares educacionais do
mercado.
indivíduo ao nível da máquina. Uma exceção pode ser o programa notavelmente flexível
MacPaint, da Apple, que simula de modo surpreendente as capacidades do pincel e do lápis.
Mas, mesmo assim, por que não se dá preferência para treinar a mão no uso de um lápis e
de pincéis reais diretamente no papel?
De qualquer forma, animação e atuação recíproca (interatividade) são inques-
tionavelmente as características educacionais mais valiosas do computador. Sempre que
exercícios e resolução de problemas são considerados, é melhor ter-se uma resposta rápida.
Mas isto poderia, naturalmente, ser proporcionado pelo professor — se houvesse
professores suficientes. Os fabricantes de computadores estão investindo, supondo que
nunca haverá. Sua esperança é que, uma vez colocada a possibilidade de escolha entre
contratar pessoas ou trabalhar com máquinas, o público não irá querer pagar o preço de
instrução individualizada (com professores) e classes interativas. De fato, eles tentam fazer
com que tudo ocorra de um modo favorável a eles, espalhando que: (1) os professores
detestam exercícios e prefeririam estar livres para outros propósitos mais criativos; e (2) os
professores não são bons no que se refere aos exercícios, pois ficam impacientes e
autoritários, enquanto (3) o computador é “o mais paciente dos professores”.
Se, por outro lado, você perguntar a professores desempregados se relutam em ser
contratados para lidar com exercícios e treinos, você provavelmente terá outro ponto de
vista. Pode ser que eles cheguem a lhe dizer que podem fazer o trabalho com cuidado,
flexibilidade e imaginação a partir de seu interesse profissional pelas crianças. Os
computadores podem estar levando muitos professores ao desemprego. E isto é uma pena,
pois mesmo numa atividade de nível inferior como os exercícios tipo drill, o professor
auxilia com sua inteligência presente, oferecendo um sorriso encorajador aqui, uma
brincadeira lá, uma piscadela ou um sinal de aprovação, talvez pegando um rubor ou um
gaguejar que revela a natureza do problema do estudante. Isso não é inteiramente óbvio?
Por que, então, sai da vista tão logo os computadores estão em discussão? Eu tive
professores que eram bastante peritos em exercitar a classe com paciência e vigilância
sensível; eu certamente não passei tal experiência sozinho. De qualquer forma, o que ocorre
com o ânimo dos alunos ao saber que o drill que eles precisam aprender é uma grande
chatice, ou possivelmente um obstáculo para a “produtividade” do professor?
Em geral, o item mais fervilhante da agenda da indústria educacional é “a máquina
preceptora inteligente”, que está sendo desenvolvida pela IBM, Xerox, Apple e outras. A
Hewlett-Packard doou quase US$ 50 milhões para várias universidades a fim de se criar
alguma combinação entre inteligência artificial e videográficos em disco a laser que
poderiam funcionar como um “computador preceptor” capaz de ensinar conceitos abstratos
e estabelecer uma conversação falada. Para os cientistas da computação, é sem dúvida
excitante perguntar: “Podemos inventar uma máquina que faz o que um professor faz?”.
Mas há outra questão que poderia ser colocada: “Por que inventar uma máquina que faça
isto em primeiro lugar?”. Nunca houve dificuldade em responder esta questão sempre que
o serviço a ser executado era sujo, perigoso e opressivo. O ensino está longe disso. De fato,
constituiria um daqueles “usos humanos dos seres humanos” para o qual as pessoas
poderiam esperar uma virada tão logo os robôs as tivessem poupado do trabalho nas linhas
de montagem.
Sem dúvida os fabricantes de computadores investiram no desemprego de
professores. Eles estão vendendo uma máquina que poupa trabalho em uma economia em
que a mão-de-obra é abundante e poderia ser conseguida por um salário satisfatório. Sempre
que a pequena figura do computador executa sua dança, há um aspirante a professor em
algum lugar que ficará sem seu pagamento.
Se o computador não for utilizado apenas como um auxílio mecânico do professor,
ou como substituto do professor, será que ele pode oferecer algo característico como um
dispositivo educacional, algo próprio e que um professor também não pudesse fazer? Há
educadores que acreditam que sim (no próximo capítulo veremos uma das mais
impressionantes propostas desse tipo: o programa Logo de Seymour Papert). Aqui, nós
podemos notar que os softwares mais interativos de solução de problemas — jogos como o
tão elogiado Rocky’s Boots (criado por Warren Robinnet e disponível na Learning
Company) — podem dar traços singulares à classe de aula. São os exercícios bastante
divertidos de lógica simbólica. Os desenhos são medonhos, mas a idéia-guia dos jogos é
sofisticada e não poderia ser executada com a mesma qualidade de desafio sem um
computador interativo. Software deste calibre é especial; é também bastante caro para ser
utilizado intensivamente para cada criança e com tempo controlado. Quanto melhor o
software, mais amplo deve ser o hardware que a escola deve comprar para dar oportunidade
a todos os seus alunos.
Pode-se justificar o ensino da lógica simbólica? E por que não? Sua importância
intelectual decorre de méritos próprios. Alguns poderiam argumentar que traz um benefício
muito genérico: pode auxiliar no treino da mente a pensar claramente. Esta é uma suposição
um tanto antiquada e duvidosa. É baseada na velha idéia da psicologia das aptidões, que diz
que há certos músculos mentais que deveriam desenvolver-se em função de sua utilidade
geral na vida. Durante séculos, o latim foi obstinadamente ensinado nas escolas, segundo a
mesma premissa errônea que contribui para os hábitos ordenados de pensamento. Como os
antigos mestres latinos, os cientistas da computação se sentem da mesma forma com relação
a seus assuntos favoritos: matemática e lógica.
A lógica simbólica não ensina, provavelmente, nada além da lógica simbólica. Mas
alguns estudantes se saem bem e gostam dela, merecendo experimentar qualquer outra coisa
que possa ser oferecida em classe de aula. Não pode haver danos. Se isso justifica o custo
da tecnologia já é outro caso. Os educadores, contudo, podem estar certos de uma coisa, e
nesse ponto devem honestidade absoluta a seus alunos. Software educacional inteligente
como Rocky’s Boots não contribuirá mais para que os estudantes consigam empregos do
que os cursos de programação obsoletos. No mercado de trabalho, os estudantes enfrentarão
o fato de que as carreiras de high tech exigem muitos anos de aperfeiçoamento profissional
e educação mais especializada. Mesmo assim, aquelas carreiras serão destinadas aos poucos
que lá possam chegar. Os cinco empregos mais disponíveis na economia informacional
serão os serviços de porteiros, auxiliares de enfermagem, vendedores, encarregados de
caixa e garçons.9
A partir daí poder-se-ia concluir que aquilo que os jovens devem defender como seu
interesse na vida é uma educação que os equipará para que façam perguntas diretas e críticas
com relação a esta perspectiva nada convidativa. Por que o mundo é assim? De que outro
modo poderia ser? Há temas que, se devidamente ensinados, auxiliam as pessoas a

9
Esta visão do mercado de trabalho, baseada nos dados do Bureau of Labor Statistics, foi tirada de Henry M. Levin e Russell W.
Rumberger, “The Educational Implications of High Technology”, relato do Institute for Research on Educational Finance and
Governance, Stanford University, fev. 1983, p. 5.
responder a tais questões. São as ciências sociais, a história, a filosofia. E todas estão
baseadas na literacy [capacidade de ler e escrever] simples e fora de moda que possibilita
às mentes inquiridoras o acesso aos livros, a idéias, insights éticos e visão social.

O campus computadorizado
O computador adentrou o mundo da educação superior de forma mais fácil e decisiva do
que o das escolas primárias e secundárias. As universidades, afinal de contas, têm maior
controle interno sobre suas escolhas do que os sistemas escolares congestionados pela
burocracia. É também uma esfera de homens e mulheres instruídos, eruditos e especialistas
que estão supostamente preparados para fazer julgamentos argutos que se elevam acima das
extravagâncias do mercado. Os campi foram, porém, o alvo de uma feroz campanha de
marketing por parte dos fabricantes de computadores e o resultado parece estar sendo
devastador.
Muitas das mais importantes universidades compraram seu primeiro computador a
partir de meados da década de 60, um dos gigantes da IBM. O computador do campus
tornou-se um haver dispendioso que era freqüentemente mostrado como sinal de status. Era
geralmente instalado em um centro de computação onde havia ar-condicionado e utilizado
principalmente para processamento de dados administrativos. Os registros escolares se
transformaram rapidamente em saídas impressas do computador; notas, horários e
programas passaram a ser passados em cartões perfurados. As escolas de mais recursos,
especialmente aquelas com fortes departamentos científicos, adquiriram rapidamente mais
alguns desses grandes sistemas para seus técnicos; eram utilizados principalmente na
organização de arranjos para divisão do tempo, que eram sempre a arena de uma intensa
competição e disputa nas faculdades.
No início da década de 70, as universidades começaram a organizar laboratórios de
computação multiterminais, onde os alunos e a faculdade poderiam tocar a tecnologia com
as mãos. Uma vez mais, departamentos de prestígio fariam o máximo para obterem seus
próprios laboratórios autônomos como sinal de status. Nessa época, cursos opcionais de
programação de computadores começaram a surgir, principalmente para estudantes de
ciências e engenharia. A sociedade se computadorizava em seus principais setores; mas
havia poucos educadores que pensavam acerca da habilidade e capacidade de se lidar com
o computador [computer literacy] como uma necessidade urgente no ensino superior. Muita
coisa mudou significativamente nas universidades com a mudança do mercado. Na década
de 80, com o advento do microcomputador, um item de pronta venda, a indústria de
computadores passou a perseguir a academia com o mais intenso marketing massificado da
história dos negócios. O objetivo era nada menos que colocar os computadores nas mãos de
todos os professores e estudantes. Com o auxílio de bolsas, doações e descontos estupendos
de até 80%, as empresas conseguiram causar impacto em muitas pessoas; isto funcionou
como uma série de transações-guia para atingir mais e mais escolas grandes e pequenas. Os
campi não mostraram muita resistência a tais carícias.
As universidades constituem um mercado rico. Como um todo, elas gastaram em
torno de 1,3 bilhões de dólares em computadores em 1984. Até o final da década, a projeção
indica que gastarão 8 bilhões. Escolas menores como Carnegie-Mellon (5 500 estudantes)
podem gastar entre 10 e 15 milhões por ano com a nova tecnologia; o orçamento de uma
grande escola como a Universidade de Michigan (três campi) atinge 50 milhões de dólares
por ano.10 Um estudo realizado em 1981 pela Fundação Nacional de Ciência [National
Science Foundation] estimou em 30 milhões de dólares o custo para equipar um campus de
5 mil alunos com computadores; este é o custo aproximado para construir um novo edifício.
Uma grande universidade deve gastar algo entre US$ 100 e US$ 200 milhões. Estes não são
gastos únicos; existem os custos de manutenção e de operação, mais a necessidade
inevitável de atualização de equipamento que geralmente se torna obsoleto justamente
quando está preparado para ser utilizado.11 O que é ainda mais promissor é que as escolas
controlam um imenso mercado estudantil, cuja população é constituída por futuros
profissionais de alta remuneração e do tipo colarinho branco, que são os consumidores
ideais de computadores. Será uma bonança para a indústria se os educadores forem
persuadidos a impor uma exigência referente à habilidade computacional. Escolas tão
influentes como Harvard, Yale e a Universidade da Califórnia em Berkeley têm considerado
isso seriamente, mas ainda não adotaram a medida, talvez porque não têm idéia mais clara
do que as escolas secundárias do que significa a expressão. (Mas pelo menos uma pequena
instituição como a Dallas Baptist, em que todo novo aluno deve comprar um Radio Shack
modelo 100, foi bem longe a ponto de insistir em que pelo menos três escolhas por semestre
em cada curso exigiria o uso de computador).12
Para os negociantes de dados, a aquisição da máquina é um requisito bem mais
importante do que um requisito referente à habilidade computacional [computer literacy],
com relação à admissão do aluno. Isto está ocorrendo atualmente. Em Darmouth, os
calouros devem ter um Macintosh; no Clarkson College em Nova Iorque, exigem-se
Zeniths. Carnegie-Mellon, Drexel, Stevens Institute e Drew estão entre a quase uma dúzia
de escolas que atualmente acrescentam (e bem) o preço de um computador nas taxas pagas
pelos alunos. Não se pode dizer até onde se espalhará esta moda em políticas de admissão,
mas é certamente uma inovação audaciosa. Terá havido alguma vez outra instância de
ensino universitário que exigia a posse de um determinado equipamento para a consecução
do aprendizado?
Surgem novos problemas e possibilidades com o crescimento rápido do número de
microcomputadores e de faculdades nos campi. Há, sobretudo, o desafio de coordenação,
para assegurar que as máquinas sejam compatíveis entre si. Uma nova figura apareceu no
campus, com poder considerável, para cumprir a tarefa: o “czar dos computadores” —
geralmente com um título como “Superintendente” ou “Reitor adjunto para Tecnologia da
Informação”. O principal projeto que a maioria dos czars objetiva é a interligação através
de redes [networking] de todos os computadores do campus, constituindo um sistema
encantador. Isto pode começar com um certo número de grupos ou estações de trabalho,
pequenas coleções de computadores localizados possivelmente nas bibliotecas ou
dormitórios. A partir de tais redes, outras maiores podem ser estendidas. Esta é uma decisão
que requer árduo planejamento, possivelmente com desembolsos para extensão das redes
elétricas. A escola que opta pela instalação de redes tem raízes profundas calcadas na

10
Linda Watkins, “On Many Campuses, Computers Now Are Vital and Ubiquitous”, Wall Street Journal, 30.11.1984, p. 1.
11
M. M. Waldrop, “Personal Computers on Campus”, Science, 26.4. 1985, p. 441.
12
Para um estudo sobre os computadores nas universidades, ver Donna Osgood, “A Computer on Every Desk”, Byte, jun. 1984.
Ver também Judith A. Tumer, “A Personal Computer for Every Freshman”, Chronicle of Higher Education, 20.2.1985, p. 1.
tecnologia. Os computadores vieram para ficar e seu número crescerá. Por esta razão, os
fabricantes de computadores estão ansiosos para ajudar as universidades nesse movimento
até este platô de permanência do computador. Em Carnegie-Mellon, a IBM está
acompanhando a construção de uma rede de 7 500 estações de trabalho. Quando for
completada, ela será a primeira escola a ter mais computadores do que estudantes. Na
Universidade de Houston (44 mil estudantes em quatro campi) a Digital Equipment
Corporation gastou US$ 70 milhões para instalar uma rede de 4500 terminais, para a qual
ela arcará com metade do custo.13
Há outra proposição tentadora que auxilia neste caminho das universidades até a
completa computadorização. As escolas e os fabricantes entram juntos nos negócios. Várias
escolas assinaram contratos para empreender projetos de “pesquisa e desenvolvimento
conjuntos” com importantes firmas. A faculdade — tendo sido ricamente dotada com
computadores a preços reduzidos (ou mesmo grátis, como no caso de quase 150 professores
de Stanford, que ganharam computadores IBM-PC para levarem para casa) — concorda em
discutir novos softwares que a empresa irá comercializar, a seguir, segundo bases
mutuamente vantajosas. Talvez fosse muito cinismo prever que a maioria desses softwares,
uma vez que cumpriu seu objetivo como isca, irá desaparecer em alguma relação de
estoques abarrotados da firma. Mas será interessante notar quantos dos projetos dos
professores verãò a luz comercial do dia. Há casos, sem dúvida, em que os acordos de
desenvolvimento conjunto faz sentido. O MIT, por exemplo, é o pedestal da tecnologia
americana; seu corpo docente tem certamente muito a oferecer através de consultoria ou
dos programas de pesquisa escolares em andamento. No MIT, tanto a IBM como a DEC
colaboram com US$ 50 milhões em equipamento, pessoal e manutenção, como parte de um
esforço conjunto chamado Projeto Athena. Além disso, a IBM tem um projeto de US$ 50
milhões em Brown e um contrato de US$ 10 milhões com a Universidade da Califórnia, em
Berkeley. A DEC tem outros US$ 24 milhões espalhados em 15 escolas. A IBM fez uma
doação mais modesta a Princeton, no valor de US$ 6 milhões em equipamentos, o que trará
ao campus mil microcomputadores através de uma rede de 50 grupos: esta concessão terá
um interessante efeito, a saber, o desenvolvimento de programas de habilidade
computacional que abalarão as humanidades, a começar pelo Departamento de Religião.
Este respondeu com avidez.14
O arranjo mais ambicioso e frutífero entre esses foi o Consórcio Apple, que uniu a
empresa e mais 24 escolas (todas as universidades da Ivy League e as de Michigan e
Stanford entre elas), para o desenvolvimento do Macintosh. As escolas deram pelo menos
US$ 2 milhões cada à Fundação Apple para Educação; em troca, durante o ano de 1984,
receberam 50 mil Macs com descontos suficientemente generosos para vencer e enraivecer
vários concorrentes da Apple.15
Se tudo sair como esperam os fabricantes, haverá um dia em que todos os estudantes
e professores dos campi — totalmente repletos de redes — terão micros e, então, talvez eles
não se encontrem mais. Apenas trocarão tarefas e notas eletronicamente. As redes poderão

13
Sobre instalação de redes nos campi, ver Peter Gwynne, “Computers Are Sprouting in the Groves of Academe”, Technological
Review, out. 1984; e Ian Anderson, “Computer Firms Battle for Hearts and Minds”, New Scientist, Londres, 9.2.1984, p. 23. Ver
também Osgood, “A Computer on Every Desk”; Waldrop, “Personal Computers on Campus”.
14
Sobre o projeto Princeton, ver New York Times, 24.6.1984, p. 30.
15
Para um estudo de diversos projetos, incluindo o Apple Consortium, ver o artigo de Osgood, “A Computer on Every Desk”.
ampliar os campi a partir dos quais foram criadas — como no caso da Universidade de
Houston, em que professores e alunos podem comunicar-se estando em suas próprias casas.
Os professores podem não apenas dar notas aos alunos eletronicamente, mas também se
comunicar com eles a qualquer hora do dia ou da noite, e talvez observar on-line que tarefas
estão sendo processadas na tela de vídeo, fazendo sugestões que possam auxiliar.
(Naturalmente este tipo de fraternidade imprevisível e intrusa seria possível atualmente
através do telefone. Esta é a razão de muitos professores, segundo minha experiência, tudo
fazerem para manter seus números de telefone em segredo. Não estou certo da razão pela
qual alguém supõe que o terminal do computador, sempre ligado e exigindo atenção, venha
a tornar a interação professor-aluno mais atraente.) O último objetivo das redes em escala
grandiosa é tornar-se uma “cidade de fios” que se expanda até a comunidade circundante.
Juntamente com a Bell Telephone e a Warner Communications, que detém o privilégio das
redes locais de televisão, a Universidade Carnegie-Mellon está planejando fazer o mesmo
na área de Pittsburgh.
Poderíamos tentar encontrar com afinco outra época em que uma simples indústria
tivesse sido capaz de impor seus interesses de forma tão agressiva sobre as escolas de uma
nação — e encontrar tão entusiástica receptividade (ou tão tímida submissão) por parte dos
educadores. Isto é mais notável se considerarmos que provavelmente não existem dois
professores ou cientistas de computação com a mesma definição de “habilidade
computacional” [Computer literacy] — o objetivo de lançamento da campanha. No tocante
aos benefícios intelectuais gerais desta habilidade, não há evidência a ser encontrada além
das alegações da literatura promocional da indústria de computadores, ensopada de alusões
futuristas sobre a vida na Era da Informação. Se os fabricantes de computadores tiverem
sucesso em suas vendas, poderemos estar diplomando em breve estudantes que acreditarão
(com o encorajamento de seus professores) que pensar é realmente uma questão de
processamento de informação e, portanto, sem um computador nada pode ser pensado.
“A grande universidade do futuro será a que tiver um grande sistema de
computação”, conforme anunciou Richard Cyert, presidente da Carnegie-Mellon.16 Uma
dramática afirmação de convicção. Sem dúvida, muitos educadores desejam que suas
escolas tenham os recursos que sua universidade arrecadou com base nesta grandeza,
mesmo que permaneça na obscuridade a forma pela qual quantidades deste poder
computacional possam ser transformadas em qualidade de ensino. Não há dúvida que os
computadores têm um papel valioso a cumprir como aparelhos de cálculo nos campos
técnicos, como sistemas de registro e armazenamento eletrônicos ou como processadores
de palavras. Tomados em conjunto, tais atributos constituem uma contribuição significativa
de cada simples invenção na vida de professores e alunos. Mas os entusiastas dos
computadores prometeram que a nova tecnologia fará mais do que simplesmente substituir
a régua de cálculo, a máquina de escrever e o arquivo de aço. Seus benefícios alcançam
supostamente os valores intelectuais no mais alto grau, nada menos do que a radical
transformação de métodos e objetivos educacionais. O computador, afinal de contas, é o
portador de informações em abundância, que são tidas pelos próprios educadores como
sendo a substância do pensamento. Mesmo o doutor Ernest Boyer, presidente da Fundação
Carnegie para o Avanço do Ensino, que fez muitas críticas perspicazes sobre o desperdício
e o abuso do computador nas escolas, concorda que, “a longo prazo, professores eletrônicos

16
Cyert, citado em Wall Street Journal, 30.11.1984, p. 18.
poderão prover trocas de informação, idéias e experiências de forma mais efetiva (sem
dúvida de forma diversa) do que a tradicional sala de aula ou o professor. A promessa da
nova tecnologia é a de enriquecer o estudo da literatura, da ciência, da matemática e da arte
através de palavras, imagens e mensagens auditivas”.17
Quão decepcionante é, portanto, ver promessas como esta se transformarem em
meros chavões promocionais. Há, por exemplo, a imagem do campus completamente
computadorizado e ligado por redes, que normalmente permanece como objetivo último da
computadorização das universidades. Sem deixar seus quartos, os estudantes serão capazes
de ter acesso ao catálogo de livros da biblioteca ou de registrar em um mural estudantil para
trocar informações, fofocas, marcar encontros, conseguir uma carona, comprar livros de
segunda mão. Poderão entregar tarefas eletronicamente a seus instrutores.
Sim, esta e mais uma dúzia poderão ser computadorizadas. Mas por que deveriam?
São agora realizadas pelas formas mais óbvias e pelos meios mais econômicos: os
estudantes vão até a biblioteca, a livraria, o centro estudantil, o café mais próximo, onde
eles encontram outros seres humanos. Eles falam, escutam, fazem arranjos. Exceto para
estudantes incapazes (para os quais o computador pode ser uma dádiva), que sempre
consideram tais atividades comuns bastante cansativas, quem concordaria com o custo de
uma tecnologia dispendiosa para eliminá-las? De fato, sempre pensei que um campus de
vitalidade intelectual é o que é projetado em sua arquitetura, fundamentos e espírito geral,
de forma a tornar atraente e freqüente tal intercâmbio humano diário — e não aquele em
que são gastos milhões para poupar aos estudantes o exercício de deixar seus quartos.
Quando entusiastas sugerem tais usos artificiais para o computador, não estão
fazendo mais que dando uma lição de dependência tecnológica, um vício já arraigado em
nossa cultura. Por razões comerciais óbvias, estão impondo uma máquina em lugares onde
não seria necessária. Da mesma forma, a perspectiva de estudantes submetendo-se a tarefas
por via eletrônica significa o endosso de um pseudoproblema que surge apenas porque foi
inventado pelos mercenários da publicidade, que só se preocupam com a venda de seus
produtos. Deparei com a publicidade de computadores, que parece determinada a que eu
esqueça que o lápis vermelho — sublinhando, fazendo círculos, escrevendo nas margens e
entre as linhas da página (coisas que nenhum computador pode fazer) — é um dos
instrumentos mais práticos jamais inventado. Todo professor experimentado sabe disso;
mas os anúncios querem confundir-me para que eu concorde que, como um membro da Era
da Informação, deveria estar lidando exclusivamente com discos flexíveis e telas de vídeo.
Admitirei que, em um certo grau, determinado critério de grandeza educacional
possa envolver assuntos de gosto pessoal. Algumas pessoas preferem a imagem da escola
como série de estudantes solitários em cubículos particulares, sentados como assistência
imóvel defronte de terminais de computador, com seu repertório de atividades restrito a
uma posição determinada acionada pelo repetitivo acionar do teclado. Considero este
quadro dificilmente aceitável, mesmo quando possa ser justificado por algum exercício:
certos drills, trabalhos de cálculo ou gráficos. A imagem não fica mais atraente se me dizem
que trabalhar com computadores é uma ocasião maravilhosa para socialização: os
estudantes se reúnem ao redor da máquina, tirando sugestões de suas diretrizes, debatendo
os pontos específicos desta ou daquela resposta a suas questões. Com referência ao caráter

17
Ernest L. Boyer, “Education’s New Challenge”, Personal Computing, set. 1984, pp. 81-85.
educacional, considero ambas as situações como simplesmente outra forma de dessecação
tecnológica em nossas vidas, surgindo justamente em um lugar que gostaríamos de salvar
de sua praga.
Meu próprio paladar já me traz outra imagem: a dos professores e estudantes em
companhia uns dos outros, talvez discutindo um livro, uma obra de arte, mesmo uma tosca
garatuja no quadro-negro. No mínimo, essa imagem me recorda o quão maravilhosamente
simples, mesmo primitiva, é a educação. É o encontro direto entre duas mentes, uma
precisando aprender, a outra querendo ensinar. A espontaneidade biológica de tal encontro
é um fato dado da vida; deveria, idealmente, ser mantida próxima ao corpo, tão dócil e
flexível quanto possível. Muitos aparelhos, bem como muita burocracia, apenas inibem o
fluxo natural. O diálogo humano livre, vagueando por onde permita a agilidade da mente,
assenta no coração da educação. Se os professores não têm tempo, incentivo, compreensão
ou senso para prover isso, se os estudantes estão muito desmoralizados, chateados ou
distraídos para reunir a atenção que seus professores necessitam deles, então é justamente
esse o problema educacional que deve ser solucionado — e solucionado a partir de dentro
da experiência de professores e alunos. Deixar que o computador faça as opções [defaulting]
não é uma solução: é capitulação.
Mas há outras questões que transcendem gosto, relativas à teoria educacional,
política social e ética profissional. É completamente errado deixar que prioridades de nossas
escolas sejam estabelecidas por aqueles cujos interesses comerciais estão em jogo. Este
vício infestou as escolas públicas do passado; pode ter avançado muito, mais que nunca, à
medida que as escolas investem em máquinas glamorosas sem a menor idéia de como
utilizá-las. Estão assim procedendo porque absorveram clichês insensatos sobre
“informação”, seu valor intelectual e urgência profissional, que nada mais são do que
espécimes publicitários. Isto as levou a fazer vista grossa ao grau em que os problemas
educacionais são políticos e filosóficos; não podendo, assim, ser reduzidos a uma questão
tecnológica.
Para mencionar apenas os mais óbvios desses assuntos em que a ética da profissão
de professor exige honestidade e franqueza:
• Estudantes alienados ou violentos nas escolas podem estar refletindo uma
ansiedade e mesmo um desespero, que se origina em sua condição social de desvantagem,
ou na natureza coerciva do próprio sistema social; independentemente de quão eqüitativa
seja a distribuição dos computadores pelas salas de aula, estes estudantes não estão aptos
para descobrir o desejo de aprender.
• Estudantes que compram a idéia da habilidade computacional para sanar sua
fome de emprego estão simplesmente sendo enganados; aquilo que eles aprendem em
algumas experiências de laboratório não os fará nem um pouco mais favorecidos para a
obtenção de um emprego.
• Professores que estão se refugiando em vistosos softwares como entretenimentos
convenientes para a classe, estão fazendo os estudantes perderem tempo e aviltando suas
próprias profissões.
Pode-se perceber quão distorcidas se tornaram as discussões sobre educação na Era
da Informação, à medida que os educadores começaram a explorar não apenas o produto,
mas também a linguagem e as imagens do mercado industrial. “Produtividade” é a palavra
que o doutor Arthur S. Melmed, do Departamento de Educação, utiliza para definir “o
problema central da educação. A chave para a melhoria da produtividade em todos os outros
setores da economia tem estado na inovação tecnológica. Aplicações da informação e
tecnologias modernas que são desenvolvidas corretamente e apropriadamente utilizadas,
poderão em breve oferecer aos responsáveis pelas políticas educacionais ... uma
oportunidade única para administração da produtividade”.
Segundo as mesmas diretrizes, Richard Cyert da Carnegie-Mellon prevê que a rede
de computadores de sua escola “terá o mesmo papel no aprendizado dos alunos que a linha
de montagem na década de 20 tinha com relação aos automóveis. A linha de montagem
permitiu o desenvolvimento da fabricação em larga escala. Da mesma maneira, o sistema
de redes de computadores pessoais permitirá aos estudantes aumentar significativamente a
quantidade de aprendizado realizado por eles na universidade”.18
Os computadores, como os especialistas estão sempre nos lembrando, não fazem
nada mais do que aquilo que o programa lhes indica. Mas, como as opiniões acima deveriam
deixar claro, os programas podem ter um programa escondido dentro deles, uma série de
valores que contam mais do que as virtudes interativas e os truques gráficos da tecnologia.
Á essência da máquina é seu software, mas a essência do software é sua filosofia.

Poder e dependência
Qualquer um que já tenha observado uma criança quase que hipnoticamente absorvida pelo
estonteante espetáculo de um video game, não pode deixar de reconhecer o poder peculiar
do computador de enfeitiçar seus usuários. Felizmente, a forma mais desmedida deste
encantamento parece ter perdido sua influência na imaginação adolescente; as galerias de
vídeo estão rapidamente caindo em popularidade. Mas o que pudemos ver em seu extremo
é uma capacidade de fascinar que foi ligada ao computador desde as primeiras máquinas
com programas armazenados que apareceram nas universidades. Chega até as primeiras
gerações de jovens hackers em alguns seletos laboratórios de computadores, como o do
MIT. Os hackers sempre foram uma minoria excêntrica de mentes privilegiadas, para quem
as complicações do computador podem tornar-se uma obsessão, se não um vício; mas eles
cumprem um papel crucial na história da tecnologia. Foram os primeiros a se entregarem
inteiramente à estranha interação entre a mente humana e sua inteligente contrafação
mecânica. Esta interação exige a atenção cuidadosa de educadores, pois carrega dentro de
si um curriculum oculto, que aparece na classe juntamente com o computador.
Entre os hackers, uma das principais atrações da máquina era a fascinante sensação
de poder que dava a seus usuários, ou melhor, a seu mestre. Pois o computador não era
simplesmente utilizado, mas tinha-se controle intelectual sobre ele. Era uma máquina
complexa, uma “corporificação da mente”, conforme Warren McCulloch o descreveu certa
vez, e poderia facilmente evitar aplicações efetivas. Mas, mesmo quando assim ocorria, este
mau comportamento surgia a partir de uma extensão rigorosamente consistente de sua
programação que ainda exigia compreensão. Não era como no caso de um automóvel, que

18
As citações de Melmed e Cyert foram tiradas de Stephen L·. Chorover, “Cautions on Computers in Education”, Byte, jun.-1984,
pp. 22-24.
apresentaria defeito simplesmente devido a uma parte desgastada; seus problemas não
seriam meramente físicos. Poderiam ser consertados somente com a busca da falha através
da densa lógica do programa. Mas se o hacker dominasse essa lógica, ele poderia subjugar
o computador conforme seu desejo (“seu” está historicamente correto aqui: notadamente
com relação a todos os primeiros hackers, cuja maioria era masculina, vivendo como
celibatários). Conforme declarou um gênio da computação a Steven Levy, que escreveu a
melhor história dós primeiros hackers, houve um dia em que ele chegou à “repentina
constatação” de que “o computador não era tão inteligente assim. Era apenas uma besta
muda, que cumpria ordens, fazendo apenas aquilo que lhe era pedido na justa ordem que
lhe era determinada. Podia ser controlada por você. Você podia ser Deus”.19
Mas a satisfação de se tornar o Deus da máquina, de reduzi-la à condição de uma
“besta muda”, não está disponível a todos; apenas àqueles que podem ser mais inteligentes
que a máquina inteligente. Em primeiro lugar, deve ser respeitada como um tipo sinistro de
mente, que pode realizar muitos truques mentais de forma mais perfeita do que o usuário.
A relação entre ser humano e máquina é, assim, ambivalente, uma mistura complexa de
inferioridade e necessidade de dominação, de dependência e mestria. “Como a lâmpada de
Aladim, você poderia tomá-la para cumprir suas ordens”. É como Levy descreve um certo
momento divertido e estimulante durante os primeiros encontros de hackers com
computador. Mas como a lâmpada de Aladim, a máquina possui um gênio mais poderoso
do que o ser humano que temporariamente controla sua obediência.
A palavra poder é freqüentemente utilizada na literatura sobre computadores. O
computador é um “instrumento poderoso”, seu combustível são “poderosas teorias” e
“idéias poderosas”. Os computadores “não são bons ou maus”, conclui Sherry Turkle em
seu estudo de psicologia sobre os jovens usuários do computador. “Eles são poderosos”.20
Como vimos, os cientistas da computação têm estado prontos a exagerar tal poder até o
sobre-humano, até mesmo a dimensões que poderiam ser ditas divinas. Talvez será em
breve “uma inteligência acima da do homem”. Estas especulações impetuosas da parte de
autoridades respeitadas não são apenas digressões extravagantes; são imagens e aspirações
que se entrelaçam no folclore dos computadores e se incluem entre as prioridades que guiam
esse desenvolvimento. Estão intimamente envolvidas na sensação de poder que circunda a
máquina, mesmo quando apresentada de forma divertida às crianças no nível básico de
habilidade computacional.
Este pode ser um momento educacional iluminador para as crianças — desde que
ocorra da forma correta. É a introdução das crianças na forma de poder que mais distingue
sua espécie: o poder da mente. A certa altura, elas devem aprender que o fantasma da mente,
astucioso e repleto de recursos, fornece uma vantagem biológica maior do que o tamanho e
a força, e que a inteligência vale mais do que a força bruta dos músculos ou dos motores
que os substituem. Na Grécia antiga, as crianças aprendiam o valor da sagacidade a partir
das proezas de Ulisses, o homem de “muitos estratagemas”. As crianças índias americanas
aprendiam a esperteza a partir da figura mítica do Coyote, o Velhaco.
No Ocidente moderno, o poder de sobrevivência da mente passou a se concentrar
nos “muitos estratagemas” de nossa tecnologia, e atualmente, o que é mais importante, em

19
A citação é de Steven Levy, Hackers: Heroes of the Computer Revolution, Nova Iorque, Anchor Press/Doubleday, 1984, p. 284.
Nesta seção, estou seguindo a excelente e divertida história dos primeiros hackers.
20
Turkle, The Second Self, p. 218.
uma máquina inteligente que é o ponto mais alto atingido por essa tecnologia. Quaisquer
que forem os exercícios que as crianças façam no computador, mesmo os mais simples,
permitirão que elas aprendam que o computador tem o que os adultos consideram como o
mais elevado tipo de poder, uma capacidade que é similar à que têm os homens quando
planejam, armazenam informação, resolvem problemas: algo próprio da mente.
Devido a esta semelhança com a mente, a pequena caixa com a tela de vídeo sobre
ela, que não tem o aspecto de uma pessoa, passou a ser circundada por todo tipo de
personificações. Alguém “fala” com o computador. Ele “entende” — ou não entende. Ele
“pergunta” e “responde” algumas questões. “Lembra” algumas coisas. Diz “por favor” e
“obrigado”. Sobretudo, ele “ensina” e “corrige” porque “sabe” algumas coisas, e as conhece
bem. Se a habilidade computacional conquistar seu lugar em nossas escolas, os estudantes
poderão acabar aprendendo essas qualidades próprias da mente não a partir de outros seres
humanos, mas mais freqüentemente a partir de uma máquina. Mesmo se estiverem também
aprendendo com um professor, este não consistirá em um estrategista “poderoso”. Ninguém
— certamente nenhum cientista da computação — jamais descreveu a mente de um
professor como um “instrumento poderoso”. Por que não? Porque os professores não podem
saber tanto quanto a caixa. Esta pode lidar com muito mais informação. Mesmo se o
pequeno computador na sala de aula tem uma capacidade limitada, as crianças sabem que
há outros computadores maiores no mundo em que elas vivem. Podem ser vistos no banco,
nas lojas, no consultório médico. E quando os computadores são acoplados, têm um poder
que nenhum professor pode ter. Nunca cometem erros. Este é o poder que os adultos
respeitam e querem que as crianças aspirem: o poder de estar sempre certo, rápida e
completamente. Mas este é um poder que pode somente ser detido pela máquina. Conforme
afirmou uma criança: “Os computadores nunca cometem erros. Se há um erro, ocorreu por
parte das pessoas que estão utilizando o computador ou porque ele está quebrado”.21 A
mistura de metáforas frouxas e antropomórficas, software interativo e fantasias comerciais
que acompanham o computador até a classe, traz consigo uma lição clara e subliminar. É a
lição que os inventores do computador e os principais usuários entranharam na tecnologia:
uma concepção de pensamento, de ordem, de prioridades intelectuais. Algo como:
Aqui está uma forma de poder. O poder da mente. O maior poder da mente — o
poder de processar informações sem limites, com absoluta correção. Vivemos na Era da
Informação que precisa deste poder. Conseguir um emprego, ter sucesso, significam
adquirir este poder. A máquina o tem, você não. A medida que o tempo passa, a máquina
terá mais e mais poder. Será digna deste poder pois se ajusta melhor ao mundo do que o
cérebro humano. Os únicos cérebros humanos que merecem confiança são aqueles que
utilizam a máquina para que os ajude a pensar.
Esta lição pode ser transmitida de uma forma não ameaçadora, mesmo convidativa.
Este é o estilo de toda instrução dos computadores. Comece pelo simples. Divirta-se.
Adquira confiança. A máquina deveria ser, do ponto de vista ideal, “amiga do usuário”,
uma frase curiosamente condescendente que sugere que a máquina está sendo gentil o
suficiente para simplificar e ir com mais calma com os usuários menos talentosos que
precisam ser mimados. O mais encorajador é que a máquina fará com que seus usuários
participem de seu poder. Pode ser domesticada e trazida para casa como se fosse um
servente mental. Tudo o que se necessita é se ajustar ao modo de pensar da máquina. Ao
21
Melvin Berger, Computers, Nova Iorque, Coward, McCann & Geohegan, 1972.
adquirir a habilidade computacional, comenta Paul Kalaghan, decano de ciência da
computação na Universidade Northeastern, “você terá a possibilidade de passar sua vida
trabalhando com aparelhos mais espertos que você e ainda ter controle sobre eles. Ê como
carregar uma arma na velha fronteira”.22

Um universo particular
Para aqueles que passam a ter acesso a este poder, o computador oferece uma recompensa
tentadora. Como declarou um hacker: “Você pode criar seu próprio universo e pode fazer
tudo aquilo que quiser dentro dele. Você não precisa lidar com pessoas”.23 Uma vez mais,
é uma atração que pode ser vista em seu ponto extremo nos viciados em video games. No
computador pode-se criar um mundo de fantasia autônomo de lógica exata, parâmetros
previsíveis e dados escolhidos. Quando alguém desenvolve talento suficiente para lidar com
a máquina, este mundo se projeta em uma das capacidades técnicas mais impressionantes
do computador: a simulação. Para engenheiros e cientistas (possivelmente mesmo cientistas
comportamentais) isto pode ser um recurso de valor incalculável. Oferece a possibilidade
de investigação de panoramas imaginários, percorrendo [running] um “se” após outro. A
precisão gráfica e a claridade de comando que uma simulação revela na tela de vídeo pode
levar a uma terrível confusão, especialmente nas crianças. O modelo — um universo
particular previsível e ordenado — pode começar a parecer uma “realidade” melhor.
Não devemos esquecer que a simulação se aplica apenas a modelos. O computador
manipula uma série de suposições, de hipóteses sobre a realidade, não a própria realidade.
Pode fazê-lo para estudar as implicações extremas ou de longo alcance de tais hipóteses, ou
talvez opor uma suposição a outra. Tudo o que ele faz sob essa perspectiva, nunca pode
estar “errado”. Suas simulações serão sempre coerentes e logicamente consistentes. Sem
dúvida, o que ele faz pode não ter nenhuma relação com o mundo que está fora de seu
programa. Ainda assim, uma vez que ele oferece uma pequena “realidade” própria
controlável, ele pode acabar atraindo a atenção do usuário para as angulosidades confusas
e frustrantes da vida diária. Este seria o caso em que “fatos” hipotéticos tomam o lugar de
dados em função da simulação.
Aqui, por exemplo, está “um sistema para ensino de um padrão de pesquisa através
de simulação em computador”, conforme uma das maiores empresas de softwares
educacionais anota no manual de instruções. O sistema é chamado Exper Sim (para
simulação experimental), um programa disponível como parte do bastante divulgado
PLATO, da Control Data Corporation. O Exper Sim é uma forma de ensinar o “método
científico” através de simulações que superam as “limitações de tempo” da classe.
Conforme a explicação da Control Data, o programa capacita “os estudantes a realizar
experiências em um computador que foi programado para gerar dados peculiares. O
computador substitui uma coleção de dados reais, economizando tempo e minimizando a
necessidade de espaço, equipamento e supervisão em um laboratório dispendioso”.

22
Kalaghan, citado no New York Times, 13.1.1985, p. Al.
23
Levy, Hackers, pp. 289-290.
Pode-se notar como, em nome da economia e da eficiência, a experiência do
estudante acaba se restringindo ao computador, que, supostamente, contém todos os dados
necessários. No experimento, o estudante recebe uma lista de variáveis do instrutor, formula
uma hipótese e “pondera sobre qual tipo de dados ele gostaria de coletar para testar sua
hipótese”. O experimento é então introduzido no computador, que fornece as informações
“brutas” do tipo que ele teria coletado se tivesse realmente realizado o experimento. Após
analisar estes dados, o estudante planeja outro experimento próprio para refinamento de sua
estratégia de pesquisa e expansão de suas conclusões.
O que se pode ver aqui é a possibilidade bem real de que o estudante e o computador
se tornarão um sistema fechado que chega a “conclusões” baseadas apenas em simulações.
A máquina se tornou uma “substituição para coleções de dados reais”. Mas como isto é
possível? Os computadores processam informações; eles não as “reúnem” nem “geram”.
Esta confusão desmascara mais dramaticamente a utilização dos computadores para
rernontagem de experimentos clássicos com propósitos educacionais. Entre esses exemplos
estão os famosos experimentos de reprodução de Mendel, que sustentam as leis de
hereditariedade genética.24 Uma simulação pode ser realizada e mostrar rapidamente um
resultado previsto pela teoria sobre muitas gerações. Sem dúvida isto economiza muito
tempo. Mas também avança um longo caminho em direção à falsificação da ciência real.
Porque isto não é um experimento; é a simulação de um experimento, e desta forma uma
severa redução da realidade. O experimento, afinal de contas, já edita a realidade com fins
de focagem e controle; a simulação edita o experimento através da eliminação do trabalho
científico real envolvido: o arranjo cuidadoso da aparelhagem, a manipulação de materiais,
as partidas falsas e ciladas, a espera freqüentemente maçante e atenta, a distinção cuidadosa
dos resultados. Mas, o pior é que ela elimina os riscos, que são os traços característicos
conjuntos da experimentação. Experimentos verdadeiros devem sustentar a possibilidade
de falha para provarem suas hipóteses. Contudo, na simulação tudo ocorre perfeitamente,
uma vez que a teoria de Mendel e todas as suas decisões faziam parte do programa. Apesar
disso, os cientistas que se deram ao trabalho de repetir o trabalho de Mendel sempre tiveram
de lutar com o fato de que ervilhas reais (ou as moscas-das-frutas) nunca caem
obedientemente em categorias discretas. Elas apresentam casos anuviados, obscuros,
intermediários, limítrofes, que exigem julgamentos difíceis a respeito dos quais diferentes
observadores discordam. Talvez, como suspeitam alguns cientistas, mesmo Mendel
permitiu que sua teoria desse forma aos dados: um importante aspecto da ciência a ser
aprendido pelos estudantes. Quão verdadeiramente científicas são as simulações que tornam
a realidade mais “teoricamente” ordenada do que jamais demonstrou sê-lo?25
Simulações são um passo fora da realidade desordenada que nos circunda é dentro
das ficções ordeiras do computador. Onde os poderes gráficos incríveis do computador e
cálculos magistrais são combinados com seu domínio da informação (com altas
propagandas), pode ser criada a impressão de que os estudantes estão em contato com uma
realidade superior e auto-suficiente no interior da máquina, uma realidade que eles teriam
o poder de controlar. Eles devem seguir adiante. Não fosse pelo imoderado louvor e pelo

24
O software que simula a genética de Mendel está disponível nas séries PLATO de controle de dados e no programa CATLAB
da Universidade de Iowa.
25
Nesse aspecto do trabalho de Mendel, ver Robin Dunbar, “Mendel’s Peas and Fuzzy Logic”, New Scientist, Londres, 30.8.1984,
p. 38.
exagero pairante (o “hiper”) que circunda o computador, e isto poderia não ser um perigo
sério. As crianças e o público em geral reconheceriam que o “universo” que podemos criar
em uma tela de computador é uma pequena simulação altamente editada da realidade.
Sobretudo é um universo criado por uma pequena simulação altamente editada de nós
mesmos. Apenas uma estreita faixa de nossa experiência é representada no computador: a
razão lógica. O contato sensual, a intuição, julgamentos não articulados de senso comum e
gosto estético, foram deixados de lado amplamente, se não completamente. Não trazemos
todos os recursos do “eu” [self] para o computador.
Vivemos em um mundo em que as imagens e simulações eletrônicas já estão
forçando os fatos maiores e mais refratários da vida para fora da consciência das pessoas.
Em nossa busca de ordem em um mundo desordenado, recorremos a projeções, jogos de
guerra, previsões econômicas, modelação global, apuração eleitoral — as muitas abstrações
do computador que são supostas como nossas auxiliares na administração de uma realidade
caótica. Desde a época em que as crianças começam a se encaminhar alegremente através
desta paisagem apresentada como lógica, o computador promete o poder de entender,
controlar e de estar sempre certo. Mas este poder enfraquece até se tornar ilusão sempre que
esquecemos que aquilo que ele comanda é uma invenção de estruturas lógicas, suposições,
hipóteses e dados selecionados — todos de nossa autoria e escolha. Esta ilusão se aprofunda
rumo ao patético sempre que esquecemos o quão limitada é a parte de nossa natureza
humana na criação dessa invenção.
Obviamente os professores podem retificar toda essa tendência para a confusão por
parte dos estudantes. Mas ainda haverá professores na classe eletrônica? Haverá em
quantidade suficiente com suficiente autoridade aos olhos dos estudantes? Conhecerão
ainda, eles próprios produtos da Era da Informação, alguma outra realidade que não seja a
realidade do computador? Sobretudo, acreditarão que têm o direito de corrigir uma máquina
que, como lhes foi dito, está rapidamente evoluindo rumo a “uma inteligência além da do
homem”?
4. O programa dentro do programa

O caso do LOGO
O computador entrou nas escolas em uma onda de oportunismo comercial. Como se poderia
esperar, isto conduziu a uma grande quantidade de experiências desperdiçadas, do tipo
tentativa e erro, por parte dos educadores. A indústria de computadores, prometendo a Lua,
tem desejado endossar qualquer uso de seu produto, não importando o quão frívolo ou
deturpado. Os professores têm tido que se haver entre tais pretensões e alegações como
podem. Alguns podem descobrir aplicações vantajosas, mas não tem havido nenhuma
filosofia pedagógica para guiar tais improvisações.
Em meio à confusão, houve uma exceção notável. Seymour Papert, co-fundador dos
estudos de inteligência artificial do MIT, está entre os poucos cientistas da computação que
procuraram desenvolver uma filosofia educacional consistente com relação à utilização do
computador. Esta filosofia tem fundamentos profundos nas complexas teorias de
aprendizado do psicólogo suíço Jean Piaget, com quem Papert estudou vários anos. O
resultado desta fusão entre a psicologia de Piaget e a inteligência artificial é a linguagem de
programação LOGO, que Papert procurou elaborar em um curriculum amplo e perceptivo.
Mais do que um conjunto de softwares bem elaborados ou um simples roteiro de estudos,
LOGO é oferecido como parte de uma visão radicalmente nova de educação, como o
esforço mais sistemático no sentido de se pensar o papel do computador nas escolas. Pelo
menos na visão de Marvin Minsky, o companheiro de Papert no laboratório de inteligência
artificial no MIT, isto o coloca como “o maior de todos os educadores [educationalists]
vivos”.
Papert trabalha no LOGO e em suas aplicações desde meados da década de 60. Nesse
caminho, ele utilizou o programa educacional bastante conhecido Turtle Graphics e
escreveu o livro Mindstorms [Tempestades da Mente, 1980]. Foi também absorvido
brevemente em uma aventura instrutiva em política computacional. No início da década de
80, o governo francês foi inspirado pelo jornalista e político Jean Jacques Servan-Schreiber
a organizar um grande centro de pesquisas computacionais, o Centre Mondial Informatique
et Ressources Humaines, em Paris. O interesse especial de Servan-Schreiber estava em
auxiliar os países do Terceiro Mundo a “saltarem para a nova sociedade da informação”.
Em sua inauguração, Papert escreveu o paper chave que apresentava o programa do centro.
Juntamente com Nicholas Negroponte, do MIT, ele se tornou co-diretor. A visão de Papert
com relação ao centro consistia em um plano idealista para o uso do LOGO como parte de
uma campanha internacional pela habilidade computacional. O centro foi generosamente
financiado, mas sua orientação passou rapidamente de acadêmica para econômica, cujos
principais objetivos se tornaram os de comercializar computadores franceses nas antigas
colônias francesas da África. Em menos de um ano, Papert e Negroponte tinham saído do
centro. Como um “utopista educacional” de estilo próprio, ele não poderia apreciar tal
comercialização neo-imperialista.1

1
Para um relato do trabalho de Papert no Centre Mondial Informatique, ver New Scientist, Londres, 10.2.1983, pp. 358-361.
Ao procurar dar ao computador uma identidade educacional significativa, Papert
trabalha a partir de um conhecimento honesto com relação ao freqüente uso impróprio da
máquina nas escolas. Não é um otimista fácil. Mas os inúmeros abusos não o dissuadiram
de acreditar que o computador pode transformar radicalmente o mundo da educação,
inflamando uma “revolução de idéias, não de tecnologia”. Para Papert, o computador pode
ser “um instrumento para se ensinar de tudo”.2
LOGO é projetado para entrar na vida da criança desde os primeiros estágios —
possivelmente no jardim de infância — como uma linguagem de programação
engenhosamente acessível. Papert tem tido dificuldades para explicar que LOGO não é
apenas para crianças; pretende que seja uma linguagem com múltiplos propósitos,
igualmente aplicável em níveis sofisticados. Mas seu traço característico é sua
disponibilidade aos mais jovens, e é aí que encontrou principal audiência e mercado. Muito
poucos softwares de uso geral foram produzidos com LOGO. Em suas aplicações
educacionais, LOGO é completamente interativo: os estudantes podem ver o resultado
imediato dos comandos dados pela tela de vídeo. Normalmente, eles começam com simples
gráficos geométricos, utilizando comandos de tecla para mover um marcador chamado de
tartaruga (originalmente havia uma tartaruga mecânica real ligada ao computador, que se
movia ao longo do chão conforme instruções. A maioria das escolas utilizam hoje o LOGO
sem o brinquedo, mas a pequena flecha na tela continua a ser chamada de tartaruga). As
figuras geométricas escolhidas pelos estudantes são esboçadas segundo tentativas e erros,
de acordo com pequenos programas para se desenhar quadrados, círculos, pentágonos, etc.
A linguagem para execução do programa é simples: a palavra to (como nos infinitivos dos
verbos to circle, to square) constitui um comando. Os estudantes escolhem seus próprios
nomes para esses programas, que podem, por sua vez, tornar-se sub-rotinas dentro de
programas maiores e mais complicados.
Uma vez que o computador responde simultaneamente a todos os comandos LOGO,
os alunos podem estudar e corrigir seus programas à medida que avançam. Este processo
“corrija enquanto prossegue” é o cerne do acesso instrutivo ao LOGO. As crianças vêem
seus erros; estes se tornam bugs que devem ser debugged,* pensando-se novamente o
programa e encontrando estratégias para sanar inconsistências. Papert enfatiza a
importância educacional da “idéia poderosa” da depuração. É uma alternativa para a tirania
das respostas corretas que tão freqüentemente carregam o computador. Ele afirma:
A questão a respeito do programa não é se está certo ou errado, mas se está em
ordem. Se esta forma de observar os produtos intelectuais fosse generalizada
até o nível em que a cultura mais ampla pensa o conhecimento e sua aquisição,
nós poderíamos ser menos intimidados por nossos medos de “estarmos
errados”.
Para Papert este é um primeiro benefício do computador como um “objeto para pensarmos
com ele”. Já que encora ja o estudante a fazer tentativas e ver como elas funcionam, e a
seguir a corrigi-las e ajustá-las, considera-se o approach de LOGO como
“descoberta/aprendizado”.

2
As citações de Papert neste capítulo são de seu livro Mindstorms: Children, Computers and Powerful Ideas, Nova Iorque, Basic
Books, 1980. Ver também Papert, “Misconceptions About LOGO”, Creative Computing, nov. 1984, pp. 229-230.
*
Em português utiliza-se a expressão “debugar”, que significa depurar, corrigir as falhas. Bug é a falha. (N. T.)
Neste processo de programação via autocorreção, os estudantes são levados a
“pensar sobre o pensamento”. Estão se tornando “psicólogos e epistemólogos”. Papert
observa que “esta poderosa imagem da criança como epistemóloga atingiu minha
imaginação quando eu trabalhava com Piaget... Fiquei impressionado com esta forma de
considerar as crianças como formadores ativos de suas próprias estruturas intelectuais”. O
objetivo de Papert tornou-se utilizar o computador como forma de auxiliar as crianças a
desenvolverem tais estruturas de forma autoconsciente. Piaget dividiu o desenvolvimento
mental da criança nos estágios “concreto” e “formal”, o último (por exemplo, o pensamento
matemático) exigindo mais maturidade, e portanto ocorrendo mais tarde na vida. Segundo
a visão de Papert, o uso concreto do computador, em que a criança lida com ele, permite a
ela uma introdução mais precoce ao estágio formal de desenvolvimento.
Há um problema no esquema de Papert. Não é absolutamente claro que os estudantes
estão “pensando no pensar” de uma forma ampla e perceptiva, que poderia, por exemplo,
familiarizá-los no modo pelo qual um artista — mais que um geômetra — pensa sobre
questões espaciais. Ao contrário, eles parecem estar criticando um determinado tipo de
pensamento, chamado (como Papert o chama) “pensamento processivo”. A depuração,
afinal de contas, envolve a descoberta do falso passo em uma seqüência de passos lógicos.
Depurar [ou “debugar”] neste sentido específico se aplica a outro estilo de pensamento?
Poder-se-ia imaginar uma forma de depuração para um conto de fadas ou um jogo de
esconde-esconde? Como poderia alguém “debugar” o desenho de um dinossauro?
Papert gosta de afirmar que LOGO, uma vez que é interativo até a transparência a
cada passo, acaba permitindo que a criança programe a máquina, e não o contrário, como
ocorre em muitos exercícios de computador. Ele fala da criança “ensinando a máquina”.
Mas não fica claro que, com respeito a isso, LOGO não é diferente das outras linguagens.
É certo que os estudantes escrevem o programa, mas eles fazem isso nos termos da máquina.
Devem proceder segundo a linguagem e a lógica da máquina — ou a máquina os advertirá.
“Eu não sei como...” Os estudantes podem chamar de quadrado uma caixa e podem instruir
a máquina para virar a caixa de alguns graus para um ou outro lado. Mas não podem ordenar
ao computador para colocar algo na caixa, ou fazer com que cresçam asas e a caixa voe até
o centro da terra. LOGO permite que as crianças tenham controle sobre um “micromundo”
experimental no qual fazem sua programação; mas o micromundo não é o amplo território
da imaginação humana. É, afinal, uma tela de computador bidimensional que pode exibir
apenas as possibilidades do programa. LOGO tem um repertório de muitas cores e formas
(um avião, um caminhão, um foguete, uma bola, uma caixa, etc.). É bem adequado a jogos
geométricos, mas não à fantasia que ultrapassa esses limites estreitos. Enquanto leio o que
escreve Papert, descubro-me assediado pela imagem do prisioneiro a quem foi dada
completa liberdade de perambular o “micromundo” chamado cela: “Permaneça aí dentro,
siga as regras e você poderá fazer o que quiser”.
Com LOGO, Papert acredita que a criança “adquire um sentido de domínio sobre
uma parte da tecnologia mais moderna epoderosa”. Como muitos entusiastas do
computador, ele está bastante preocupado com poder: a palavra poderoso [powerful]
aparece de forma proeminente em Mindstorms. Em um dos mais desenvolvidos manuais de
LOGO (o Learning with LOGO — Aprendendo com LOGO — de Daniel Watt), a expressão
“idéia poderosa” — tirada de Papert — aparece como uma pequena bandeira que pontua a
apresentação de cada capítulo. Mas como ocorre com todos os exercícios em computador,
a mestria surge adaptada ao modo de proceder da máquina. A mesma relação ambígua entre
poder e dependência permanece em LOGO como em outros curricula computacionais; a
mesma ilusão de controle paira sobre os micromundos de Papert.
Muitos curricula de LOGO começam com geometria e terminam logo que um
repertório pequeno, mas útil, de programas básicos, tenha sido aprendido. Isto pode ser o
suficiente para dar à criança um gosto substancial pela programação. Mas a visão que Papert
tem de LOGO na classe é muito mais ambiciosa. Ele acredita que pode ser utilizado em
todos os cursos. É neste ponto que LOGO, o mais elaborado entre todos os programas
educacionais, revela as ciladas que entusiastas podem perder de vista.
Consideremos, por exemplo, o modo pelo qual o curriculum de LOGO procura
abranger a arte.3 Dizem às crianças que elas podem desenhar “qualquer coisa”. Da mesma
forma, o exercício começa com um esboço feito à mão. Ora, se este esboço fosse feito com
cuidado e imaginação, poder-se-ia qualificar a lição como arte. Mas com LOGO, isto é
apenas um estágio preliminar. A criança é a seguir instruída para simplificar este esboço
através da análise e decomposição em um certo número de componentes geométricos. Um
caminhão, por exemplo, se torna uma grande caixa anexa a uma pequena caixa apoiada em
dois círculos (as rodas). O artista construtivista Piet Mondrian poderia aprovar tais
exercícios de abstração geométrica, mas mesmo isto ocorre a nível preliminar. LOGO
começa a funcionar realmente no próximo passo, em que deve ser escrito um programa que
fará com que o computador desenhe as caixas e círculos na tela de vídeo, cada qual em seu
lugar. É preciso ter astúcia e fazer várias experiências de tentativa e erro. Finalmente,
quando todos os componentes estiverem programados, a combinação total pode ser
substituída por um simples comando, CAMINHÃO [TO TRUCK]. Quando é dado este
comando, o cursor desenha rapidamente um caminhão. Se tudo correr bem, se parecerá com
o seguinte:

E aqui está o programa que desenha o caminhão, com todos os subprogramas, cada
qual tendo sido montado como se fosse um exercício separado, e a seguir incorporado no
programa geral:

3
Até o final do capítulo, seguirei os planos das lições desenvolvidas por Daniel Watt em Learning with LOGO (McGraw-Hill,
Nova Iorque, 1983). Watt trabalhou extensivamente com Papert e com o Grupo LOGO do MIT, e fez cursos em escolas para
testes e revisões. O material citado aqui com relação a arte e poesia está nos capítulos 6 e 13.
BIGBOX
SUBPROGRAM: REPEAT 4 [FORWARD 60 RIGHT 90]
END

MOVEOVER
SUBPROGRAM: RIGHT 90 FORWARD 60 LEFT 90
END

SMALLBOX
SUBPROGRAM: REPEAT 4 [FORWARD 30 RIGHT 90]
END

MOVEBACK
SUBPROGRAM: LEFT 90 FORWARD 60 RIGHT 90
END

WHEELS
SUBPROGRAM: RIGHT 90 RCIRCLE 5 FORWARD 90
RCIRCLE 5 BACK 90 LEFT 90
END

De modo análogo, um desenho LOGO de uma flor se transforma em uma série de


curvas programadas para serem repetidas em 360 graus, e um desenho LOGO de uma
pessoa é uma figura como a que se segue:
As crianças que aprendem a produzir programas para esses desenhos têm ocasião de
pensar como resolver tal exigente exercício. Podem estar a caminho de se tornarem os
primeiros da classe em programação de computadores. Mas não aprenderam nada sobre
arte; ao invés disso, foram desviadas da habilidade de manipular um meio artístico (crayon,
lápis, pincel) e do divertimento que é criar livremente um quadro. Se seu interesse é
sustentado pelo exercício, isso não ocorre em função do prazer estético da tarefa ou do
resultado, pois no caso ambos são mínimos. Pode ser apenas em função do desafio da
programação, no qual alguns estudantes podem ser muito bons.
Então vejamos: LOGO pode ensinar arte? Apenas se definirmos arte como aquilo
que LOGO pode fazer com respeito à arte, o que não é muito. LOGO não permite que se
solte a imaginação artística; a criança que gostaria de desenhar um cavalo, ou um monstro
do espaço ou um palhaço, que não ficassem parecidos com uma coleção de caixas e círculos,
não ficará contente. LOGO também não permite a utilização de lápis que, conduzido pela
mão, pode percorrer, escurecer e dançar na página. A arte, como tudo o que o LOGO ensina,
chega até os dedos através do teclado. Em um sentido perverso, esta pode ser uma lição
interessante em ciência da computação, especialmente em pesquisa em inteligência artificial
que subjaz ao LOGO; as crianças aprendem o princípio redutivo principal: se o computador
não pode se elevar ao nível do sujeito, então o sujeito deve abaixar-se até o nível do
computador. Possivelmente, na Era da Informação, as crianças se encontrarão vivendo em
uma sociedade em que este princípio se tornou a regra em todos os campos atingidos pelo
computador. LOGO poderia, então, ser visto como uma preparação útil para a “vida real”.
LOGO ganha sua compreensão na classe de aula através do encontro de modos
similares de introduzir alguma coisa, algo que o computador possa fazer com relação a
qualquer dos interesses que as crianças possam ter. Suponhamos que as crianças queiram
dançar. O que deve fazer o computador? Em um videotape de uma aula de LOGO, observei
que os estudantes eram encorajados a transformar sua dança em um exercício de
coreografia, mas não em suas cabeças ou músculos. Ao invés disso, após alguns passos,
deveriam correr até o computador para apertar as teclas, como se assim procedendo a dança
se tornasse mais séria ou real. Isso nada tem a ver com o movimento cinestésico do corpo,
com seus rodopios, saltos e expressões. Na sala de aula de LOGO, a dança se transforma
naquilo que o computador pode manipular: padrões geométricos, ângulos, contagem...
tantos passos por aqui, meia-volta, tantos passos por ali. O exercício carece de completa
plasticidade do corpo, da qualidade da música, do tom emocional. Mas ele está sujeito a um
programa, e para isto as crianças são elogiadas. A lição é um sucesso.
Ou tomemos a poesia. Aqui o estudante é levado a fazer listas de palavras para cada
parte do discurso: artigo, substantivo, verbo, etc. Cada lista é então sujeita a um processo
randômico, como parte de um programa para unir palavras em uma ordem específica. A
elaboração de listas como essa é uma das características especiais da linguagem de
programação AI, chamada LISP, com a qual LOGO apresenta uma relação próxima.
Em primeiro lugar, o resultado do trabalho com listas randômicas está propenso a
ser disparate: “Um computador nada”, “Uma geladeira voa”. Assim pedem aos estudantes
que tentem agrupar palavras que “caminhem juntas”. Esta instrução é dada muito rápida e
casualmente, mas é, na realidade, uma exigência que nos deixaria perplexos se levada a
sério. Que palavras sempre “caminham juntas”? O plano da lição sugere que sejam
agrupadas palavras referentes a esportes, a animais, a natureza. Estas, por exemplo, são:
“serpentear”, “arrastar-se”, “estar oculto”, “dormir”, “murmurar”.
Neste ponto, o professor não é encorajado a fazer admoestações a respeito das
limitações dos procedimentos do computador, como este por exemplo. Mas, a menos que
isso ocorra, algo da natureza impalpável, essencialmente protéica da linguagem ficará
obscurecida. Pois o que a lição de LOGO exige é uma absurdidade lingüística. A linguagem,
em virtude de suas origens metaforicamente alegres, simplesmente não cai em tais
categorias. A qual grupo — esporte, animal ou natureza — pertencem as palavras
“defender” e “voar”? É precisamente este problema da conexão das palavras a contextos
bem definidos que governa seu significado o responsável pela quase impossibilidade de se
fazer uma máquina de tradução. Atrás do problema se coloca a interessante especulação de
que a linguagem, que trouxe tantas dificuldades aos programadores em função de sua
fluidez e de sua rebeldia, se manifesta a partir da dotação poética da mente e continua a
carregar o selo de sua origem. Esta possibilidade pode ser apropriada para o benefício de
jovens poetas que germinam. Se o tipo de agrupamentos que a lição de LOGO hoje requer
fossem uma parte real da linguagem (ao invés de uma ficção temporária de classe de aula),
a arte da metáfora não seria possível. Em que ocasião, afinal de contas, as palavras “tigre”
e “fogo” caminham juntas? Talvez apenas em: “Tigre! Tigre! brilho abrasador...”
De qualquer modo, o manual Learning with LOGO sugere que com suas instruções,
os estudantes podem finalmente alcançar resultados no computador que atingem algum tipo
de coerência: “Ruidosamente o turbilhonante nevoento turbilhonante mar dorme”. Ou,
algumas vezes, o resultado pode ser algo intrigante como um haicai:
Cada pequeno lago límpido
Um pássaro encara, do abeto gelado,
A agreste luz azul
Isto leva à especulação: “uma vez que as palavras se constituem bem em conjunto,
este quase chega a parecer poesia. E se escolhermos nossa sentença-padrão cuidadosamente,
talvez se torne poesia”.
A certa altura, crianças mais curiosas podem imaginar como se pode esperar que
uma caixa elétrica escreva algo que merece ser meditado, como a poesia, não importando
quão acidentalmente ela seja coerente. Os poemas não falam sobre algo? Eles não têm
significado que surge a partir da vida de alguém? Quando as crianças fazem poemas, suas
próprias mentes não parecem estar fazendo nada semelhante ao programa-poema. Elas
tencionam dizer alguma coisa que preexista às palavras como um todo de um pensamento.
Não são simplesmente partes de discurso embaralhadas por meio de padrões arbitrários.
O curriculum de LOGO antecipa esta questão. E é aqui que a verdadeira lição é
ensinada. Em seu manual Learning with LOGO, Daniel Watt explica isso da seguinte forma:
Quando vejo que um computador pode produzir um poema, isso me faz parar
e pensar um pouco... Você e eu sabemos que o computador estava apenas
seguindo um procedimento; este o ensina a escolher certos tipos de palavras de
acordo com um padrão fixado. Ele escolhe as palavras de inúmeras longas
listas de diferentes tipos de palavras: substantivos, verbos, adjetivos, etc... Mas
eu não estava fazendo a mesma coisa quando escrevi o poema? Eu também
estava seguindo determinado procedimento. A única diferença é que eu tinha
uma escolha bem maior de padrões e uma lista de palavras em minha cabeça
para fazer minha escolha... De que maneira isto difere daquilo que faz o
computador?
Neste ponto, a criança pode levantar uma questão sobre a importância poética dos
sentimentos e significados, perguntando se o computador pode elaborar um poema a partir
de material lingüístico bruto. Responde o professor: “Eu acredito que um programador
muito inteligente possa fazer um programa de computador suficientemente complicado para
escrever poemas que pareceriam tão “humanos” que um especialista em poesia teria
dificuldade em achar a diferença”.
A lição prossegue com exemplos de outras simulações poéticas, mas não há sugestão
em hora alguma do que estaria envolvido ao “escolhermos cuidadosamente nossos padrões
de sentença” — que é, de fato, todo o estonteante segredo do próprio discurso. Ao invés
disso, a implicação é: os “procedimentos da poesia” não são tão difíceis de descobrir; aliás,
estão ali na esquina.
Alguns cientistas da computação estão programando grandes computadores
para fazerem poesias, estórias de mistério e outros tipos de “trabalhos
literários”. Haverá ainda uma época em que você não será capaz de apontar a
diferença entre algo escrito por um computador e algo escrito por alguém?
Algum dia você poderá ter a oportunidade de tentar responder esta questão
sozinho.
As palavras se mantêm ao nível da simplicidade, mas por detrás delas há uma teoria
da mentalidade que emerge diretamente no âmago da doutrina da inteligência artificial.
Neste caso, as crianças aprendem que a literatura criativa é apenas filtragem de vocabulário
através de fórmulas lingüísticas. Ao invés de fazer com que as crianças se demorem um
certo tempo no poder e no insight de um ou dois poetas, o que seria melhor para familiarizá-
las com outra sensibilidade, a lição se apressa em ensinar o modelo de pensamento de
processamento de dados. Isto conduz inevitavelmente à conclusão de que a mente humana
e o computador são funcionalmente equivalentes, tendo o computador — pelo menos os
“grandes computadores” dos cientistas — um lugar privilegiado no caminho rumo à
conquista da performance atual. Assim, pela vinculação à máquina e pela adoção de seus
termos com relação a estranhas concepções de arte e poesia, alguém pode ser capaz de se
apropriar de um pouco daquele poder.
Com relação a todas as pesquisas em inteligência artificial, é difícil estarmos seguros
sobre o espírito com que se formula este programa dentro do programa. Seria outra
demonstração cansativa de chauvinismo disciplinador por parte dos técnicos e dos lógicos,
determinados a demonstrar a supremacia de seus métodos no mundo do intelecto? Ou seria
uma má interpretação sobre a natureza da criatividade humana? Em ambos os casos, as
crianças estão sendo expostas a uma concepção de arte que é ao mesmo tempo ridícula e
falsa. Estão ganhando sua habilidade computacional sob o risco de se tornarem aleijados
culturais.
O próprio Papert tem sido cuidadoso em manter de modo mais suave a ligação entre
LOGO e a doutrina da inteligência artificial. Ele defende seu curriculum como uma lição
prolongada em pensamento processivo, mas enfatiza que a pretensão principal de levar os
estudantes a aprender “a pensar como um computador” tem a função de torná-los
autoconscientes sobre o modo pelo qual a mente funciona mais geralmente.
Inventei formas de conseguir vantagens educacionais das oportunidades para
dominar a arte de pensar deliberadamente como um computador, de acordo,
por exemplo, com o estereótipo de um programa de computador que procede
de uma forma mecânica, literal, passo a passo... Aprendendo deliberadamente
a imitar o pensamento mecânico, o principiante se torna apto a entender o que
é e o que não é o pensamento mecânico. O exercício pode conduzir a uma
maior confiança sobre a habilidade de escolher um estilo cognitivo que esteja
adequado ao problema.
Ele prossegue:
Tenho argumentado claramente que o pensamento processivo é um
instrumento intelectual poderoso e mesmo sugerido a analogia de pessoa e
computador como uma estratégia para fazê-lo... A recomendação “pense como
um computador” poderia ser tomada significando sempre pense sobre tudo
como um computador. Isto seria restritivo e limitador. Mas a recomendação
poderia ser tomada em muitos sentidos diversos, nada impossibilitando, mas
fazendo um acréscimo ao estoque de ferramentas mentais da pessoa ... A
verdadeira habilidade computacional não é apenas saber como fazer uso dos
computadores e das ideias computacionais. É saber quando é apropriado fazer
assim.
Isto poderia parecer suficientemente razoável. Mas o problema é que LOGO
pretende ser um amplo instrumento educacional que pode ser ligado a tudo. Isto só pode
acontecer fazendo-se a conexão de tudo o que a criança sabe com o pensamento processivo,
mesmo quando isto não faz sentido. Além disso, se os outros estilos cognitivos de que fala
Papert entram na classe de aula, eles o fazem simplesmente como idéias na cabeça de
alguém. O pensamento processivo embarca em um equipamento que tem sido
agressivamente comercializado nas escolas como uma panacéia. Os professores que
ensinam computação também foram dispendiosamente treinados. Somente o investimento
financeiro já garante que a habilidade computacional será enfatizada em tantos campos
educacionais quantos for possível. Além disso, há um ar de urgência circundando a
máquina; o público pensa que o computador está associado a uma habilidade que deve ser
ensinada às crianças para que possam, mais tarde, encontrar empregos com mais facilidade.
Tomados em conjunto, estes fatores se destinam a deformar o curriculum rumo à maciça
preeminência do computador.
Se o curriculum prevalece nessas circunstâncias, as escolas podem realmente estar
fazendo muita coisa para auxiliar seus alunos a pensar como computadores. Mas quem irá
ensiná-los a pensar de outra forma? Onde, por exemplo, surgirá o estilo cognitivo chamado
arte? Curricula em arte são notoriamente pouco desenvolvidos. As escolas terão mais ou
menos tempo e dinheiro para contrabalançar o modelo de pensamento do computador?
Como estas influências intelectuais de compensação atuarão? Há o perigo de que elas
também venham a ser buscadas no computador, que seria o melhor a fazer para tirar dinheiro
de alguém a partir da máquina. A arte se tornará a arte do LOGO, que, afinal, existe no
repertório de programação de Papert. Se isto vier a ocorrer, seria pior do que nada ensinar
de arte.
Este perigo pode parecer aos entusiastas do computador como sendo o problema de
outrem, não o deles. Podem ver sua missão como limitada a abrir as escolas para esse
magnífico aparelho educacional. Mas eles podem estar entendendo incorretamente seus
próprios interesses de matemáticos e lógicos. Conforme a argumentação de Papert, LOGO
pretende ensinar o pensamento processivo. Ora, não há dúvida de que a mente pode ser
treinada rigorosamente para pensar deste modo e esta é uma habilidade conveniente para
uma série de projetos — uma vez que o projeto tem sido imaginado intuitivamente como
um todo e eleito como uma valiosa atividade. Estas duas tarefas — imaginar coisas como
todos significativos e decidir o que é importante e digno de valor — são justamente aquilo
que a mente faz primeira e naturalmente. Em tempo e importância, acabam tendo
precedência sobre o mapeamento de procedimentos: fins antes de meios. Especialistas em
inteligência artificial vieram, de certa forma, a entender isso em sua luta para enfrentar os
fenômenos de atividades que visam propósito, e de senso comum em nossas vidas. Passaram
a vê-los como conjuntos significativos que, de alguma forma, intuitivamente, parecem
dividi-los em inúmeras atividades subsidiárias. Poderia quase haver algo mais musical do
que matemático na questão: uma orquestração de partes que contribuem para o todo
temático. Assim, os pesquisadores de IA procuraram desenvolver linguagens de
programação que concedem o “auto-encaixe hierárquico” de sub-rotinas em padrões ou
estruturas mais amplas de conduta que visa propósito. Mesmo os projetos mais usuais, como
planejar uma refeição ou assar um bolo, são hoje entendidos como estruturas extremamente
complexas de rotinas dentro de rotinas e de loops dentro de loops.4 Mas nenhuma das rotinas
tem o menor sentido a não ser no contexto de um projeto específico. Planejar algo passo a
passo (programação) dentro de um projeto é uma atividade estritamente secundária — que
nem sempre é necessária. A arte e a poesia obviamente têm pouco a ver com o esboço de
seqüências formais e lógicas. Nenhuma habilidade que envolve coordenação física é aí
empregada. Esta é a razão de ninguém jamais ter aprendido a andar de bicicleta ou a tocar
piano apenas tendo lido um livro sobre o assunto ou memorizando algumas regras. Se um
cozinheiro, um carpinteiro ou o capitão de um navio tivessem que anotar todos os
procedimentos de seu dia de trabalho, morreriam velhos antes de terminarem a tarefa.
A esse respeito, mesmo os matemáticos — o ponto forte de LOGO — podem nada
ter a ver com pensamento processivo, pelo menos não em seus mais altos níveis, em que a
satisfação e a criatividade deste campo devem ser descobertas. Os matemáticos que
encontrei (diversamente dos cientistas da computação) parecem desejosos em admitir que
trabalham segundo estranhos empurrões de inspiração, segundo palpites, conjeturas,
insights, segundo a súbita formação de surpreendentes Gestalts. De que outra forma
explicar o fato de que eles sempre empacam ao tentar resolver um problema, já que toda a
lógica de que necessitam está lá em suas cabeças? Como explicar este outro fato mais
interessante de que, após uma impossibilidade de resolução que dura semanas, meses, anos,
eles podem finalmente chegar à solução: a experiência do “ah ha!”. Conheço matemáticos
que vão dormir com um problema e pela manhã acordam com a solução. Como ocorre tudo
isso? Provavelmente é melhor deixar a questão para os psicólogos, não para os lógicos.
O modelo de pensamento do computador pode distorcer a natureza fundamental da
matemática, da mesma forma que no caso da arte. Conforme observou um matemático meu
conhecido, “o pessoal ligado aos computadores parece não entender que a alta matemática
foi criada por um místico chamado Pitágoras. Não foi inventada para medir coisas. Era
destinada a uma visão de Deus”. Não é difícil imaginar o que poderiam dizer artistas e
poetas sobre a atuação de LOGO em seus campos; mas quantos matemáticos concordariam
que matemática é sinônimo de programação?
Conforme constata Papert, é extremamente difícil pensar processualmente; os
estudantes têm que ser atraídos para isso de forma inteligente e em seguida aí trabalhar com
grande persistência. Será que já ocorreu aos educadores de LOGO que pode haver uma
razão para a aparente tensão do exercício? Pode ocorrer pelo fato de a mente nem sempre
resolver espontaneamente problemas dessa forma, especialmente as mentes jovens e em

4
Margaret Boden oferece um longo capítulo a respeito de programas para solução de problemas em Artificial Intelligence and
Natural Man, Nova Iorque, Basic Books, 1981, pp. 370-389. Ela utiliza os exemplos: planejar refeições e assar um bolo.
crescimento. As crianças podem ficar bem mais absorvidas em experimentar seu caminho
através dos principais delineamentos da vida mental. Podem ficar interessadas em aprender
sobre a natureza dos projetos humanos e sobre a forma pela qual os alunos os escolhem.
Imaginando as coisas como todos significativos e escolhendo entre eles: esta pode ser a
primeira ordem dos negócios intelectuais para as crianças. Cuidado, pois a esquematização
lógica de procedimentos pode ser prematura para elas e, assim, uma perturbação. O que não
quer dizer que algumas delas não possam interessar-se pela tarefa específica de programar
umas poucas questões geométricas. Isto pode ser feito por elas próprias com jogos e
enigmas divertidos — como decifrar charadas.
Computadores pensam processivamente porque é o melhor que eles podem fazer.
As pessoas que os programam têm, portanto, que pensar desta forma. Mas esta é uma
habilidade que devemos valorizar apenas porque temos uma máquina em nossa vida que
precisa dela. Se levamos esta máquina à classe, as crianças aprenderão algo de importância
básica sobre os hábitos naturais e talentos da mente? Ou, ao programarem computadores,
estarão simplesmente aprendendo como pensam os programadores de computadores?
Apesar de minhas reservas com relação a LOGO, eu não votaria contra seu uso como
forma de se ensinar habilidades básicas de programação. Há crianças que serão bons
programadores e gostarão de desenvolver seus talentos. Deveriam ter essa possibilidade —
desde que as escolas possam suportar os custos sem perda de qualidade em outras áreas. No
caso de LOGO, tais custos estão propensos a serem elevados, talvez porque seja o que exija
uma dedicação mais intensa em termos de tempo de máquina, do que outros approaches da
habilidade computacional. Ê necessário que haja muitas máquinas disponíveis para que os
estudantes tirem a máxima vantagem.
Mas, precisamente por derivar de uma teoria pedagógica ampla e concebida de forma
ambiciosa, LOGO deveria servir para nos avisar sobre o perigo constituído pelo computador
na classe de aula. Este perigo parece óbvio: uma vez lá, o computador pode ser utilizado
para ensinar aquilo que é inerentemente incapaz de ser ensinado — exceto na forma de uma
má caricatura. Muitos na instituição da ciência da computação podem não reconhecer que
tal perigo existe. Seu modelo da mente como processadora de dados os encoraja a levar o
computador a todas as áreas do curriculum.
O que se pode fazer diante dessa formidável pressão a não ser recorrer a um princípio
absoluto em filosofia educacional? Nunca depreciar. Qualquer método, qualquer projeto,
qualquer filosofia pedagógica que deprecie o assunto ensinado deveria ser vista com
suspeita e utilizada com cuidado. Um curriculum em habilidade computacional que aspire
à generalidade do LOGO corre o risco efetivo de depreciar áreas completas do intelecto.
Poder-se-ia esperar que os professores reconhecessem este risco ao entrar na sala de aula.
E, em reconhecendo, poder-se-ia esperar que retivessem suficiente autoridade profissional
contra os negociantes de dados e contra os entusiastas do computador, para falar
abertamente e induzir alguns contornos defensivos nas mentes dos jovens.
5. Sobre ideias e dados

As ideias primeiro
Ao levantar essas questões sobre o papel do computador em nossas escolas, não pretendo
questionar o valor da informação em si mesma. Bem ou mal, nossa civilização tecnológica
precisa de dados, como os romanos precisavam de estradas e os egípcios do Antigo Império,
das cheias do Nilo. Compartilho significativamente dessa mesma necessidade. Como
escritor e professor, sou parte dos 5 ou 10% de nossa sociedade que têm inabalável apetite
profissional por informações atualizadas e confiáveis. Há muito aprendi a valorizar os
serviços de boas bibliotecas equipadas com computadores.
Nem pretendo negar a superioridade com que o computador armazena e recupera
dados. Não há nada de sagrado em páginas datilografadas ou impressas; se há maneiras de
encontrar e manipular dados mais rapidamente, temos sorte em utilizá-las. Do mesmo modo
que o computador tornou a regra de cálculo obsoleta, tem o direito de superar arquivos,
fichários e livros de referência, caso seja comprovadamente mais barato e eficiente.
Gostaria de insistir ainda que a informação, mesmo quando se move à velocidade da
luz, não deixa de ser o que sempre foi: pequenos pacotes de fatos, descontínuos, que podem
ser úteis ou triviais, mas nunca são a essência do pensamento. Eu ofereço este modesto
conceito de informação, retirado do senso comum, como contradição deliberada, aos
entusiastas da computação e teóricos da informação, que sugeriram definições bem mais
extravagantes. Nesse capítulo e no próximo, meu objetivo será, à medida que a crítica for
se desdobrando, desafiar esses ambiciosos esforços para ampliar o significado da
informação a proporções mais globais. Acredito que esse projeto possa apenas ser concluído
com a distorção da ordem natural das prioridades intelectuais. E, enquanto os educadores
aceitarem essa distorção e concordarem em investir cada vez mais seus exíguos recursos
em tecnologias da informação, poderão estar minando as habilidades de seus alunos para
conseguirem pensar significativamente.
Este é o grande mal perpetrado pelos negociantes de dados, futurologistas e aqueles
que, nas escolas, acreditam que a capacidade de se lidar com o computador é a moda
intelectual do futuro: eles não percebem a principal verdade: a mente pensa com idéias, não
com informação. Esta pode ajudar a ilustrar e tornar uma idéia mais atraente; pode, ao ser
guiada por uma idéia contrastante, nos auxiliar a questionar outras idéias; por si só não as
valida ou invalida. Idéias só podem ser criadas, alteradas e suplantadas por outras idéias. A
cultura sobrevive graças ao poder, plasticidade e fertilidade de suas idéias. Elas vêm
primeiro porque definem, contêm e, algumas vezes, produzem informação. A principal
tarefa da educação é, portanto, ensinar os jovens a lidar com idéias: como avaliá-las,
expandi-las e adaptá-las a novos usos. Tudo isso pode ser feito com pouca informação,
talvez com nenhuma. Mas, certamente, não exige nenhum tipo de equipamento para
processamento de dados. Na verdade, um excesso de informação pode confundir as idéias,
deixando a mente (especialmente as mais jovens e inexperientes) distraída por fatos estéreis
e desconexos, perdida em montes informes de dados.
Talvez seja útil, nesse momento, nos determos em alguns aspectos básicos.
A relação entre idéias e informação comumente é chamada de generalização.
Generalizar pode ser considerada a ação básica da inteligência. Esse processo assume duas
formas. Primeiro, ao ser confrontada com uma enorme quantidade não uniforme de fatos
(sejam percepções individuais ou relatos indiretos), a mente procura um padrão sensível de
conexão. Segundo, confrontada com um número pequeno de fatos, ela procura criar um
padrão, ampliando o pouco que tem e tenta direcioná-lo até uma conclusão. O resultado em
qualquer dos casos é uma proposição geral que não se esgota em pormenores, mas foi
imposta a ele pela imaginação. Talvez, após acumular mais fatos, esse padrão caia e seja
substituído por outro mais convincente. Aprender a abandonar idéias, inadequadas em favor
de outras melhores faz parte da boa educação com relação às idéias.
Generalizações podem ocorrer em vários níveis. No inferior, são formuladas a partir
de muitos fatos densamente reunidos e óbvios. São generalizações cautelosas, chegando
talvez à desinteressante certeza do truísmo. Há um outro nível, em que as informações são
menos densas e mais dispersas, os fatos menos precisos e certos; encontramos aí
generalizações mais arriscadas que assumem a natureza de uma adivinhação ou suspeita.
Na ciência, as suspeitas devem possuir rigor formal e assumem, nesse nível, a forma de
teorias e hipóteses sobre o mundo físico; são idéias que estão em fase de ensaio ou teste,
esperando mais evidências para se fortalecer, modificar ou serem substituídas. É esse o nível
no qual encontramos o tipo de generalizações perigosas que podemos encarar tanto como
insights brilhantes quanto como preconceitos temerários, segundo nossa análise crítica:
eliminando talvez proposições tidas como verdades inatacáveis, mas baseadas em poucas
instâncias.
As generalizações existem, portanto, ao longo de um espectro de informação que
varia desde a abundância até a quase ausência. À medida que percorremos esse espectro,
indo do ponto mais seguro até o excesso de fatos, as idéias tendem a se tornar cada vez mais
instáveis e, por esse motivo, mais ousadas, mais controversas. Quando observo que as
mulheres têm sido as donas-de-casa e educadoras dos filhos nas sociedades humanas, faço
uma generalização segura mas desinteressante que abrange um grande número de dados
sobre o passado e o presente dos sistemas sociais. Mas, suponhamos que eu continue e diga:
“E sempre que as mulheres deixam seus lares e abandonam sua função primordial de donas-
de-casa, a moral declina e a sociedade desaba”. Nesse instante, posso ser pressionado a dar
mais do que apenas alguns exemplos questionáveis da conclusão que ofereço. Mas estamos
diante de uma generalização arriscada de uma idéia fraca.
No teste psicológico de Rorschach é apresentado um arranjo de manchas e sinais
aparentemente sem significado. Pode haver muitos ou poucos, mas em qualquer caso, eles
não sugerem nenhuma imagem sensível. Então, após olharmos durante algum tempo, pode
ser que as manchas subitamente tomem uma forma bastante definida. Mas onde está esta
imagem? Não nas manchas, obviamente. O olhar, procurando um padrão razoável, projetou-
a no material; impôs um significado onde não havia nada. Da mesma forma, na psicologia
da Gestalt, em que podemos ser confrontados com imagens perceptuais especialmente
elaboradas: um arranjo ambíguo de sinais que primeiramente parecem algo e em seguida
parecem tomar outra forma. Qual é a imagem “verdadeira”? O olhar é livre para escolhê-
las, porque as duas estão realmente ali. Tanto no caso das manchas de Rorschach quanto
nas figuras da Gestalt, o padrão está nos olhos do observador. O material sensível apenas
oculta. A relação entre idéias e fatos é aproximadamente assim.
Os fatos são os sinais, dispersos e possivelmente ambíguos; a mente os ordena de
uma maneira ou de outra, conformando-os em padrões que ela mesma criou. As idéias são
padrões integradores que satisfazem a mente quando ela pergunta: o que isso significa?
Sobre o que estamos falando?
Mas naturalmente uma resposta que me satisfaz pode não satisfazer a você. Podemos
ver diferentes padrões no mesmo conjunto de fatos. E então discordamos e procuramos
persuadir um ao outro que um ou outro desses padrões é superior, o que significa dizer que
está mais de acordo com os fatos disponíveis. A discussão pode centralizar-se em um fato
ou em outro, de tal maneira que nós parecemos estar discordando sobre fatos específicos:
se são realmente fatos ou sobre sua importância relativa. No entanto, mesmo aí, estaremos
provavelmente discordando a respeito de idéias. Sugerirei mais adiante que fatos são eles
próprios criações das idéias.
Aqueles que concedem à informação uma elevada prioridade intelectual geralmente
gostam de assumir que os fatos, por si só, podem causar discordâncias e superar idéias.
Raramente isto ocorre, exceto talvez em certos períodos muito turbulentos, quando a idéia
geral de “ser cético” e “questionar a autoridade” esteja em evidência e ligada a algum novo
tópico discordante. Por outro lado, na ausência de uma idéia verdadeiramente nova, bem
formulada e intelectualmente sedutora, é notável considerar quantas dissonâncias e
contradições uma idéia dominante pode absorver. Há casos clássicos mesmo nas ciências.
A cosmologia ptolomaica, que prevaleceu na Antigüidade e durante a Idade Média estava
comprometida por incontáveis observações contraditórias durante muitas gerações. Mesmo
assim, era uma idéia internamente coerente e intelectualmente agradável; por esse motivo,
cérebros agudos e perspicazes continuavam no sistema antigo e familiar. Onde parecia
haver conflito, simplesmente ajustavam e reelaboravam a idéia ou reestruturavam as
observações para que elas se enquadrassem no sistema. Caso não fosse possível encaixá-
las, estas poderiam ficar à margem da cultura como curiosidades, exceções, extravagâncias
da natureza. Foi necessário a criação de uma constelação de idéias extremamente
imaginativas sobre a dinâmica celeste e terrestre, repleta de novos conceitos de gravitação,
inércia, momento e matéria para que o velho sistema fosse abandonado. Durante os séculos
XVIII e XIX, estratégias similares de “ajuste” foram utilizadas para salvar outras idéias
científicas herdadas, nos campos da química, geologia e biologia. Nenhuma delas foi
superada até que paradigmas completamente novos fossem inventados para subs tituí-las,
algumas vezes com relativamente poucos fatos para apoiá-las de início. As mentes que se
apegavam aos velhos conceitos não eram, necessariamente, obstinadas e teimosas;
simplesmente precisavam de idéias melhores a que se poderiam agarrar.

Ideias mestras
Se existe uma arte de pensar passível de ser transmitida aos jovens, ela deve estar bastante
preocupada em ensinar como a mente pode percorrer o vasto espectro de informações,
distinguindo entre generalizações sólidas e suspeitas e entre hipóteses e preconceitos
temerários. Para atingir nosso objetivos, gostaria de me movimentar até a extremidade desse
espectro, até o ponto em que os fatos, cada vez mais esparsos, finalmente desaparecem. O
que encontramos ao entrarmos nessa zona em que os fatos estão completamente ausentes?
Lá descobriremos as idéias mais arriscadas e, ao mesmo tempo, as mais ricas e
frutíferas. Aí se localizam o que poderíamos chamar de idéias mestras — grandes
ensinamentos morais, religiosos e metafísicos que são a base da cultura. A grande maioria
das idéias que ocupam nosso pensamento não são idéias mestras porque estão sempre
presentes de alguma forma nos fundamentos da mente, moldando nossos pensamentos
abaixo do nível da consciência. Gostaria de focalizá-las porque mostram uma relação
particularmente reveladora com a informação, que é nosso principal tema de discussão.
Idéias mestras não se baseiam em informações. Precisarei delas, portanto, para enfatizar a
diferença radical entre idéias e dados, que o culto à informação tem contribuído bastante
para obscurecer.
Tomemos como exemplo uma das idéias mestras de nossa sociedade: todos os
homens são iguais.
Não escapará a nenhum de nós o poder dessa idéia tão familiar. A partir dela,
surgiram inúmeras e infindas controvérsias jurídicas e filosóficas, organizaram-se
movimentos políticos e eclodiram revoluções. Essa idéia amalgamou nossa cultura de
formas que tocam a cada um de nós profundamente. Ela é parte, talvez a mais importante,
de nossa identidade pessoal.
Mas de onde veio essa idéia? Obviamente não de um corpo de fatos. Aqueles que a
criaram não possuíam mais informações sobre o mundo do que seus ancestrais, que
ficariam, sem dúvida alguma, chocados com tal pronunciamento. Eles possuíam bem menos
informações sobre o mundo que nós (no final do século XX) consideraríamos necessário
para apoiar uma afirmação tão universal e devastadora sobre a natureza humana. No
entanto, aqueles que, através dos tempos, derramaram seu sangue para defender (ou opor-
se-a) essa asserção não o fizeram com base em dados que lhes foram apresentados. A idéia
não tem nenhuma relação com informação. Dificilmente poder-se-ia imaginar uma linha de
pesquisa capaz de prová-la ou negá-la. Na verdade, quando essa pesquisa foi tentada (por
exemplo, pelos inveterados teóricos do QI), o resultado, como os seus críticos fazem sempre
questão de lembrar, é uma irremediável confusão do significado real da idéia, a qual nada
tem a ver com medidas ou descobertas, fatos ou projeções de nenhum tipo. A idéia da
igualdade humana é uma afirmação sobre o valor essencial da pessoa aos olhos de seus
companheiros. Em determinado momento histórico, essa idéia surgiu nas mentes de alguns
poucos pensadores moralmente apaixonados como uma resposta misericordiosa às
condições de brutal injustiça que não mais poderiam ser aceitas como toleráveis. Ela se
espalhou de uns poucos para muitos; encontrando a mesma proposta insurgente nas
multidões, logo se tornou o grito de guerra de toda uma era. Assim ocorre com todas as
idéias mestras. Nascem não de dados, mas de firmes convicções que se incendeiam na mente
de um, de poucos e, a seguir, de muitos; as idéias se espalham para outras vidas em que o
suficiente da mesma experiência se encontra aguardando para ser despertado.
Aqui estão algumas outras idéias, algumas delas mestras. Cada uma, embora
condensada na forma, foi tema de incontáveis variações na filosofia, nas crenças religiosas,
na literatura e na jurisprudência da sociedade.
Jesus morreu por nossos pecados.
O Tao que pode ser enunciado não é o verdadeiro Tao.
O homem é um animal racional.
O homem é uma criatura decaída.
O homem é a medida de todas as coisas.
A mente é uma folha de papel em branco.
A mente é governada por instintos inconscientes.
A mente é uma coleção de arquétipos herdados.
Deus é amor.
Deus está morto.
A vida é uma peregrinação.
A vida é um milagre.
A vida é absurdidade, absurdo sem sentido.
No coração de toda cultura encontramos um núcleo de idéias como estas, algumas
velhas, outras novas, algumas crescendo em preeminência, outras caindo em obsolescência.
Uma vez que aquelas que enumerei acima estão formuladas de maneira muito concisa e são
idéias verbais, elas podem ser confundidas com declarações intencionais de fato. Têm a
mesma forma lingüística de uma informação do tipo: “George Washington foi o primeiro
presidente dos Estados Unidos”. Mas, sem dúvida, não são fatos mais importantes do que
uma pintura de Rembrandt, uma sonata de Beethoven ou uma dança de Martha Graham o
são. Pois estas últimas também são idéias; são padrões integradores destinados a declarar o
significado das coisas conforme os seres humanos as descobriram, seja por revelação,
insight súbito ou através do lento crescimento da sabedoria calcada na experiência de uma
vida. De onde vêm tais padrões? A imaginação os cria a partir da experiência. Da mesma
forma que as idéias organizam informações, também impõem ordem no turbulento fluxo da
experiência que deságua em nós no curso da vida.
Esse é o ponto de Fritz Machlup ao observar a impressionante diferença entre
“informação” e “conhecimento”. (Ele está utilizando o conceito de “conhecimento” aqui
exatamente do mesmo modo que eu estou utilizando o de “idéia”, ou seja, como um padrão
integrador). “A informação”, diz, “é adquirida quando se diz algo, enquanto conhecimento
pode ser adquirido através do pensamento”.
Qualquer tipo de experiência — impressões acidentais, observações ou até
mesmo “experiências interiores” sem qualquer estímulo externo — pode
iniciar um processo cognitivo que conduza a mudanças no conhecimento de
um indivíduo. Portanto, novos conhecimentos podem ser adquiridos sem o
recebimento de informação nova. (Que essa asserção se refere ao
conhecimento subjetivo não há o que discutir; mas não há nada parecido com
o conhecimento objetivo que não tenha sido antes o conhecimento subjetivo
de alguém).1
As idéias, portanto, especialmente as idéias mestras, trazem ordem à experiência.
Isso pode ser feito de maneira profunda ou superficial, nobre òu selvagemente. Nem todas
as idéias são humanitárias; algumas, que tentam tornar-se idéias mestras e podem até
mesmo ser bem-sucedidas, são perigosas, vis e destrutivas. O Mein Kampf de Hitler é um
livro cheio de idéias tóxicas que nasceram da vingança e do ressentimento. Apesar disso,
tornaram-se, por um breve período, a idéia mestra de uma sociedade conturbada. Ninguém
que tenha lido aquele livro e odiado o seu conteúdo o leu porque pensasse que talvez o autor
tivesse apresentado erradamente os fatos; ninguém que tenha lido aquele livro com paixão

1
Machlup e Mansfield, The Study of Information, p. 644.
importou-se com a precisão de informações. O apelo do livro, aceito ou rejeitado, está
estabelecido em um nível diferente da mente.
Aqui estão mais algumas idéias que, pelo menos a meu ver, são também tóxicas:
Sociedade é a luta de todos contra todos.
O interesse próprio é a única motivação humana digna de confiança.
Que a justiça seja feita mesmo que o céu desabe.
Bom índio é aquele que está morto.
Os fins justificam os meios.
Meu país, certo ou errado.
É precisamente por serem algumas idéias, na verdade muitas delas, brutais e
mortíferas que precisamos aprender a lidar cuidadosamente com elas. Uma idéia nos pode
conduzir para dentro da mente das pessoas, acompanhando-nos através de suas
experiências. Compreender uma idéia significa compreender a vida daqueles que a criaram
e defenderam. Significa conhecer as peculiares fontes de inspiração, seus limites, suas
vulnerabilidades e seus pontos obscuros. O que nossas escolas devem oferecer aos jovens é
uma educação capaz de permitir-lhes fazer essa viagem através de outra mente à luz de
outras idéias, incluindo-se aí algumas que eles próprios tenham criado a partir de suas
próprias experiências. A mente que possui poucas idéias é tosca e limitada, mesquinha e
defensiva em seus julgamentos. “Nada é mais perigoso que uma idéia”, disse em certa
ocasião Emil Chartier, “quando é a única que temos”.
Por outro lado, a mente que possui muitas idéias está equipada para fazer avaliações
mais elegantes e oportunas. Está aberta e receptiva à sua própria experiência, e ainda capaz
de comparar essa experiência com a de outros, fazendo distinções e escolhendo, dessa
maneira, suas convicções com cuidado e elegância.

Experiência, memória, insight


Um dos maiores perigos no modelo de pensamento do processamento de dados é a maneira
pela qual são vulgarizadas e simplificadas algumas sutis distinções a respeito da anatomia
da mente. O modelo pode assim proceder legitimamente para realizar análise mais efetiva;
todos os modelos científicos procedem deste modo. Mas sempre há perigo, e muitos
cientistas de computação já tiveram esse problema: de que o modelo se torne reificado e
passe a ser tomado seriamente. Quando isso acontece com especialistas que deveriam estar
preparados e atentos, pode ser que seja falsificado aquilo que sabemos (ou deveríamos
saber) sobre o modo como nossa própria mente trabalha.
Tomemos, por exemplo, o significativo intercâmbio entre experiência, memória e
idéias que estão na base de todo pensamento. Tenho utilizado a palavra experiência para
me referir ao curso da vida, à medida que molda a personalidade individual a cada momento.
Uso o termo como — suponho — muitos artistas usariam; mais especificamente, é a
experiência conforme seria descrita na linguagem técnica por fluxo de consciência;
A experiência nesse sentido é a matéria-prima da qual as idéias morais, metafísicas
e religiosas são moldadas pela mente que procura um significado. Esta pode parecer uma
definição imprecisa, especialmente para os que têm inclinações empiristas. Na tradição
empírica, “experiência” se tornou o equivalente de informação. É o conjunto dos dados
sensoriais soletrados em “porções” nítidas e bem organizadas para testar proposições sobre
o mundo num sentido estritamente lógico. Quando os filósofos empiristas dos séculos XVII
e XVIII assim definiram experiência, buscavam uma forma de conhecimento que servisse
de alternativa às afirmações que tinham a pretensão de serem aceitas com base na
autoridade, em boatos, tradição, revelação ou pura meditação introspectiva. A experiência
pretendia ser aquele tipo de conhecimento vivido e pessoalmente testado. Pretendia, além
disso, estar à disposição de outros através das experiências deles. Seria, portanto, o
conhecimento público e, como tal, estaria livre de distorções e manipulação. Este era,
segundo o argumento dos empiristas, o único tipo de conhecimento digno de mérito. A
menos que todo o resto pudesse ser verificado pela experiência, provavelmente não
mereceria ser considerado conhecimento.
Mas a experiência do tipo que os empiristas procuravam era, afinal de contas, de
uma variedade muito especial e bem tramada. Modelada sobre experimentos de laboratório
ou sobre pesquisas profissionais bem documentadas, não existe em quase nenhum lugar,
exceto no mundo da ciência, ou possivelmente como evidência numa corte de justiça.
Normalmente, não coletamos muito desse tipo de experiência. Ao contrário, costumamos
ser tomados pelo fluxo dos acontecimentos como a vida nos apresenta, sem previsão, de
modo desestruturado, fragmentário e dissonante. Esse curso turbulento passa à memória,
onde se estabelece como uma série de coisas lembradas de maneira vívida, semi-esquecidas,
confusas, misturadas ou compostas. A partir dessa composição de eventos lembrados, nós
cultivamos de alguma maneira um jardim secreto de certezas e convicções, nosso modo
prático de fazer as coisas, nossos gostos e desgostos, nossos discernimentos, intuições e
artigos de fé.
Memória é o fator-chave aqui; é o registro da experiência onde o fluxo da vida diária
toma a forma de padrões de guia e de conduta. Os computadores, dizem-nos, também têm
memória, nas quais armazenam informações. Mas a memória de um computador é tão
humana quanto o dente de uma serra é similar ao dente humano; estas são metáforas
demasiado frouxas que abrangem mais divergências do que semelhanças. Não é pequena a
responsabilidade do culto à informação ao obscurecer essa distinção, ao sugerir que a
memória do computador é superior porque tem maior capacidade de recordar. Essa atitude
interpreta mal o que é a experiência e como ela gera idéias. Os computadores “recordam”
dados sob a forma de entradas distintas: o input de quantidades, gráficos, palavras, etc. Cada
item é separável, designado por um único endereço ou nome de arquivo e tudo está sujeito
a um recall* total. A menos que a máquina não esteja funcionando bem, pode “regurgitar”
tudo que armazenou exatamente como foi guardado, seja um único número ou um
documento extenso. É isso o que esperamos da máquina.
A memória humana, por outro lado, é um adesivo psíquico invisível que mantém
nossa identidade unida a cada momento. Isso a torna um fenômeno radicalmente diverso da
memória do computador. Por um lado, ela é mais fluida que granular, muito mais parecida
com uma onda que com uma partícula. Espalha-se como uma onda pela mente, vedando
aqui e ali algumas estranhas associações pessoais do tipo inexplicável. Flui não apenas
através da mente, mas também das emoções, dos sentidos e do corpo. Lembramo-nos de
coisas de uma forma que nenhum computador pode fazer, em nossos músculos e reflexos:
*
Através da função recall, os dados arquivados na memória do computador podem ser recuperados, “relembrados”. (N. T.)
como nadar, tocar um instrumento, usar uma ferramenta. Essas experiências armazenadas
se abrigam abaixo do nível da consciência e da articulação, de tal maneira que é impossível
contar a alguém como dirigimos um carro ou pintamos uma tela. Na verdade, nem nós
mesmos “sabemos”. Numa antiga piada da sabedoria popular, a filha pergunta à mãe como
ela faz uma torta de maçã tão boa. A mãe, embaraçada, responde: “Primeiro eu lavo as
mãos. Em seguida, visto um avental bem limpo. Então, vou para a cozinha e faço uma boa
torta de maçã”.
Ao lidarmos, acima de tudo, com experiências lembradas, raramente encontramos
uma completa lembrança [a total recall]. As experiências podem estar ali, profundamente
enterradas em nosso cérebro e organismo, mas em sua maioria estão além da possibilidade
de recuperação.
Nossa memória é rigorosamente seletiva, sempre pronta a focalizar o que nos
interessa. Ela edita e aglutina experiências, reprime e esquece — o faz de formas que nós
podemos não entender completamente. À medida que vivemos cada instante, alguma coisa
imediatamente anterior a nós pode realizar uma ligação com experiências que evocam
associações sensoriais vívidas, dores, prazeres; elas, por sua vez, têm o poder de nos fazer
rir, nos tornar tristes, podem até nos levar à náusea e a traumas bastante profundos. Algo do
que experimentamos e armazenamos em nossa memória pode ter-se originado na mais
remota infância; podem haver mesmo fantasmas de origem pré-natal. Muito é retirado de
nossas fantasias particulares nunca reveladas e admitidas com relutância até para nós
mesmos.
Podemos dizer que nos lembramos do que interessa; mas podemos também,
perversamente, ocultarmos ou recompormos coisas demasiado ameaçadoras para encarar.
As lembranças que retemos são misteriosamente selecionadas e enigmaticamente
organizadas na memória. Há pontos quentes e vívidos cheios de associações bastante ricas
e fortes; há esquinas sombrias que apenas emergem vividamente em sonhos e alucinações;
há zonas estranhas, sutis, que se deleitam em preencher nossas reminiscências com
lembranças aparentemente caóticas e inúteis — coisas que lembramos sem saber por quê,
até mesmo detalhes que adoraríamos apagar se pudéssemos (irritantes letras de música,
insistentes jingles de TV, etc.)... mas não podemos. Se pudéssemos traçar a anatomia
perfeita de nossa memória em sua completa e impalpável variedade, teríamos o próprio
segredo da natureza humana. A forma dessa memória é, muito simplesmente, a de nossas
vidas; é o auto-retrato que pintamos de todas as nossas experiências. Não foi um cientista
da computação, mas um escritor, que nos falou sobre a estranha dinâmica da experiência.
Vladimir Nabokov escreve:
“Um passante assobia uma melodia no instante exato em que você percebe os
reflexos dos ramos de uma árvore em uma poça que, por sua vez e
simultaneamente, lembra folhas úmidas e pássaros agitados em algum jardim
antigo; um velho amigo há muito morto, de repente sai do passado, sorrindo e
fechando seu guarda-chuva gotejante. Tudo isso durou apenas um radiante
segundo e as impressões e imagens são tão fugazes que não se pode verificar
as leis exatas que levaram a seu reconhecimento, a sua formação e fusão... É
como um quebra-cabeça que instantaneamente se organiza em nosso cérebro,
o qual é incapaz de observar como e por que as peças se encaixam. Nesse
instante, você viveu uma estremecedora sensação de arrebatada magia”.2
A experiência, conforme a descrição de Nabokov, está muito mais próxima de uma
efervescência do que de um sistema de arquivo organizado. Os ingredientes de toda uma
vida se misturam e se confundem para produzir sabores inesperados. Algumas vezes é um
simples componente picante que se sobrepõe ao resto: um momento de alegria, uma grande
tristeza, a lembrança de um triunfo ou uma derrota. Eventualmente essa efervescência se
reduz a um rico resíduo de sentimentos, impressões gerais, hábitos e expectativas. Então,
em dada circunstância — mas quem pode dizer quando? — aquele resíduo aflora sob a
forma de um insight bem constituído sobre a vida, que poderá ser dito, pintado, dançado ou
encenado, para que o mundo o conheça. E tudo isso se torna, de forma articulada ou como
um rasgo existencial mudo, uma idéia. Certamente esse processo está bastante associado ao
“clima” de opiniões em que nos encontramos, às tradições compartilhadas e ao momento
autobiográfico de nossa vida. Mas como tudo isso vai se combinar em determinada mente
num dado momento e o que produzirá, isto está muito além de nossa capacidade de previsão.
A efervescência de nossas experiências pessoais é bastante densa, e cheia de elementos
inidentificáveis, misturados em proporções secretas. O que emerge dessa trama, dessa
mistura, pode ser bastante surpreendente. Basta observar o que todas as culturas nos dizem:
somos capazes de verdadeira originalidade. A história está repleta de incríveis exemplos de
invenções e súbitas conversões. Paulo de Tarso estanca cego na estrada de Damasco e se
recupera do trauma para tomar-se discípulo de um sábio que ele nunca encontrara e cujos
seguidores até então perseguira; Tolstoi, caindo em depressão suicida, repudia todas as suas
obras-primas e luta para se tornar um eremita e asceta; Gandhi, retirado do vagão só para
brancos num trem da África do Sul, renuncia a uma promissora carreira de advogado para
vestir uma túnica e se tomar mahatma de todo um povo. Vemos aqui o trabalho da
experiência, misteriosamente formando novas idéias sobre a vida nas profundezas da alma.
Assim é para todos nós, à medida que presenciamos a emergência de convicções em
outras pessoas, confrontamos aquilo que dizem e fazem com toda a força de nossa
experiência. Se há ressonâncias confirmadoras dentro de nós, deve ser porque nossa vida
coincide com a dos que encontramos. Mas pode acontecer que o poder do encontro em si
mesmo — ali, naquele momento único — destrua as convicções de toda uma vida e nós
experimentemos a sensação de começar tudo de novo, de renascer, pois há exemplos de
pessoas que estão sendo desfeitas e refeitas pela confrontação carismática e pressões de uma
crise. Pode até mesmo acontecer que esses momentos de originalidade e súbita conversão
assumam um papel crucial no crescimento da cultura. Talvez esta volatilidade da mente seja
o que salva a sociedade humana da rigidez imutável de outros animais sociais, das formigas,
abelhas, das feras da alcatéia e das manadas. Fomos, enquanto espécie, dotados de um
emaranhado de células eletroquímicas que se tornaram um elaborador de idéias. Nosso
cérebro cria tão espontaneamente novas idéias e joga com as já conhecidas, que nada
podemos dizer sobre elas a não ser “ali estão”, moldando nossas percepções e revelando
possibilidades. A cada momento, os seres humanos encontram novas coisas para pensar,
fazer e ser: idéias que emergem aparentemente de nenhum lugar. Somos animais
notavelmente plásticos e adaptáveis, e o alcance de nossa criatividade cultural parece

2
Vladimir Nabokov, “The Art of Literature and Common Sense”, Lectures on Literature, Nova Iorque, Harcourt Brace Jovanovich,
1980.
ilimitado. Seria uma grande perda se, menosprezando nossa concepção de experiência,
memória e insight, o culto à informação embotasse esses poderes tão criativos.
Há, porém, cientistas da computação que parecem estar rumando exatamente nessa
direção. Acreditam poder simular nossa originalidade no computador utilizando programas
que incluem elementos aleatórios. (O programa LOGO para poesia que analisamos no
capítulo anterior é um exemplo.) Por não conseguirmos prever o output [resultado] do
programa, isso o torna imprevisível, e é identificado como “criativo”. Mas há um abismo
de diferenças entre um programa de aleatória forjada e a verdadeira originalidade. O modelo
de processamento de dados trabalha novamente para obscurecer a distinção. Na mente
humana, uma idéia original tem um significado vivo; está ligada à experiência e produz
convicções. O que o computador produz é tão “original” quanto um espasmo muscular:
imprevisível, mas dificilmente significativo.
É claro que há outras formas de experiência que nos chegam de maneira bem mais
elaborada e organizada: coisas aprendidas literalmente, memorizadas ou decoradas,
instruções precisas, procedimentos, nomes, endereços, fatos, cálculos. O que tais
experiências deixam atrás de si é muito similar ao que alimenta a memória do computador:
informação no sentido exato da palavra. Nosso vocabulário psicológico não distingue
claramente esses diferentes níveis e texturas da memória; nós temos apenas uma palavra
para as lembranças das coisas passadas. Lembramos um episódio traumático e doloroso que
mudou nossa vida. Manter esses tipos tão diferentes da experiência sob a rubrica
informação só pode contribuir para vulgarizar a qualidade de vida.
“O coração tem razões” — nos diz Pascal — “que a própria razão desconhece.” Eu
entenderia essa frase no sentido de que a mente das pessoas está repleta de idéias que
emergem de mananciais profundos de experiência mesclada e desordenada. Essas idéias,
mesmo ambíguas, confusas, contraditórias, podem ser, bem ou mal, a essência de
convicções firmes. Num debate que envolve tais “razões”, a informação raramente é útil.
Ao contrário, devemos testar e provar à luz de nossas próprias convicções, buscando a
experiência subjacente à idéia. Devemos fazer aquilo que eu arriscaria afirmar que você
está fazendo nesse instante enquanto lê essas páginas, que são minhas convicções
apresentadas a sua consideração. Você pára, reflete, procurando descobrir quais seriam
minhas afinidades morais e filosóficas. À medida que você tenta captar a “sensação” das
idéias que ofereço, vasculha suas recordações para ver se encontra um eco para as
experiências que lhe apresento. Você pode demorar-se mais em nuances e sombras dos
significados do que em questões mais prosaicas. Eventualmente você pode detectar
implicações menos diretas ou suposições ocultas que talvez você não possa ou não queira
endossar. Possivelmente, sente que alguns dos seus valores mais queridos estão sendo
desafiados e você se apressa em defendê-los.
Não há meios de saber como terminará essa “ruminação crítica”, mas um ponto
deveria estar óbvio: nada disso é “processamento de dados”. É o toma lá dá cá do diálogo
entre duas mentes, cada uma procurando suas próprias experiências. É o jogo das idéias, e
todas as informações de todos os bancos de dados do mundo não poderão determinar as
conseqüências que podem emergir dessa disputa.
O gambito do empirista
Uma vez sintonizadas com o problema, muitas pessoas considerarão a primazia das idéias
tão óbvia que perguntarão por que teve de ser o tema dessa discussão. Como os cientistas
da computação conseguiram subordinar as idéias aos dados de forma tão persuasiva? Esta
é uma intrigante questão histórica a que poderíamos dar certa atenção.
No começo deste capítulo, referi-me à escola de filosofia empirista e à maneira como
ela escolheu reinterpretar o significado da experiência. Voltemo-nos, por um momento, ao
impacto do empirismo sobre a filosofia ocidental, pois ele cumpre papel bastante
significativo no culto à informação.
Há aproximadamente quatro séculos, naquele período turbulento de transição que
vai da Renascença à era moderna, o reino do conhecimento no Ocidente era uma pequena
ilha de certeza cercada por um mar de mistérios. Nas suas profundezas distantes, esse mar
se mistura com a mente de Deus, cujo conteúdo só poderá ser atingido por um ato de fé. Na
ilha, os principais corpos de pensamentos eram as escrituras, as obras dos pais da Igreja,
um punhado de mestres gregos e romanos que haviam sido preservados e, possivelmente,
um pequeno e seleto grupo de pensadores judeus e árabes. Por muitos séculos, durante a
época medieval, essas fontes foram retrabalhadas muitas vezes com elaborações brilhantes,
constituindo um intocável repertório de conhecimento que garantia as respostas a todas as
questões que a mente humana pudesse esperar ver esclarecidas.
Em tal cultura, não há essa categoria chamada “informação”. Os fatos contam muito
pouco onde tudo o que pode ser conhecido já é sabido e já foi assimilado a verdades muito
bem estabelecidas. No lugar da informação, encontramos confabulações: jogos constantes
(às vezes inspirados) com idéias familiares, que são estendidas, combinadas e reformuladas.
Em fins do século XVI, esse estilo intelectual se tornava cada vez mais incompatível com
o dinamismo econômico e social do mundo ocidental. Estavam sendo descobertos novos
mundos, grandes continentes e culturas até então ignorados por qualquer autoridade
existente. Eram as descobertas. E se descobertas geográficas eram possíveis, por que não
haveria também novos mundos na mente humana? Francis Bacon usou exatamente esse
argumento para justificar sua incansável busca de uma “nova filosofia”. Ele, Descartes,
Galileu e Giordano Bruno estavam entre os primeiros a equiparar a paixão efusiva de sua
cultura por novas descobertas físicas, com uma correspondente ousadia intelectual.
Essas mentes férteis do século XVII chegaram a um excitante projeto cultural. Sua
proposição era: deixe-nos inventar um novo tipo de pesquisa que terá o poder de descobrir
novos aspectos do mundo (sobre suas forças, estruturas e fenômenos). Esta maneira de
pensar será equivalente às grandes viagens de descoberta que encontraram novos mundos
no além-mar. Eles decidiram que esse estilo de investigação deveria incluir interrogações
rigorosas e bem direcionadas sobre a natureza, através da observação atenta e da
experimentação. Isso deveria ser feito com um espírito de total objetividade, evitando-se
todas as hipóteses e suposições. Deveria apenas tentar ver as coisas como elas realmente
são. O resultado desse novo método seria um crescente corpo de fatos (ou ocorrências)
sólidos e confiáveis, usualmente medições, que até aquele momento não haviam sido
examinados. Então, se um observador começa escrupulosamente a reunir tais fatos, eles
eventualmente falam por si, tomando a forma de grandes verdades, tão vastas em seus
propósitos quanto o tamanho de todo o universo.
Podemos reconhecer hoje esse método (o novum organum, segundo Bacon) como
sendo o distante início da visão de mundo de nossa ciência moderna. Ninguém pode deixar
de avaliar sua contribuição histórica, mas temos também suficiente perspectiva histórica
para saber o quão mal compreendido foi esse método. Em sua estreita visão dos fatos, ele
não considerou a crucial importância da imaginação teórica, da hipótese, da especulação e
de inspiradas conjeturas — sem as quais a ciência não teria tido seu impacto revolucionário.
Olhando o passado, podemos perceber nitidamente a imaginação teórica trabalhando na
mente de Galileu, Newton, Kepler, Boyle e Hook, perfis do pensamento que lá estava, mas
que eles não puderam notar, em função da sua excessiva proximidade. Sabemos que as
grandes reviravoltas científicas nunca são montadas pouco a pouco a partir de uma pesquisa
ordinária. Algumas vezes, a investigação limitada e preciosista pode conseguir levantar
algumas dúvidas importantes sobre uma teoria científica, mas necessita ao menos ter essa
teoria diante de si, como alvo ou linha de base. Sem algumas idéias-mestras que sirvam a
essa função, não se saberia como começar a procurar pelos fatos (ou pelas ocorrências). A
ciência é uma investigação estruturada e as estruturas que guiam seu progresso são idéias.
Havia, entretanto, uma boa razão pela qual os pais fundadores da ciência moderna
se desviaram na direção da supervalorização dos fatos em detrimento das idéias. Na época
de Galileu, as idéias dominantes sobre a natureza se originavam a partir de algumas
autoridades sacrossantas: a teologia cristã ou Aristóteles. Para se livrar dessa herança cada
vez mais restritiva de idéias antigas e esgotadas, essas mentes ousadas passaram a
questionar as próprias idéias. Procuraram, então, um novo ponto de partida que parecesse
inócuo e neutro e, portanto, estrategicamente inofensivo às autoridades culturais da época:
concentraram suas atenções nos fatos bem definidos e indiscutíveis da experiência comum:
peso, tamanho e temperatura dos corpos. Os fatos primeiro, insistiam eles. As idéias depois.
Essa abordagem provou ser bastante persuasiva. Revelou um grande número de novidades
terrestres e astronômicas, que não poderiam ser adequadamente explicadas por Aristóteles,
pela Bíblia ou pelos padres da Igreja; ou, talvez, nunca tivessem sido notados por eles. Se a
missão dos primeiros empiristas é vista nesse contexto histórico particular, pode-se
reconhecer que foi um inteligente gambito filosófico, cujos objetivos eram derrubar as
bandeiras etnocêntricas e as autoridades eclesiásticas. Com relação a isso, eles foram bem
sucedidos. Ao encorajarem um ceticismo obstinado sobre as idéias herdadas, liberaram as
energias intelectuais reprimidas da sociedade ocidental. Sua ligação com o nascimento da
ciência moderna sempre lhes reservará um status especial.
O problema é que o próprio sucesso dos empiristas ajudou a estabelecer em nossa
cultura certas concepções fortemente reducionistas sobre o conhecimento, que nos leva a
subestimar o papel da imaginação na criação de idéias e o papel das idéias na produção de
conhecimento, até mesmo nas ciências. Atualmente, mentes fiéis ao amor empirista de fato
apoderaram-se do computador como um modelo de trabalho da mente ao armazenar dados,
realojando-os, produzindo conhecimento — fazendo-o talvez melhor que seu original
humano. Os que vêem o mundo aproximadamente deste modo, representam um dos pólos
de uma discussão já existente nos tempos de Platão, Aristóteles e Demócrito. O que é mais
“real”, as coisas ou a idéia que temos delas? O conhecimento começa nos sentidos ou na
mente?
Não é minha intenção tentar condenar aqui esses argumentos. Desejo apenas
enfatizar que o modelo da mente como processadora de dados não é uma pura “descoberta”
objetiva da ciência contemporânea. Cresce a partir de um compromisso filosófico bem
determinado; representa um lado do antigo debate, ainda presente e ainda agitado. O lado
empirista da discussão merece ser respeitado pelas valiosas contribuições feitas a nossa
herança filosófica. Não gostaríamos de ficar sem ele. Acho interessante, sempre que estou
com pessoas que defendem uma posição rigorosamente empirista, lembrá-las de um
paradoxo: seus próprios pontos de vista são ideias. É uma idéia sobre idéias... e sobre o
conhecimento, a experiência e a verdade. Como tal, não se baseia em fatos ou informações,
porque é essa mesma idéia que define a informação em primeiro lugar. Não há, basicamente,
então, como escapar das ideias. É com elas que a mente pensa, mesmo quando ataca a
primazia das idéias.
Quanto a isso, o computador também é uma idéia, da mesma forma que todas as
máquinas o são. É uma idéia sobre números, classificações e relações: todas materializadas.
A proposição “a mente pensa como um computador” é uma idéia sobre a mente, que muitos
filósofos adotaram e debateram. E como toda idéia, essa pode ser abandonada, olhada de
certa distância e colocada em questão. A mente, ao contrário de qualquer computador jamais
imaginado, é dotada de poder incontrolável de autotranscendência. É o maior de todos os
escape artists,* logrando constantemente seus próprios esforços de autocompreensão. Pode
constituir idéias sobre suas próprias idéias, incluindo as idéias sobre si própria. Mas ao fazê-
lo ocupou novo terreno; em seu próximo esforço para compreender sua própria natureza,
será obrigada a avançar ainda mais. Essa incapacidade da mente para captar sua própria
natureza é precisamente o que torna impossível a invenção de uma máquina que seja igual
a ela, deixando em paz seu herdeiro. O computador só pode ser mais uma idéia na
imaginação de seu criador. Nossa grande capacidade em fazer brincadeiras sobre
computadores, ridicularizando-os e zombando deles, surge de nossa distância intelectual
com relação a eles. Se há algo que frustra o talento dos técnicos é a potencialidade sem-fim.

Sem ideias não há informação


Do ponto de vista do empirismo doutrinário e estrito, presente no culto à informação, os
fatos falam por si. Acumule um número suficiente deles e, convenientemente, tomarão a
forma de conhecimento. Mas como reconhecer um fato quando vemos um?
Presumivelmente um fato não é uma invenção mental ou uma ilusão; é uma pequena
partícula compacta de verdade. Mas para reunir tais partículas, em primeiro lugar
precisamos saber o que procurar. Deve haver a idéia de um fato.
Os empiristas estavam certos ao acreditarem que os fatos e as idéias estavam ligados
de modo significativo, mas eles inverteram essa relação. As idéias criam informação, e não
o contrário. Todo fato surge a partir de uma idéia; é a resposta a uma questão que não
poderíamos ter formulado, se em primeiro lugar uma idéia não tivesse sido inventada; esta,
ao isolar uma porção do mundo, a torna importante, chamando nossa atenção e estimulando
a pesquisa.
Às vezes, uma idéia se torna tão lugar-comum, tão parte do consenso cultural, que
se afasta da consciência, transformando-se numa linha invisível no tecido do pensamento.

*
Artistas que, em espetáculo público, se livram de algum problema num mínimo de tempo. É o caso daqueles amarrados com
correntes sob a água. (N. T.)
Assim, questionamos e respondemos, reunindo informações sem refletir sobre a idéia
subjacente que torna isso possível. A idéia se torna tão subliminar quanto a gramática que
governa nossa língua sempre que falamos.
Vejamos um exemplo. A hora do dia ou uma data. Estes fatos estão entre os mais
simples e menos ambíguos. Podemos estar certos ou errados sobre eles, mas sabemos que
estão sujeitos a uma decisão verdadeira ou falsa estritamente direta. Ou são 2hl5 da tarde
em nosso fuso horário, ou não. Ou estamos no dia 10 de março ou não. Estas informações
estão em seu nível mais irredutível.
Detrás, porém, desses fatos tão simples, existe uma idéia imensamente rica: a idéia
de tempo como um ritmo regular e cíclico do cosmos. Em algum lugar do passado distante,
uma mente humana criou este excelente conceito, talvez a partir de uma poética
contemplação do universo portador de uma complexidade desnorteante. Essa mente
resolveu que o fluxo aparentemente informe de tempo poderia ser ordenado em círculos e
estes divididos em intervalos iguais que poderiam ser contados. A partir desse insight
imposto pela imaginação ao fluxo da experiência, inferimos o relógio, o calendário, os
minutos, os dias, os meses e as estações, que são hoje para nós simples fatos.
A maioria de nossas idéias-mestras sobre a natureza e a natureza humana, lógica e
valores, eventualmente se tornam tão subliminares que raramente refletimos sobre elas
como invenções humanas, artefatos da mente. Consideramo-las recebidas como parte de
nossa herança cultural. Vivemos muito acima dessas idéias, apenas colhendo fatos em sua
superfície. De modo análogo, os fatos históricos existem como afloramentos de insights
interpretativos ou míticos, que dão sentido e ordem à confusa memória popular do passado.
Pegamos um livro de consulta ou solicitamos acesso em um banco de dados em busca de
uma simples informação. Quando a declaração de independência foi assinada e quem a
assinou? Fatos. Mas por detrás destes fatos encontra-se um importante paradigma cultural.
Nós datamos o passado (nem todas as sociedades o fazem) porque herdamos a visão
judaico-cristã do mundo, que nos diz que o mundo foi criado no tempo e que está rumando
para algum lugar no processo histórico. Comemoramos os nomes de pessoas que “fizeram
a história” porque (entre outras coisas) herdamos a visão antropocêntrica e dinâmica do
mundo, que nos leva a acreditar que todo esforço humano é importante e que coisas valiosas
podem ser alcançadas pela ação humana.
Quando solicitamos informações históricas a respeito de questões simples, tudo isso
permanece por detrás dos fatos que recebemos como respostas. Perguntamos e respondemos
as questões encerradas dentro de idéias sobre a história que se tornaram tão familiares para
nós como o ar que respiramos. Mas, afinal, são criações humanas, cada uma passível de ser
questionada, submetida à dúvida ou alterada. Os dramáticos momentos de decisão em
cultura acontecem justamente nesse ponto — quando novas idéias se insurgem contra as
velhas e o julgamento e a escolha devem ser feitos.
O que acontece, então, quando obscurecemos a distinção entre idéias e informações
e ensinamos às crianças que o processamento de informações é a base do pensamento? Ou
quando nos empenhamos em construir uma “economia informacional” que gasta mais e
mais recursos acumulando e processando fatos? Nós enterramos ainda mais profundamente
as subestruturas das idéias em que se apoiam as informações, situando-as além das reflexões
críticas. Começamos, por exemplo, a prestar mais atenção nos “indicadores econômicos”
— que são sempre números simples e convenientes, do que nas asserções sobre trabalho,
riqueza e bem-estar que fundamentam a política econômica. Na verdade, nossa ciência
econômica ortodoxa está na superfície de uma inundação de invenções estatísticas, que
servem principalmente para ofuscar as questões fundamentais sobre valores, objetivos e
justiça. Qual a contribuição do computador com relação a tal situação? Aumentou o nível
da inundação, derramando informações enganosas e perturbadoras a partir de todas as
agências governamentais e diretorias de corporações. Mas o que há ainda de mais irônico,
esta fixação na informação, que o computador tanto encoraja, deverá ter o efeito de sufocar
novas idéias, que são a fonte intelectual que gera fatos.
Afinal de contas, sem idéias não há informação.
6. O computador e a razão pura

A luz na caverna de Platão


Concentramo-nos até aqui na capacidade do computador de armazenar e recuperar uma
quantidade aparentemente ilimitada de dados. Esse é um dos poderes mais impressionantes
e vantajosos da máquina; é o traço mais marcante na mente daqueles que saúdam o advento
da Era da Informação. Eles enfatizam a capacidade do computador de ter acesso a bancos
de dados, que existem já aos milhares, e de canalizar esse rico material para as residências
e os locais de trabalho.
Ao falarmos, porém, do computador como “um processador de dados”, não devemos
esquecer que essas duas palavras se referem a duas funções distintas, as quais aparecem
associadas na máquina. O computador armazena dados, mas também tem a capacidade de
processá-los — ou seja, ele pode manipular os dados de várias formas com a finalidade de
elaborar comparações, contrastes, classificação e dedução. Os dados podem ser números
que são calculados através de procedimentos matemáticos ou podem ser nomes, endereços,
registros médicos, arquivos de pessoal, instruções técnicas também processadas por um
programa a ser escolhido, ordenado, filtrado ou colocado numa determinada seqüência.
Assim, quando solicitamos ao computador que reúna informações para um determinado
negócio ele recorre a todos os dados necessários e à sua disposição (inventário, despesas
gerais, ganhos, desempenho periódico, etc.), mas também adapta os dados de acordo com
as instruções do programa. Até uma simples lista de endereços pode ser organizada no
banco de dados, correspondendo a um determinado programa, por exemplo, segundo uma
separação por códigos postais, a fim de ordená-los para a remessa de assinatura de uma
revista ou para a verificação de crédito, origem étnica, idade, etc.
Essas duas operações se tornaram de tal forma integradas ao funcionamento da
maioria dos computadores que já deixaram de ser consideradas como funções distintas.
Contudo, cada uma delas deve ser avaliada em separado. Armazenar dados relaciona-se, no
computador, à tarefa de conservar registros, remontando ao livro-razão, aos fichários e
arquivos, os quais vêm sendo atualmente substituídos pelos bancos de dados eletrônicos.
Nesse sentido, o computador imita a faculdade da memória. O processamento de dados, por
outro lado, representa um outro tipo de evolução tecnológica. Neste caso, o computador
remonta à época da máquina de somar, imitando o poder da razão humana. Para muitos
entusiastas do computador, esta segunda linha de desenvolvimento encarna o verdadeiro
significado da máquina, pois valoriza sua capacidade de efetuar longos procedimentos
lógico-matemáticos com uma altíssima velocidade e absoluta precisão. Para eles, trata-se
da afinidade mais próxima entre o computador e a mente humana.
No capítulo 4, falamos a respeito do curriculum de LOGO, de Seymor Papert.
LOGO é o exemplo de aplicação do computador que tem muito pouca relação com dados.
Segundo Papert, seu valor está na capacidade de ensinar e desenvolver o “raciocínio
processivo” e de disciplinar as faculdades racionais de uma forma que um matemático
valorizaria. Papert acredita que as crianças deveriam ser ensinadas a “pensar como um
computador”, pois para ele essas máquinas têm, de alguma forma, a capacidade de pensar
como seres humanos, auxiliando as crianças a desenvolver suas habilidades mentais.
Tenho argumentado que aqueles que exaltam o computador como armazenador de
dados e provedor de informações tendem a subestimar e até ignorar o valor das idéias,
afirmando como muitos empiristas ortodoxos que a informação, de alguma forma, é
acumulada automaticamente dentro do conhecimento, sem a intervenção ativa da
imaginação teórica. Contudo, essa segunda linha de evolução tecnológica que flui no
computador — e que tem relação com o pensamento processivo — deriva de uma tradição
filosófica distinta, a qual está intimamente ligada ao poder da razão pura. Baseado nessa
linha racionalista de evolução, o computador lança mão de uma série de idéias que provaram
ser convincentes e duradouras, ainda que não tenha ligação com quaisquer dados ou
qualquer tipo de experiência humana. Trata-se de idéias matemáticas, idéias descobertas à
luz da própria razão, forjadas unicamente pela estrutura lógica da mente.
Na história da filosofia é ainda a matemática que tem sido utilizada e reutilizada
como um exemplo do conhecimento a priori, o qual supostamente não tem nenhuma ligação
com a experiência sensível, com os dados da observação e medição. Segundo observou
Bertrand Russel:
A matemática é... a fonte principal da crença no eterno e na verdade exata,
perfeita, assim como num mundo inteligível suprassensível. A geometria trata
de círculos perfeitos, mas nenhum objeto sensível é perfeitamente circular;
ainda que utilizemos cuidadosamente nosso compasso, haverá algumas
imperfeições e irregularidades. Isso sugere que a noção de que todo
pensamento exato, aplicado ao ideal, se opõe aos objetos sensíveis; é natural
que se vá além e que se argumente que o pensamento é mais nobre do que o
sentimento, e que os objetos do pensamento são mais reais do que as
percepções sensíveis.1
A formulação clássica dessa idéia a respeito das idéias matemáticas é de Platão, para
quem a geometria servia como modelo de todo conhecimento confiável. Platão afirmava
que as idéias geométricas nascem na mente como nossa fonte única de conhecimento. A
solidez da matemática é o nosso único guia no meio da escuridão e da confusão da vida. Na
sua famosa alegoria da caverna, Platão retrata a raça humana como uma população de
míseros escravos confinados em sua mortalidade física no interior de uma gruta tenebrosa,
onde só conseguem vislumbrar uma exibição embaraçada de sombras animadas; não
conhecem nada que não seja efêmero e ilusório. Na sua prisão esquálida, há apenas um
tênue vislumbre da claridade do sol. Somente o verdadeiro filósofo pode discerni-lo; é o
poder da razão pura que nos dá, especialmente na forma da matemática, o conhecimento
das verdades eternas, as formas puras que transcendem o fluxo do tempo e a fragilidade da
carne.
Através dos séculos, de maneiras diversas, os filósofos têm discordado da teoria do
conhecimento de Platão e da mística que ela empresta à matemática. Contudo, apesar de
todas as críticas, permanece uma qualidade persistente das idéias matemáticas, a crença na
certeza dos números e na lógica matemática que chega à ciência moderna e que sobrevive
nas teorias da cibernética e da informação. O misticismo de Platão pode ter sido banido

1
Bertrand Russel, A History of Western Philosophy, Nova Iorque, Clarion Books, 1945, p. 37.
dessas novas ciências, mas o espírito da certeza geométrica permanece. Assim, muito
ironicamente, o grande poder da máquina que traz o culto à informação está baseado num
corpo de idéias — idéias matemáticas — que não têm nenhuma relação com a informação,
e que podem concebivelmente ser vistas como a melhor prova que temos a oferecer da
primazia das idéias.
À medida que o computador se tornou mais “esperto” (isto é, mais rápido, mais
capacitado, mais intrincado em sua programação), nas últimas duas décadas, os cientistas
de computação têm freqüentemente mostrado um certo desassossego a respeito do nome
dessa máquina. Como a maioria dos livros recentes sobre a ciência da computação se
apressa a mostrar a seus alunos logo no primeiro capítulo, o computador não é mais
meramente um instrumento de computação; ele já transcendeu esse nível de origem para se
tornar uma forma de inteligência artificial no sentido amplo. Desta forma, Margaret Boden
observa:
É fundamental perceber que o computador não é um mero mastigador de
números ou uma supermáquina de cálculos aritméticos, embora essa seja a
maneira como normalmente o computador é visto por pessoas que não têm
familiaridade com essa inteligência artificial. O computador não é um
mastigador de números, ele manipula símbolos... Computadores digitais
originalmente desenvolvidos para solucionarem problemas matemáticos são,
na verdade, máquinas manipuladoras de símbolos para fins genéricos...
Os termos “computador” e “computação” são infelizes, em vista de sua
conotação aritmética enganadora. A definição de inteligência artificial citada
anteriormente — “o estudo da inteligência como computação” — não implica
que a inteligência seja realmente uma operação de contagem. A inteligência
pode ser definida como a habilidade de manipular símbolos de forma criativa
ou processar informações, desde que estabelecidos os requisitos para que a
tarefa seja realizada.2
É indubitável que o computador está bem distante de sua origem, quando ainda era
uma máquina de calcular. Mas também é verdade que, num sentido mais amplo, a reputação
que a ciência do computador e as formas computadorizadas da “inteligência” adquiriram na
nossa cultura popular deve muito à antiga era mística da matemática. Na medida em que os
cientistas da computação acreditam que o computador é uma “máquina que pensa” e que
algum dia pensará melhor do que o homem, é porque existe uma conexão histórica com
aquilo que os cientistas e técnicos sempre pensaram ser a mais clara e a mais produtiva
forma de pensamento: a matemática. A esperança de muitos entusiastas no computador é
precisamente de que, no futuro, ele produzirá uma forma de inteligência que levará a
exatidão da matemática a vários outros campos da cultura. O repertório de símbolos do
computador não se limitará mais a números; todavia permanece a esperança na capacidade
de seus mais sofisticados programas em manipular símbolos com o rigor lógico do
pensamento matemático. Fritz Machlup observa que o termo computação adquiriu um
sentido muito amplo, abrangendo quaisquer operações que o computador realiza enquanto
manipulador de símbolos. Quando, por exemplo, um cientista da área cognitiva fala dos
programas de inteligência artificial e o público “lê uma sentença ou oração no sentido de

2
Boden, Artificial Intelligence and Natural Man, pp. 15,16-17.
que ‘processos mentais são processos computacionais’, provavelmente pensará que se trata
de processos de computação numérica — o que é um engano”.3
É exatamente esse tipo de erro, contudo, que acentua o prestígio do computador,
fazendo com que se acredite que qualquer coisa processada pelo computador adquire assim
a certeza indestrutível da matemática pura. Ainda que sintam vergonha ao verem seus
nomes associados ao misticismo de Platão, muitos oportunistas em ciência da computação
e especialmente da inteligência artificial têm explorado esse erro, como se nota na mente
confusa do público.
É curioso, porém, como às vezes, e da forma mais imprevisível, algo do antigo
espírito platônico emerge no universo da ciência da computação. Platão estava convencido
de que é a corrupção da carne que nos separa das formas mais altas de conhecimento. Por
esse motivo recomendava o estudo da geometria como uma espécie de purgação dos
sentidos que elevaria a mente acima da mortalidade do corpo. Podemos notar exatamente a
mesma aliança entre o ascético e o matemático no seguinte trecho do estudo de Robert
Jastrow sobre a “mente no universo”:
Quando as ciências do intelecto alcançarem esse ponto, um cientista audaz será
capaz de retirar o conteúdo de sua mente e de transferi-lo para o interior de
pequenas treliças metálicas do computador. Se a mente é a essência do ser,
pode-se dizer que esse cientista adentrou o computador e que esse é o lugar
onde ele habita.
Finalmente, abrigado no interior do computador, o cérebro humano se libertou
da fragilidade da carne efêmera... Tem o controle de seu próprio destino. A
máquina é o seu corpo; é a mente da máquina... Parece-me que esta deve ser a
forma madura da vida inteligente no universo. Resguardada em pequenas
treliças indestrutíveis de silício e finalmente liberta do ciclo biológico
(vida/morte) característico dos organismos vivos, esse tipo de vida poderia ser
eterno.4
Jastrow imagina que, em sua forma desencarnada, o computador nos transformará
em “uma raça de imortais”.

A antiga mágica da matemática


O modelo matemático da certeza absoluta é uma das esperanças imortais de nossa espécie.
Por mais inflexível que possa ser a maioria dos cientistas (ou gostaria de aparentar) com
referência a sua visão sobre a antiga mágica da matemática, o sonho platônico sobrevive,
particularmente no campo do culto à informação. Os dados — a velocidade e quantidade de
seu processamento — são talvez o aspecto mais enfatizado pelo culto ao celebrar o
computador. No entanto, tão importante quanto os dados é a precisão matemática com a
qual os programas de computador manipulam a informação a eles fornecida. Isto é o que os
cientistas da computação chamam de procedimento efetivo. Sabemos que um computador

3
Machlup e Mansfield, The Study of Information, p. 671.
4
Robert Jastrow, The Enchanted Loom: Mitid in The Universe, Nova Iorque, Simon & Schuster, 1984, pp. 166-167.
pode realizar qualquer coisa para um determinado (e dado) “procedimento efetivo”. A frase
significa “um conjunto de regras (o programa) especificando, de formas a não causar
ambigüidades, certos processos, os quais podem ser realizados por uma máquina construída
de tal forma a aceitar aquelas regras como instruções que determinam suas operações”.5 A
busca de um tal procedimento seria pura extravagância se não fosse o fato de existir um
campo de pensamento que nos ofereça o modelo de uma lógica rigorosa: a matemática,
campo que produziu o computador em primeiro lugar. O computador funciona em sua plena
capacidade quando limitado ao âmbito daquilo que pode ser tratado com tal rigor lógico.
Todavia, quanto mais nos afastamos desse âmbito, mais rapidamente o seu poder
enfraquece.
Infelizmente, nem todos os cientistas da computação estão dispostos a reconhecer
esse aspecto. Eles esquecem — e fazem o público esquecer — que as idéias matemáticas
são de uma espécie peculiar. São idéias formais, isto é, são construídas através de axiomas
por meio de regras específicas muito precisas. Podem ser divididas em partes (análise), as
quais são basicamente princípios lógicos e postulados que podem ser manipulados
mecanicamente. O valor das idéias matemáticas repousa precisamente em sua clareza
analítica e em ausência de ambigüidade. Dentro de seu campo apropriado de aplicação,
possuem o poder de conferir uma transparência lógica; elas afastam a ambigüidade para
revelar a estrutura esquelética que une as partes, etapas e procedimentos. Elas podem ser
programadas. É por esse motivo que, através de um espantoso exercício da imaginação
humana, os sistemas matemáticos têm sido desenvolvidos fora do âmbito real da
experiência cotidiana, a qual freqüentemente se apresenta de forma turva, obscura e
infinitamente complexa.
Uma vez que há áreas do mundo real que parecem se relacionar com uma ordem
formal, há partes da matemática que podem ser aplicadas a esse mundo para isolar aqueles
seus elementos mais mensuráveis e que estão sujeitos a regras. Onde isso acontece,
encontramos o reino da ciência teórica e aplicada. Da mesma forma, aqui os computadores
podem ser altamente vantajosos para canalizar uma grande quantidade de informação
através de programas científicos e técnicos. Mas, mesmo nesse caso, devemos ter em mente
que há idéias fundamentais de tipo não matemático (podemos chamá-las de insights ou,
talvez, de artigos de fé) que governam todo o pensamento científico. Considere-se nossa
convicção inicial de que existe uma ordem racional na natureza, um modelo que pode ser
compreendido pela mente humana. Essa é a mais fundamental de todas ás idéias científicas.
Mas em que ela se baseia? Trata-se de um pressentimento ou uma esperança desesperada
provocada talvez por uma frágil percepção de simetria e da regularidade da natureza, a qual
apresenta ritmos e ciclos — sendo que todos estão em contínua dissolução no interior da
esfera confusa do cotidiano. Porém, tomando-se essa idéia como uma espécie de filtro,
separamos as exceções e obstáculos e encontramos regularidades mais profundas que
começam a parecer uma ordem de coisas. Mas que espécie de ordem? Nossa ciência optou
por uma ordem de números. Trabalhamos a partir da poderosa idéia de Galileu de que “o
grande livro da natureza está escrito em linguagem matemática”. Contudo, poderíamos ter
escolhido um outro tipo de ordem. Há a ordem da música (o astrônomo Kepler passou a
maior parte da vida pesquisando a harmonia das esferas); há a ordem da arquitetura e do
teatro; a ordem de uma estória (um mito) contada repetidamente; há a ordem da conduta

5
Boden, Artificial Intelligence and Natural Man, pp. 6-7.
divina, baseada na qual ficamos atentos a recompensas e ao castigo, à ira e à misericórdia.
Qual é a ordem mais importante? Fazer uma escolha é também uma idéia a ser selecionada
a partir de todas as possibilidades.
Quase toda a ciência moderna foi desenvolvida a partir de uma série de idéias
metafísicas e estéticas como:
O universo consiste de matéria em movimento. (Descartes)
A natureza é governada por leis universais. (Newton)
Conhecimento é poder. (Bacon)
Nenhuma dessas idéias é uma conclusão adquirida através de pesquisas científicas;
nenhuma delas é o resultado de processamento de informações. Pelo contrário, são
premissas que tornam possível a pesquisa científica e conduzem à descoberta de dados
seguros. Novamente, são ideias-mestras sobre o mundo, e, enquanto tais, transcendem a
informação. Elas emergem de uma outra dimensão da mente, de uma capacidade para
insights que talvez tenha afinidade com o poder artístico e inspiração religiosa.
Não se pode duvidar que na área das idéias científicas e matemáticas o computador
suplementa consideravelmente a mente. Ele é capaz de realizar cálculos numa velocidade
bastante elevada; pode fazer projeções hipotéticas; pode surpreendentemente oferecer
representações gráficas flexíveis; é capaz de produzir simulações complexas que expandem
a imaginação. Esse já é um ótimo desempenho para uma máquina. Entretanto, pode
acontecer que, mesmo nas ciências, a competência do computador como um processador
de informações tenha suas imperfeições. Pelo menos um cientista de renome trouxe à tona
uma advertência desafiante sobre o uso de computadores no campo da astronomia. Sir
Bernard Lovell afirma:
Temo que a pesquisa computadorizada sem imaginação e de enfoque restrito
prove ser antitética no que se relaciona ao livre exercício da faculdade
conhecida como serendipity.* Teria a existência de rádio-galáxias, quasars,
pulsares e efeitos de micro-ondas, sido revelada se a sua descoberta tivesse
dependido das rádio-observações computadorizadas? O computador atua
como um estreitíssimo filtro de informação; ele precisa ser orientado para
observações específicas. Em outros termos, ele deve ser programado para o
tipo de resultado esperado pelo observador. Isso significa então que os
computadores são antiserendipitious? Se assim for, não deveríamos estar
preocupados com a possibilidade de estarem impedindo que avance nossa
compreensão das principais características e feições do universo?6

As seduções do software
Existe uma resposta previsível para o argumento discutido até aqui. Gostaria de insistir que
o computador também pode ser programado com idéias não matemáticas. De fato, isso
acontece o tempo todo. Pois um “programa” não é mais que um algoritmo, um conjunto de

*
Faculdade de se fazer descobertas geniais de forma acidental e inesperada. (N. T.)
6
Science Digest, jun. 1984, p. 94.
instruções que organizam informações com algum objetivo. As idéias que animam um
programa podem ser muito óbvias, como no caso do programa que efetua o orçamento de
uma família que opera a partir do pressuposto de que a ruína é indesejável e deve, portanto,
ser evitada. (O programa pode, inclusive, acentuar a advertência com o auxílio de um
comando bem marcado ou de um sinal de piscar). Ou a idéia pode ser tão simples quanto o
alvo de um video game em que se estabelece que o senhor Pacman deve matar sem se deixar
ser morto.
Muitos programas são bem mais complexos. São pacotes integrados de
gerenciamento e administração que pretendem realizar o trabalho de toda uma equipe e,
talvez, de um vice-presidente ou dois. Há jogos de computador que são terrivelmente
complicados, ao ponto de exigir tanto intuição quanto cálculo — o que significa que as
complexidades da estratégia ultrapassam a análise lógica. A questão é que, no universo da
ciência e da computação, tanto as idéias que governam o programa, quanto os dados que
são nele inseridos, acabaram sendo incluídos no conceito de “informação”. O culto à
informação, ao associar o programa e os dados num mesmo território, ganhou terreno com
relação a sua mística. Mas esta confusão pode tornar-se desastrosa. Pois seria o mesmo que
dizer que não há diferença entre, de um lado, o projeto arquitetônico de um edifício (a
planta) e, de outro, os cálculos dos inúmeros materiais necessários para a construção deste
edifício. Os materiais e seus cálculos abrangem uma vasta série de informações detalhadas
que podem (com vantagens) ser inseridas em um computador, juntamente com diretrizes de
referências e, em seguida, chamadas para conferência com apenas o apertar de uma tecla.
Mas é o projeto do edifício que dá forma e significado a esse caos de quantidades e números.
Esta seria a resposta à questão: afinal, do que trata essa informação? É também o projeto,
que nos permite colocar questões ainda mais essenciais que os dados da memória do
computador não são capazes de resolver. Será que a construção de tal estrutura deve ser
encarada como prioridade? Será que ela tem uma relação razoável com o terreno, sua
vizinhança e seu meio ambiente? Ela é bela? É prática? Dará resultado? Fará com que nos
sintamos orgulhosos? Será que nos sentiremos confortáveis? Ela tem calor, nobreza,
obedece à escala humana e tem noção de seu tempo e espaço, para que acolha bem aqueles
que nela irão morar e trabalhar?
Podemos discutir o projeto visando todos esses aspectos sem nos referirmos a
quaisquer medidas ou cálculos de materiais (mesmo a verdadeira noção de “escala humana”
nem sempre precisa ser uma questão de tamanho, mas geralmente das particularidades do
ambiente). Deste modo, estamos falando da ideia do edifício, assim como a tínhamos em
mente ou, talvez, como exista num simples rabisco ou pedaço de papel. Atualmente o
rabisco pode ser efetuado por um arquiteto com um estilete eletrônico em uma tela de vídeo,
mas a diferença persiste: a idéia aparece primeiro, a idéia contém os dados, a idéia governa
os dados.
Uma vez que refletimos a respeito do assunto, fazendo nossa crítica, não podemos
deixar de notar que os dados e o programa que os processa estão em níveis diferentes, um
se subordinando ao outro. Por que, então, ambos acabaram sendo denominados
“informação”? Em parte, isso pode ter relação com o fato de que tudo aquilo que alimenta
o computador é instantaneamente traduzido em números binários. Os números se tornam
bits, as letras das palavras transformam-se em pacotes de bits, chamados bytes. O código
binário, então, passa a ser visto como uma “linguagem” ampla que homogeneiza tudo o que
expressa. Em algumas universidades, os sistemas utilizados para auxiliar os tradutores
(BASIC, PASCAL, LISP, etc.), metaforicamente mencionados como “linguagens de
programação”, podem ser agora substituídos pelo estudo de francês, alemão, russo... o mais
rápido para tornar os estudantes hábeis em computação [Computer literate]. É claro que
essas não são, de forma alguma, linguagens; são sistemas de codificação. Mas, no
metabolismo eletrônico do computador, o onívoro bit devora tudo — números, palavras,
formas geométricas, gráficos, música — em extensas seqüências de 0 e 1. Isso não cancela,
então, a diferença entre os dados e a idéia? Conforme ouvi certa vez de um especialista em
computação, informação é tudo que pode ser introduzido na máquina sob a forma de off/on,
sim/não.
Bem, se houvesse algo como um transistor consciente, esta poderia ser a estranha
forma pela qual esta entidade singular veria o mundo: como uma coleção infinita de 0 e 1.
Mas o fato de um transistor não ser capaz de diferenciar bits que são dados de bits que são
idéias, não significa que nós possamos ignorar essa distinção fundamental. Se assim
fizermos, estaremos correndo o risco de submeter nossa inteligência ao controle dos
programas que cada vez mais governam nossas vidas. Cada software tem um certo
repertório de suposições, valores e limitações básicos nele embutidos. Em nenhum dos
significados da palavra estão essas “informações”. Por mais toscas que possam parecer, são
idéias sobre o mundo e, como todas as idéias, devem ser claramente expostas à crítica.
No início de 1985, um cronista financeiro realizou uma experiência que envolveu
quatro dos mais conhecidos programas de planejamento financeiro. Imaginou uma família
hipotética de classe média. Seus recursos financeiros, necessidades, projetos e preferências
foram registrados no programa. O resultado consistiu em quatro séries de recomendações
completamente diversas, propondo opções como investimentos, economias, liquidez,
seguro, aposentadoria.7 Por quê? Ora, as informações de cada projeto foram programadas a
partir de diferentes suposições, fato que não havia sido notado por nenhum dos serviços
mencionados. Para o usuário parecia apenas ser uma questão de introduzir informações
financeiras pessoais e obter um resultado com a aparência de absoluta autoridade.
Essa ilusão de certeza matemática se torna especialmente acentuada na obsessão
usual com os spreadsheets* na comunidade dos negócios. Desde que, no final dos anos 70,
o primeiro software que utilizava spreadsheets foi divulgado por David Bricklin, da
Harvard Business School, essa forma de contabilidade computadorizada se tornou o que
Steven Levy chama de “culto virtual” entre os empresários.8 Caracterizando-se como uma
forma de modelar e projetar decisões financeiras, o spreadsheet, como todos os programas,
é construído segundo uma matriz fundamental de suposições. Algumas são idéias sobre
pessoas, seus gostos e motivações; algumas são juízos de valor que estabelecem prioridades.
Todas requerem algum tipo de ponderação numérica, talvez de forma tosca ou superficial.
Assim, mesmo no mundo dos negócios há questões imponderáveis como a boa vontade, o
moral, a satisfação com a empresa, a conduta moral; todos esses fatores exigem atenção, e
já que resistem à quantificação, não podem ser incluídos no programa de spreadsheet. O
equívoco causado pelo spreadsheet é que sua aparência de organização matemática, sua
lógica rigorosa e sua profusão de números podem tornar seu usuário cego em relação à não

7
Jane Bryant Quinn na seção financeira do San Francisco Chronicle. 14.5.1985.
*
Folha de lançamentos de dados; formulário preenchido com uma série de dados utilizados como inputs de programas a serem
rodados no computador. (N.T.)
8
Steven Levy, “A Spreadsheet Way of Knowledge”, Harper’s, nov. 1984.
verificação das idéias e omissões que governam os cálculos. Como observa Levy, “em
função da aparência autoritária da spreadsheet — e ela foi feita por um computador, não
foi? — o modelo hipotético acaba sendo aceito como se fosse evangelho”. Trata-se
novamente de um exemplo de mistificação da matemática que obscurece a avaliação crítica
do programa.
Não é preciso prolongar o assunto, pois mesmo os simples video games usados por
nossos filhos trazem à tona algumas idéias questionáveis. Esses jogos são claramente
dominados por uma competição cruel e uma destruição intencional. O que importa é vencer,
o que conta é matar. Muitos desses jogos são altamente preconceituosos, elaborando
imagens machistas e estereotipadas que atraem os garotos adolescentes — a maior clientela
entre o público de vídeo. Em contraste, uma firma que lançou uma série com o nome de
“Jogos de Computador para Garotas”, inseriu no software idéias convencionais de
feminilidade, tais como evitar brigas violentas com derramamento de sangue, incentivar a
cooperação, reservar tempo para a limpeza e colher flores. As garotas jogam na qualidade
de parceiras, não de adversárias, e seus jogos exigem pouca coordenação visual e manual.9
É louvável que a firma tenha incluído em seu mercado o público feminino, mas seus jogos
também lidam com preconceitos e estereótipos sexuais.
Em uma sensata crítica aos jogos de video game, Ariel Dorfman conclui que a maior
parte deles é baseada em premissas e objetivos que contribuem para a formação de uma
“psique entorpecida”.
Aqueles que jogam vídeo games e deixam sua sensibilidade e ética de lado
enquanto brincam com a exterminação fictícia na tela iluminada de vídeo,
militarizando seu tempo livre, se comportarão da mesma maneira na mesma
sociedade que contempla assassinato em massa como inevitável, cadáveres
como estatística, quarenta milhões de mortos como vitória.10
Talvez a maioria dos jogos infantis criados até hoje tenham girado em torno de
prazéres violentos, especialmente aqueles para os garotos cuja concepção de virilidade
ainda está tristemente constituída. Mas, com certeza, o computador com seus gráficos
hipnóticos e suas respostas rápidas em forma de flashes (um inimigo pode ser
magistralmente destruído com um simples apertar de uma tecla) faz com que o fraco reflexo
das glândulas pubescentes se torne mais excitante e, portanto, mais sedutor.
É apenas quando nos deparamos com uma distinção clara entre idéia e informação
que reconhecemos que estes são níveis de discurso radicalmente distintos, exigindo também
níveis diversos de avaliação. Na maioria dos casos, temos a possibilidade de chegar aos
dados que emergem do programa como “certos” ou “errados”, uma questão que conduz aos
métodos padronizados de pesquisa. Mas, as idéias que governam os dados, não são
informações; nem são temas sacrossantos da lógica matemática. São compromissos
filosóficos, produtos da experiência, insights, convicções metafísicas, que devem ser
avaliados como sábios ou não, infantis ou maduros, realistas ou fantásticos, morais ou
corrompidos. Este projeto crítico abrange toda a gama dos softwares para computadores,
desde os jogos de vídeo em que se dá a aniquilação fantasiosa das galáxias sob o poder do
toque da criança, até a máquina de guerra computadorizada que permite a escolha do

9
Ver a coluna “The Apple Connection” em Bay Area Computer Currents, 20.11 — 3.12.1984, p. 29.
10
Ariel Dorfman, “Evil Otto and Other Nuclear Disasters”, Village Voice, 15.6.1982.
genocídio por nossos presidentes e generais. Pesar esses fatores numa escala crítica exige
uma educação que a habilidade computacional padronizada nunca possibilitará.
Uma vez que a tecnologia da informação está ao nosso alcance, seus usuários
reconheceram o princípio do GIGO; garbage in — garbage out [lixo dentro — lixo fora].
O computador nada pode fazer senão aquilo que a inteligência humana selecionou no que
se refere à qualidade da informação que será por ele processada. Mas esse princípio deve
abranger outros níveis. O rigor matemático do computador pode levar alguns a se
equivocarem ao interpretarem GIGO como sendo o que Ashley Montague traduziu por:
garbage in — gospel out [lixo dentro — evangelho fora]. Necessitamos de outro princípio
que nos conscientize das falhas que podem constar dos programas e que estão à espera de
informações. Mesmo quando os dados são bem selecionados, podem ser emboscados pelo
“lixo intelectual” ou por qualquer outra determinação oculta nas profundezas do programa.

Uma inteligência alienígena


“Independentemente de quanta inteligência os computadores
venham a atingir, agora ou no futuro, ela será sempre uma
inteligência alienígena com relação aos problemas e
preocupações humanos genuínos”.
Joseph Weizenbaum11

A genialidade da ciência da computação está na sua notável capacidade de elaborar


programas extremamente complexos a partir de estruturas muito primitivas. Não são muitos
os usuários que observam que, em última análise, tudo o que a máquina faz deriva da
manipulação rápida de algumas relações lógicas fundamentais, como as que são expressas
pelas palavras e, ou, ambos, nenhum, implica. Um programa de computador produz muito
pouco além daquilo que pode ser rastreado em algumas regras simples, como:
Isto é igual a aquilo; reúna-os.
Isto não é igual a aquilo; coloque isto em outro lugar.
Se isto é desta forma, então aquilo é daquela; prossiga.
Se isto é assim, então aquilo não é; elimine aquilo.
Ou isto ou aquilo; escolha.
E assim por diante.
Este é o tipo de regra de escolha entre duas alternativas que são facilmente
conversíveis para a notação zero/um dos números binários para se movimentarem sem
problemas através dos canais on/off dos transistores elétricos. Assim, obtemos um
sanduíche: procedimentos efetivos (a idéia do programa) baseados na aritmética binária, e
baseados no movimento físico stop/go (para/recomeça) dos elétrons nos semicondutores.
Essa é uma inter-relação intrigante que conecta operações humanamente úteis com um
substrato invisível de fenômenos físicos não humanos. Quando as regras de programação

11
Weizenbaum, Computer Power and Human Reason, p. 213.
que governam essa inter-relação estão densamente empacotadas em longas seqüências e se
movimentam em uma elevada velocidade, o que faz o computador não pode ser considerado
como algo simples. Especialmente quando se inseriu no programa o cálculo de
probabilidades, prioridades e ponderações, pode dar a impressão de uma pequenina e astuta
inteligência trabalhando, deliberando, escolhendo, decidindo. Contudo, seus inventores
sabem que ela opera através de regras matemáticas e de leis físicas estritas. Compreende-
se, então, por que alguns cientistas da computação se perguntam o quanto esses
procedimentos poderiam se estender ao âmbito do intelecto. Quantas faculdades da mente
humana — intuição, criatividade, juízo — poderiam ser simuladas pelo processamento de
dados através do tipo de processos formais que caracterizam o pensamento matemático?
O estudo chamado inteligência artificial (IA) representa essa procura: encontrar
formas de programar tantas maneiras de pensamento quantas forem possíveis, para que um
computador possa simulá-las. Trata-se de um desafio que gerou programas muito mais
sofisticados do que seus críticos poderiam ter previsto há dez ou vinte anos atrás, quando o
campo estava apenas sendo introduzido nas universidades. Entre suas realizações bastante
apregoadas estão os inúmeros “sistemas especializados”, que podem servir como
instrumentos valiosos para médicos, geólogos, químicos e geneticistas. Esses sistemas são
basicamente programas que indicam como os especialistas em certas áreas poderiam
desenvolver o seu trabalho para solucionar problemas. Por exemplo, um médico poderia
introduzir no computador um conjunto de sintomas que poderiam ser classificados,
sugerindo um diagnóstico com o qual muitos especialistas concordariam. A lógica da
questão é simples: os especialistas chegam a certas conclusões a respeito de seus pacientes,
de acordo com os sintomas encontrados. Evidentemente, eles também poderão fazer uso de
sua intuição, levando em consideração o aspecto geral do paciente — a má postura, o olhar
vidrado, as bochechas pálidas — características de difícil inserção no programa. Ou os
especialistas, enquanto especialistas, deixam de observar particularidades vitais que não
fazem parte de seu campo de ação. É duvidoso que mesmo um sistema engenhoso como
esse possa funcionar, exceto como elemento auxiliar, para os médicos que, em última
instância, têm de confiar em seu próprio julgamento — até o ponto de arcar com as
conseqüências últimas de uma prática irresponsável.
Por mais notáveis que sejam esses progressos, a IA ainda deixa a desejar quanto às
promessas enunciadas pelos seus entusiastas desde o início dos estudos na década de 50.
Como vimos, a IA tem sido particularmente caracterizada como extravagante, o que é
freqüentemente reiterado pela propaganda, sendo que as autoridades da área contribuem
tanto para o aspecto folclórico do computador quanto os publicitários, prometendo
máquinas que traduzem, entendem discursos, processam imagens visuais, tomam decisões
legais, políticas e financeiras e, em geral, suplantam a inteligência humana em todos os
campos. Assim, em 1959, Herbert Simon e Allen Newell previram que “num futuro muito
próximo”, sua pesquisa produziria computadores cujo poder de resolução de problemas
seria “tão amplo quanto o da mente humana”.12 Marvin Minsky contundentemente vai mais
além:
Num período de três a oito anos, teremos uma máquina com a inteligência geral
de um ser humano mediano, ou seja, capaz de ler Shakespeare, engraxar um

12
Idem, ibidem, p. 138.
carro, fazer política de gabinete, contar piadas, brigar. Nesse estágio, a
máquina começaria a se educar a uma velocidade espantosa. Em poucos meses
ela teria o nível de um gênio e, alguns meses depois, um poder incalculável.13
Essa previsão foi feita em 1970. Mesmo os colegas de Minsky do laboratório de
inteligência artificial do MIT acharam-na extravagante. Mais cautelosos, eles previram que
tais resultados levariam pelo menos mais quinze anos. Na época, pensaram que Minsky
estava provavelmente certo ao acreditar que o computador ocuparia uma posição de “nos
ter como animais de estimação”.
A razão dessa autopropaganda consciente não é difícil de ser identificada. Há muito
dinheiro em jogo. Comparada às ciências mais recentes do conhecimento, a IA se tornou
um dos campos da pesquisa acadêmica de maior investimento nas últimas duas décadas.
Sua imagem pública e seu destino flutuaram incrivelmente nesse período, depèndendo do
sucesso de séus esforços; mas atualmente tem fortes ligações com a indústria militar e não
é bem vista pelo público em geral. Tornou-se a grande esperança da indústria de
computadores ao tentar produzir uma nova geração de mercadorias mais sofisticadas — a
assim chamada quinta geração. A IA tem sido considerada em função de seus
empreendimentos, que poderão levá-la à criação de máquinas superinteligentes para cada
estágio de vida, desde geladeiras falantes até campos de batalha automatizados. Alguns
observadores estimam que em meados da década de 90, a IA será o centro de um mercado
de 50 bilhões de dólares por ano, se todas as invenções prometidas forem concretizadas. De
acordo com o comentário de Michael Bywater (publicado no London Observer, em
novembro de 1985), a “inteligência artificial é uma expressão de duas palavras que faz os
funcionários do Departamento de Defesa dos EUA salivarem quando a ouvem”.
A IA e a ciência cognitiva têm atuado oportunisticamente nessa nova onda de
investimentos especulativos, associando seus interesses profissionais a superempresas que
auxiliam no financiamento de suas pesquisas. Importantes corporações como a IBM, a
Digital Equipment e a Data General, juntamente com a DARPA-Pentagon’s Defense
Applied Research Projects Agency [Agência de Projetos de Pesquisa Aplicada da Defesa
do Pentágono] têm feito contratos lucrativos com as mais importantes universidades para
estimular as pesquisas necessárias. Esse desenvolvimento não deixou de sofrer críticas entre
os profissionais da computação. Alguns temem que o dinheiro da indústria militar venha a
distorcer as prioridades das pesquisas; outros se preocupam (tardiamente) com as
implicações éticas que surgem da aliança entre a tecnologia da informação e o Pentágono.
Mais fundamentalmente ainda, há aqueles que acusam a IA de ter sido comercializada a
ponto de esbarrar na fraude. O campo não é capaz de produzir aquilo que anuncia em suas
propagandas. Esse desafio foi levantado em 1984 por Lewis M. Branscomb, da IBM, no
encontro da Association for Computing Machinery, que observou, a respeito da IA: “as
afirmações extravagantes dos últimos anos se tornaram fontes de preocupação para muitos
de nós que vimos excessivas reivindicações de pesquisadores em outros campos, criando
expectativas imoderadas entre o público”.
Esse aspecto foi levantado muito mais contundentemente por Herbert Grosch,
também outrora da IBM:

13
Life, 20.11.1970, p. 586.
O imperador — referindo-se à quinta geração ou à IA — está completamente
nu acima do tornozelo. Nos pés ele usa sapatos bem confeccionados e bastante
ornamentados, chamados sistemas especializados. Eles são úteis, mas já os
tínhamos há mais de 30 anos. Tudo o que os meninos da quinta geração fizeram
foi dar-lhe novos nomes.14
As dificuldades encontradas pela IA ao perseguir suas asserções inflacionadas são
reveladoras, pela simples razão de que elas apontam as limitações da mente matemática ao
ultrapassar os limites da razão pura — ou ao procurar ampliar essas fronteiras até o mundo
real.
No princípio — assim que a primeira geração de computadores do pós-guerra
começou a ser introduzida nas universidades — os cientistas da computação se exaltaram
com o rápido progresso que haviam conseguido ao programarem suas máquinas para
executarem jogos de estratégia, como o jogo-da-velha, damas e xadrez. A estratégia do
jogo-da-velha foi rapidamente dominada pelo computador, como aconteceu com a maioria
dos computadores que têm dez anos. O jogo de damas também teve seus segredos
desvendados rapidamente. Desde que o primeiro programa de xadrez foi desenvolvido em
1957, as estratégias do computador elaboradas para esse jogo alcançaram um alto nível de
especialização.15 Tais sucessos foram altamente encorajadores. Se o computador respondia
tão bem a essas tarefas, então o que não poderia fazer?
Mas desde seu surgimento a IA se deparou sucessivamente com inúmeros problemas
relacionados com outro nível, mais simples, da atividade mental. Enquanto os
computadores funcionam extremamente bem ao lidar com os jogos de estratégia, continuam
limitados nas áreas da vida em que o “senso comum” e a “linguagem natural” são decisivos.
Imaginemos, por exemplo, que a tarefa seja desenvolver um programa que trate de uma
questão bastante corriqueira:
Queremos descobrir o que está acontecendo no mundo. Como isso pode ser feito?
Digamos, lendo o jornal matutino. Onde ele se encontra? Na entrada de casa. Devemos
então, sem dúvida, sair, recolhê-lo e entrar em casa novamente. Correto. A menos que esteja
chovendo. Se estiver, você não quererá ficar molhado. Como evitar isso? Vestindo uma
capa de chuva. Depois, é só sair e pegar o jornal.
Este é um projeto real de pesquisa que tem sido desenvolvido pela Fundação Alfred
P. Sloan na Divisão de Ciência da Computação da Universidade da Califórnia, em Berkeley.
Este projeto inclui o desenvolvimento de procedimentos efetivos que procuram, numa
seqüência sensível, determinar se está chovendo, o quanto está chovendo, a colocação de
capa de chuva, a saída, o apanhar o jornal — tudo isso ocorre de forma simulada,
obviamente; o computador não abandona o laboratório para vaguear no campus à caça de
um verdadeiro jornal.16
Aqui não parece haver muita dificuldade. Contudo, para o computador, essa pequena
fatia de aventura vivida deve ser descrita segundo um programa-roteiro bastante detalhado.

14
Para estudo e crítica da IA na América, na Europa e no Japão, ver New Scientist, Londres, 15.11.1984, pp. 18-21; 22.11.1984,
pp. 17-20:29.11.1984, pp. 12-15.
15
Ver Fred Hopgood, “Computer Chess Bad, Human Chess Worse”, New Scientist, Londres, 23 e 30.12.1982, pp. 827-830. Ver
também M. David Stone, “Electronic Chess Experts”, Science Digest, mar. 1985, p. 8.
16
O programa do jornal e da capa de chuva é detalhado em Rose, Into the Heart of the Mind, cap. 4.
Se introduzirmos na situação a possibilidade de se usar um guarda-chuva ou a decisão de
quão molhados aceitaríamos ficar antes de utilizarmos o guarda-chuva ou a capa, o
programa se torna uma parafernália de contingências conflitantes. É assim que a mente
humana reage frente a tais problemas de senso comum? É claro que não. Essa é, porém, a
única forma do computador resolver tais questões — e deixa muito a desejar.
Uma verdade irônica, mas muito significativa, emerge de tal estudo. A IA e a ciência
cognitiva podem provar algo muito valioso: a elevada limitação da lógica matemática frente
a uma vasta gama de problemas do mundo real. Parece que não conseguimos lidar com
problemas corriqueiros de nossas vidas através de “procedimentos efetivos”. Podemos ter
um computador que chega a se equiparar a um mestre de xadrez, mas ainda incapaz de se
furtar da chuva. Isso sugere que existe uma discrepância radical entre as formas pelas quais
a máquina simula o pensamento e as formas pelas quais as pessoas pensam realmente. De
fato, essa discrepância poderia incluir aquelas áreas, como a matemática e o jogo de xadrez,
em que o computador produz os mais admiráveis resultados. Como sugerimos em nossa
discussão sobre o LOGO, no capítulo 4, não se trata das pessoas jogarem xadrez ou fazerem
matemática da maneira do computador. A mente humana, também nesse caso, funciona da
mesma maneira evasiva, informal e imprecisa de quando decide (sem pensar
conscientemente) não haver razão suficiente para se recolher o jornal molhado em frente de
casa, e que melhor seria ligar o rádio e escutar confortavelmente o noticiário.
Os tipos de procedimento efetivo que têm sido desenvolvidos para a matemática e o
xadrez são o que de melhor pode oferecer a IA como um approach para a compreensão da
mente humana. Se eles são tão estranhos quanto o raciocínio real, como afirmam alguns
críticos, isto é mais um motivo para estarmos atentos para a forma pela qual o software
manipula os dados. Pois o rigor matemático do procedimento pode inclusive não ser o
resultado da matemática real, mas de uma tosca caricatura mecânica da mente matemática
em funcionamento. A antiga mágica da matemática que habita a raiz da tecnologia da
informação pode ser enganadora a ponto de nos decepcionar. O computador imita uma
qualidade da mente, porém inadequadamente, impondo uma autoridade que não merece.
O vício que sempre paira sobre a IA e sobre a ciência cognitiva é a insistência de
que aquilo que o procedimento efetivo deixa de lado não tem muita importância ou pode
ser introduzido mais tarde como parte de um programa ainda a ser desenvolvido. Assim, no
que se refere às tarefas computadorizadas que venham a necessitar de um certo aroma
emocional, Marvin Minsky assegura:
Seremos capazes de programar emoções no computador assim que pudermos
pensar. Poderíamos fazer algo como uma grande cólera, mas seria uma cólera
insensata. Não seria muito interessante. Tenho certeza de que assim que
tivermos uma certa quantidade e decidirmos que tipo de emoções desejamos
introduzir no computador, não haverá grandes dificuldades.17
Observações simples como essa estão baseadas no fato de que toda atividade humana
pode ser reduzida a algum tipo de descrição formal — se eliminarmos todas as
ambigüidades não programáveis, sutilezas e imponderabilidades. Um computador, por
exemplo, pode ser programado com palavras-chaves que acionam uma série de regras que
evocam uma seleção de “estruturas” que representam “amor romântico”, “amor familiar”,

17
Minsky, citado por Muyghe, Psychology Today, dez. 1983, p. 34.
“amor platônico”. Se a estrutura do amor romântico é ativada, o computador poderá
imprimir “Eu te amo”, ou melhor ainda, “Eu realmente te amo”, seguida de “parênteses-
suspiro-parênteses”. Pode, inclusive, ser alimentado com uma vasta antologia de poemas
de amor que ele, em seguida, cita.
Para alguns especialistas em IA, a simplificação grosseira envolvida em tal
procedimento efetivo pode ser vista como uma primeira etapa de uma longa procura por
algo mais autêntico. O perigo está em que, em algum ponto do processo, a busca se torne
frustrante e seja abandonada, mas essa primeira etapa não é anulada. Por ser tão logicamente
rigorosa, a primeira etapa pode vir a ser considerada segura: um verdadeiro avanço, ou,
talvez, a própria meta. Isto significa aceitar uma caricatura grosseira como um substituto
adequado de um retrato — ou mesmo da pessoa real por detrás da imagem.

Um voo além da realidade


Os exemplos dados aqui de IA desenvolvidos em experimentos de laboratório altamente
planejados podem parecer inocuamente acadêmicos ou até mesmo um pouco recreativos,
pois os projetos em estudo são absolutamente distanciados da realidade. Daí podemos
concluir que se as atividades comuns do dia-a-dia não podem ser duplicadas com sucesso
pela IA, então as pesquisas irão além da maquete e podem no final se juntar à série de
esforços frustrados, tais como a busca do movimento perpétuo ou do solvente universal.
Mas não é bem assim que o mundo funciona, especialmente quando instituições
poderosas necessitam maximizar suas influências e seus lucros. A IA está agora penetrando
em nossa vida econômica trazendo uma imensa variedade de conseqüências relevantes
como parte de uma conversão econômica maciça para a alta tecnologia. É de conhecimento
geral que uma quantidade elevada e crescente de automação na área industrial tem sido
introduzida no setor de fabricação visando a robotização de linhas de montagem. Esse
esforço para diminuir os custos do trabalho pela crescente mecanização está largamente
difundido pela direção industrial, através dos níveis de supervisão altamente especializados.
A cada passo do longo caminho, a tecnologia de automação está baseada no mesmo
pressuposto que guia a pesquisa com relação ao jogo de xadrez e na resolução de problemas
do senso comum, nos laboratórios de IA: ou seja, tais procedimentos efetivos podem ser
desenvolvidos, considerando-se o que fazem no processo produtivo quaisquer trabalhadores
especializados ou semi-especializados, e talvez até capatazes ou gerentes. Hoje, o público
em geral acredita que isso pode ser feito; afinal de contas lemos relatos cintilantes e vemos
filmes impressionantes sobre fábricas automatizadas em funcionamento. A propaganda das
indústrias e do governo continuam nos dizendo que o resultado pode significar
produtividades cada vez maiores e menos dispendiosas. Graças à high tech, o trabalho
humano de alto custo será completamente realizado por meio da automação, fora do salário
de mercado, e a indústria americana se tornará, uma vez mais, competitiva no mundo.
Há pelo menos alguns textos discordantes sobre a questão da automação,
especialmente no que diz respeito ao esforço para substituir mão-de-obra altamente
especializada por importantes programas industriais como ICAM — assistência integrada
à fabricação por meio de computador. As dúvidas dizem respeito a problemas que surgem
quando os cientistas da computação procuram reduzir o trabalho de um mecânico
especializado a um processo formal e numericamente controlado: em outras palavras, jogar
xadrez com o trabalho das pessoas. Está sendo descoberto que nada a respeito de tal trabalho
é tão simples quanto pode parecer à primeira vista, a partir do distante e excelso ponto de
vista do cientista da computação. Um trabalho especializado requer maior adaptabilidade,
julgamento com base na experiência e intuição do que qualquer pessoa jamais foi capaz de
programar. A realidade do dia-a-dia de uma área industrial nada tem a ver com um tabuleiro
de xadrez.
Num estudo detalhado notável, David Noble coletou um impressionante corpo de
evidências — incluindo o ponto inicial da experiência dos trabalhadores industriais —, isso
ressalta as falhas custosas, mas normalmente escamoteadas, que continuam a infestar a
ofensiva rumo à completa automação.18 Apesar disso, prossegue o esforço para criar
fábricas atropelando outros, na busca do “controle adaptativo”. A procura é bem
fundamentada pela indústria e pelos militares e representa um “doce problema” para os
cientistas da computação, especialmente para os pesquisadores de IA, os quais estão sempre
prontos a reivindicar o poder de fazer milagres.
Noble observa:
O controle adaptativo é a tentativa de fazer máquinas completamente
autocorretivas, com a utilização de sensores sofisticados, delicados
mecanismos de feedback e mesmo “inteligência artificial”. Espera-se que tais
dispositivos efetuarão a compensação automática no caso de todas as variações
e condições de mudanças, dando à máquina a condição de um processo
completamente automático, relacionável com um controle gerencial remoto.
O resultado desta campanha dispendiosa e determinada para criação da “fábrica do
futuro” é um processo de produção sem operários, operado com “sensores, monitores,
contadores, alarmes e dispositivos de auto-reparo”, os quais estão cada vez mais propensos
a quebras e mau funcionamento. As fábricas se tornariam como aqueles sofisticados
sistemas militares de armamentos — como o caça F-16, o cruzador AEGIS, o míssil
antitanque Maverick — que atingiram um nível de complexidade e delicadeza que
suplantou a habilidade daqueles que devem manejá-los.19 “A maior complexidade exigida
para terminar com a falibilidade”, comenta Noble, “simplesmente aumenta a falibilidade.”
Ele chama o projeto “Um vôo além da realidade” — a realidade do funcionamento da mente
e do organismo humano, os quais não são nem um pouco parecidos com o modelo de
processamento de dados, mesmo nas rotinas mecânicas supostas complexas do processo de
produção.
Quando a IA é descrita como uma “inteligência alienígena” por críticos como Joseph
Weizenbaum, pode parecer que é uma reação sentimental à fria lógica do computador.
Certamente muitos defensores da IA tentaram interpretá-la e criticá-la dessa forma,
menosprezando-a como um mero grito do coração”. Mas, também, pode ser o caso de
inteligência alienígena, que simplesmente não pode fazer a maioria dos serviços que deveria
fazer, porque não está em contacto com a realidade em que todos devemos viver. Ela

18
David Noble, Forces of Production: A Social History of Industrial Automation, Nova Iorque, Knopf, 1984. Noble oferece um
exame crítico do programa ICAM e vários esforços similares para eliminar o fator humano da tecnologia industrial. Ver
especialmente seu último capítulo, “Another Look at Progress”, que estou comentando nesta seção.
19
A respeito de problemas referentes aos novos sistemas de armas altamente computadorizados, ver Ernest Canine, “Weapons:
Quality vs. Quantity”, Los Angeles Times, 8.8.1982, pt. 2, p. S. Também o relato no New York Times, p. 3-1.
procura então criar uma “outra realidade”, que possa encontrar as especificações rarefeitas
da razão pura. Foi exatamente isso que Platão fez ao criar a primeira academia e lá se
refugiar para contemplar os contornos da sua república ideal. Ele foi franco em admitir que
nenhuma sociedade poderia atingir a perfeição geométrica procurada, sem se tornar uma
autocracia. Sua utopia filosófica nunca ultrapassou as fronteiras da academia; não havia
riqueza ou poder para destruí-la.
Os tirânicos expoentes da razão pura estão hoje entre nós sob a forma de cientistas
da computação, manipulando o velho misticismo da matemática em causa própria. E tendo
inventado uma máquina que incorpora essa mística, encontraram as forças sociais que têm
o poder de transformar sua utopia em propostas políticas sérias.

A quinta geração... e muito além


Aqueles que labutam nas fileiras da IA e da ciência cognitiva são extremamente
persistentes. Assim que suas promessas esvaziam, eles as renovam com intensificado vigor.
Eles são obstinados. Aquilo que Marvin Minsky prometeu, em 1970, realizar num período
“de 3 a 8 anos” (“uma máquina com a inteligência global de um ser humano médio” e mais
tarde a de nível de um “gênio”) ainda permanece na agenda da IA, e agora com propaganda
ainda mais ativa do que nunca, pois tem havido inovavações conceituais e rupturas
tecnológicas. Atualmente, podemos encontrar essas rupturas e inovações reunidas sob o
título de “a quinta geração”, os computadores superinteligentes há muito previstos e agora
quase acessíveis.
Nos estudos divulgados a respeito desses novos horizontes tecnológicos, dois
proeminentes cientistas da computação parecem ter chegado a algumas conclusões idênticas
às que apresentei nestas páginas: a saber, que a informação processada no computador e as
idéias humanas são duas “entidades distintas” que funcionam em níveis mentais
significativamente diversos. Mas os cientistas continuam a desenvolver essa distinção de
uma maneira extraordinariamente reveladora. Em seu estudo A Quinta Geração, Edward
Feigenbaum e Pamela McCorduck concordam que a informação bruta que os computadores
podem agora processar tão abundantemente podem ter, afinal de contas, pouco valor; mais
tarde, pode inclusive nos sobrepujar.
Desta forma, argumentam que para termos um “poder intelectual”, a informação
deve ser “bem executada” [engineered]. Isso quer dizer que deve ser “constante,
selecionada, interpretada, atualizada e adaptada às mudanças de circunstância”. Isto é mais
ou menos o que eu tinha identificado como sendo a função das idéias; selecionar os dados
e organizá-los. As informações que foram assim “executadas”, tornam-se o que Feigenbaum
e McCorduck definem como “conhecimento” e isso, eles nos dizem, é o que nossa economia
emergente de “trabalhadores do conhecimento” deve ter.
Dentro do culto à informação isso poderia parecer uma importante concessão. Isso
quer dizer que o processamento de informações não é tudo. Seria como se um calvinista
convicto (com o qual a ciência da computação algumas vezes partilha uma curiosa
similaridade) fosse flagrado flertando com uma heresia: apenas a fé trará a salvação. Mas
deve ser suplementada pelas boas ações. Assim, ainda no estilo dos teólogos calvinistas
apressados em preservar a soberania de Deus — Feigenbaum e McCorduck rapidamente
tramam uma forma de resgatar a onipotência do computador. Está diante de nós, eles
anunciam, uma “nova revolução do computador”, a qual nos levará da “transição do
processamento de informações ao processamento do conhecimento”. Essa transição será
conquistada pela próxima geração (a quinta) de computadores. Estas notáveis máquinas não
serão nem um pouco parecidas com os atuais computadores; serão PICs [knowledge
information processors-KIPs] — processadores de informações do conhecimento. Os PICs
terão o poder de “subordinar a confusão de detalhes, dados e informação sempre em
transformação, em interpretações gerais, ordenadas e plausíveis”.
É difícil entender o que significa “interpretação” neste contexto. Normalmente uma
interpretação é resultado de um juízo moral, estético ou ideológico — uma idéia — quando
aplicado a um problema intelectual. É aí que as pessoas discordam com relação às
interpretações umas das outras, Poderíamos, por exemplo, ter uma interpretação marxista a
respeito de A Riqueza das Nações, ou uma interpretação freudiana de Hamlet, ou uma
interpretação existencialista de Marx e Freud. O choque de tais idéias entre pessoas que
refletem é o que sustenta e revigora nossa vida cultural. Comparamos e confrontamos
nossos diferentes pontos de vista, utilizando as idéias que nossa experiência nos oferece
para selecionar, filtrar e amoldar os fatos disponíveis. O resultado é, em última instância,
um diálogo frutífero, ou, na pior das hipóteses, violência.
O que podemos fazer então com a previsão de que os PICs produzirão
“interpretações gerais ordenadas e plausíveis” de forma que “a responsabilidade da
produção do conhecimento futuro no mundo será transferida da cabeça humana para um
artefato mecânico”?20 Na quinta geração devemos esperar computadores marxistas,
freudianos ou existencialistas, possivelmente discutindo entre si? Ou, não tendo a
experiência vivencial que conduz a tais compromissos na vida, funcionarão de maneira
peculiar, não humana, interpretando os fatos, talvez baseados em modificações químicas
em seu silicone?
A idéia de uma máquina que interpreta não é apenas extravagante, é absurda. A
interpretação é privilégio da mente viva, da mesma forma que o nascimento para os corpos
vivos. Desligada da mente, a interligação se torna o que o nascimento é quando não se refere
a um corpo vivo — uma metáfora. Mas Feigenbaum e McCorduck não estão falando
metaforicamente. Falam literalmente e pensam que o que dizem faz sentido. Se tivesse,
seria como um pesadelo. Isso é suficientemente ruim para que tenhamos entusiastas de
computadores insistindo que a informação processada pelo computador é indiscutivelmente
correta. Imagine-se um confronto com uma interpretação feita pela máquina que foi prevista
para ser autoritária. Podemos nos deparar com a leitura do último boletim da imprensa
presidencial, saído do computador na mais “correta interpretação”. Numa triste constatação,
isso poderia tornar a vida mais fácil para mentes perturbadas que já não encontram sentido
no mundo. Mas para quem, exceto os derrotados e resignados, fica o “encargo” de produzir
o conhecimento do mundo? Há ainda, com certeza, mais do que uns poucos que gostam de
pensar.
Feigenbaum e McCorduck reconhecem — de maneira recomendável — que a mente
precisa mais que toscas informações para pensar (processar), mas sua noção de

20
Feigenbaume McCorduck, The Fifth Generation, p. 40.
conhecimento é profundamente desconcertante. Ao mesmo tempo que reconhecem que o
conhecimento está relacionado com seleção, julgamento e interpretação, falham
completamente ao assumir o papel desempenhado pelas idéias nesse processo, e isto faz
com que, sem dúvida, acreditem que uma nova geração de computadores possa ser
transformada em máquinas de produção de conhecimento.
Uma idéia (ou a informação que dela flui) se torna conhecimento ao se reunir com
um amplo consenso na sociedade. O conhecimento é um status conferido à idéia por tal
consenso. Como aparece esse consenso? Ocorre quando um número suficiente de pessoas
concorda que a idéia é verdadeira. E como chegar a essa conclusão? Aplicando algumas
idéias compartilhadas sobre verdade ao fato a ser discutido. Na Idade Média, por exemplo,
havia a idéia amplamente compartilhada de que a verdade poderia ser encontrada no ponto
de intersecção entre o ensino das escrituras, a autoridade da Igreja e (possivelmente) na
lógica de Aristóteles, constituindo uma unidade harmoniosa. Mentes-guias da época, como
os escolásticos, discutiram inúmeros assuntos sob esse ponto de vista, procurando a
intersecção. Se uma idéia — como aquela do pecado original, ou da natureza da trindade
divina, ou a ordem dos planetas no cosmos — passasse através do filtro dessas autoridades,
tornar-se-ia “conhecimento”. Três séculos mais tarde, quando a verificação empírica se
tornou a idéia prevalecente de verdade, esse “conhecimento” — uma vez aceito por mentes
capazes e honestas da época — passou a ser olhado como questionável e, gradualmente,
desapareceu da cultura.
O critério de verdade de uma sociedade está entre suas idéias-mestras. E os
argumentos acerca do critério são, portanto, os mais interessantes e geralmente os mais
veementes. Cada sociedade que não está completamente isolada e moribunda está permeada
de idéias competitivas a respeito da verdade, cada uma com seus leais seguidores.
Atualmente testemunhamos trocas vividas e freqüentemente desagradáveis entre os cristãos
evangélicos e seus contendores “seculares humanistas”, que estão em veemente disputa,
pois seus critérios de verdade estão irremediavelmente em desacordo. Para uns, a Bíblia é
a suprema, se não a única medida da verdade em matéria de fé, moral, história, geologia,
biologia. Para os outros, a Bíblia é simplesmente um livro antigo repleto de idéias obsoletas.
Essas e outras idéias em contenda lutam e colidem entre si diariamente; ou se mesclam, se
diluem e se unem a outras. O resultado é que nesta coisa problemática e turbulenta a que
chamamos vida civilizada, em que o que é informação para uns pode ser absurdo para
outros, o conhecimento de alguém é superstição para o outro. Geralmente há uma linha de
consenso que o clero, os acadêmicos ou outras instituições dominantes refletem e reforçam,
e que é normalmente rotulada de “conhecimento”. Mas, em uma cultura viva, esse consenso
está sempre sob pressão e à mercê de elementos discordantes.
Se a Era da Informação prosseguir até a quinta (ou décima) geração, quando os
computadores se tornarem microscópicos em tamanho e com uma capacidade de
armazenamento de dados equivalente a milhões de vezes a atual, ainda assim não haverá
possibilidade de mecanizar os dilemas do debate cultural ou as difíceis escolhas pessoais.
As idéias produzem conhecimento, e a mente humana, misteriosamente, cria idéias. Quem
gostaria que fosse de outra forma?
A quinta geração de computadores dotados de IA está começando agora a funcionar
em aplicações mais práticas. Contratos milionários com militares e corporações
possibilitaram a injeção de muito dinheiro nas pesquisas mais recentes. Mas antes dos frutos
desses investimentos serem colhidos, há rumores de uma nova geração de tecnologia da
informação já em estudos. Podemos perguntar até onde a IA e a ciência cognitiva podem
chegar, uma vez que já prometem ultrapassar os próprios limites da inteligência humana.
Dizem que os japoneses já estão muito além desse ponto, atingindo fronteiras
inimagináveis. A Agência Japonesa de Ciência e Tecnologia anunciou a formação de um
projeto conjunto entre várias empresas de high tech para pesquisa a respeito de uma “sexta
geração” de telecomunicações computadorizadas. Sob a direção de Hiroo Yuhara, da
Uniden Corporation, o projeto está examinando várias formas de percepção parapsicológica
e extra-sensorial. Para ver se essas forças ocultas da mente podem ser utilizadas.21
Yuhara acredita que o corpo humano possui sensores que podem atuar como
transmissores elétricos. Eles poderão ser conectados aos computadores através de uma
ligação magnética. O resultado serão os poderes extra-sensoriais da psique humana
integrados de alguma forma etérea a dispositivos globais de telecomunicação. Como diz a
Agência de Ciência e Tecnologia, o computador ESP conduz a pesquisa industrial adiante,
rumo ao “estudo das atividades espirituais do homem”.
Da mesma forma que os japoneses tomaram a dianteira na tecnologia da quinta
geração, pressionando americanos e europeus a os acompanharem, certamente esse novo
esforço terá o mesmo efeito. Talvez, muito antes do que possamos imaginar, haverá uma
nova disciplina nos laboratórios de computação: a clarividência artificial. E os militares,
tendo comprado grande parte dos restos dos cenários de “Guerra nas Estrelas” e querendo
que a “força” esteja com eles, se apressarão em conseguir recursos para a pesquisa.

21
Alexander Besher, seção financeira, coluna “Pacific Rim”, San Francisco Chronicle, 15.7.1985, p. 31.
7. O computador e a contracultura

Big blue e os hackers guerrilheiros


Até meados dos anos 70, a imagem pública que se fazia da tecnologia da informação era
austera e exótica. Era vista como uma maquinaria misteriosa, muito cara, podendo ser
operada apenas por técnicos treinados. As operações tinham que ser discutidas na
linguagem esotérica da teoria da informação com a ajuda de muita matemática. Como uma
extensão da mente humana, o computador começava a ser visto como um complemento
necessário para todo o pensamento científico avançado e para as decisões de alto nível, um
papel que distanciava ainda mais o computador do alcance público. A reputação do
computador como rival da inteligência humana talvez se deva aos exageros da ficção
científica (como o computador rebelde HAL no filme 2001), mas já havia uma acalorada
discussão sobre como a automatização iria revolucionar rapidamente a linha de montagem
e os escritórios, substituindo contingentes cada vez mais amplos do trabalho especializado.
Muito pouco era conhecido sobre computadores que não fizesse as máquinas parecerem
elitistas e intimidadoras.1
Talvez o mais dramático seja o seguinte: através de uma cobertura extensa de
televisão, ofereceu-se várias vezes ao país as imagens do Centro de Controle Johnson
Mission, em Houston, onde inúmeras fileiras de técnicos sentados diante de uma série de
computadores supervisionavam os triunfos de um programa espacial que ainda era
glamoroso. Estranhamente, as apresentações de televisão do Centro sempre mostravam
panorâmicas vistas das telas dos computadores, como se as máquinas fossem as estrelas do
evento. Os técnicos, virados de costas e sem rostos, pareciam apenas servis atendentes
anônimos, recebendo suas deixas das máquinas. Como resultado desta familiar cena
nacional, tornava-se quase impossível imaginar cientistas e engenheiros sem a presença de
cintilantes terminais de vídeo em que cálculos misteriosos surgiam numa velocidade
espantosa. O computador, rapidamente assimilado à mística científica, acabava dominando-
a.
Tão ameaçador quanto o imaginário criado pelo meios de comunicação de massa era
o fato social de que a área da tecnologia da informação ainda estava sob rígido controle de
corporações. Na verdade, era dominada pela mais elitista e privada das corporações: a IBM,
um colosso da alta tecnologia que cavalgava sobre o mundo, suave, distante e imperial.
Desde a guerra, Big Blue [a Grande Azul], o nome pelo qual a IBM é conhecida no setor
industrial, se desenvolveu segundo a requintada incorporação do estilo dos negócios
tecnocráticos. Mais próxima de um monopólio mundial do que qualquer outra empresa, a
IBM é conhecida por ter um controle da indústria tão eficiente que poderia ser classificado
de infalível. Em meados dos anos 60, tinha o controle de dois terços dos negócios de
tecnologia da informação. O que não pertencia à IBM sobrevivia graças a sua tolerância,
com as migalhas que a IBM deixava cair do seu prato. Tão grande e dominadora era a IBM

1
Para a história da indústria de computadores dos anos 60 aos 80, ver Shurkin, Engines of the Mind·, Rogers e Larsen, Silicon
Valley Fever, Levy, Hackers·, e Paul Freiberger e Michael Swaine, Fire in the Valley, Berkeley, Calif., Osborne/McGraw-Hill,
1984.
que nunca foi considerada como “concorrente” de outra empresa; na verdade, a IBM era o
“ambiente” onde todos faziam seus negócios. Outras empresas rodeavam a IBM como se
fossem vassalos da coroa; os negócios consistiam principalmente em fazer aquilo que a
IBM escolhia não fazer, ou produzir apenas equipamentos que fossem compatíveis com os
da IBM.
Fiel a sua postura endeusada, a IBM conduziu no pós-guerra o pessoal de sua
organização à sua perfeição. A empresa era conduzida como um barco tenso cuja tripulação
disciplinada era friamente cruel no mercado de trabalho, fanaticamente leal à firma,
moldada como máquina para servir às cadeias de comando da corporação. Mas em algum
momento dos anos 60, a infalível Big Blue fez um cálculo errado. A IBM tinha em mãos a
possibilidade de produzir computadores pequenos, de baixo custo. Isto seria tão simples
quando desligar os terminais existentes em seu sistema principal e torná-los processadores
de dados autônomos. Tais máquinas teriam uma memória mínima e só poderiam contar com
programas reduzidos, mas seriam mais compactas e mais baratas do que os
microcomputadores então utilizados em escritórios e laboratórios. Com efeito, poderiam ser
eletrodomésticos. De qualquer maneira, a IBM optou por manter seu dinheiro e seus
cérebros concentrados no desenvolvimento de computadores de maior porte. É claro que
era aí que se encontrava a maioria dos prósperos mercados militares e civis: dispendiosos
sistemas compostos pelas máquinas e seus acessórios. Talvez, em parte, a decisão da IBM
também tenha vindo do fato da empresa encarar o futuro da tecnologia da informação como
sendo a sua própria imagem de corporação: rigidamente hierarquizado e com controle
centralizado. A IBM nunca foi planejada para vender computadores ao público em geral.
Sempre preferiu vender grandes máquinas produzidas sob encomenda para grandes clientes.
Mais do que isso, preferia alugar seus produtos, mantendo-os sob seu próprio controle. As
máquinas da IBM ganharam o mundo exterior como caixas negras trancadas; a arquitetura
interna era patenteada, destinada a ser acessível apenas aos engenheiros da empresa. Onde
Big Blue não liderava, outras empresas de computadores não estavam preparadas para
caminhar; assim, a decisão de manter o estilo elitista permitiu a abertura de uma brecha nas
paredes da cidadela industrial.
Essa brecha era o microcomputador, uma máquina de mesa, de preço altamente
acessível, para uso pessoal e doméstico. A IBM e as outras empresas principais sabiam da
possibilidade técnica de tal computador. Os computadores têm se tornado cada vez menores
à medida que adquirem maior poder, e também progressivamente mais baratos. Engenheiros
da IBM e de outras empresas tinham trabalhado em protótipos de computadores domésticos
suficienmente pequenos para serem carregados em uma pasta de documentos. Mas havia
um mercado significativo para tal invento? Big Blue achou que não. Outros pensaram de
modo diverso.
A parcela mais importante entre esses “outros” era a crescente população de jovens
entusiastas dos computadores que vinha acompanhando as pesquisas em computação. Em
seu estudo Hackers: Heroes of the Computer Age [Hackers, Heróis da Era dos
Computadores], Steven Levy traça a origem destes jovens no laboratório de computação do
MIT no final da década de 50, onde alguns talentosos estudantes freqüentemente tinham
permissão para se reunir, e algumas vezes permanecer a noite toda operando o equipamento.
A maioria destes primeiros adeptos da computação era moldada de acordo com o padrão de
Tom Swift: adolescentes gênios “mecânicos”, capazes de improvisar brilhantemente a partir
de fragmentos pelo simples amor de resolver deliciosos problemas. Entre eles,
encontravam-se os inventores dos primeiros jogos para computadores e robôs de brinquedo,
novidades que eles nem ao menos se deram ao trabalho de patentear. No final da década de
60, alguns desses jovens talentosos encontraram seu caminho nos mais baixos escalões da
indústria de computadores. Alguns deles já faziam experiências com microcomputadores
primitivos, mas nenhum seria aproveitado pelas empresas para as quais trabalhavam.
No folclore da história da computação, os primeiros hackers são lembrados com
especial carinho. Segundo alguns relatos, muitos deles eram socialmente desajeitados e
materialmente desapegados. Eles são os “calouros” arquetípicos da profissão. Como um
grupo, eles possuíam menos consciência política do que senso comercial; eram puramente
técnicos, do princípio ao fim. Aproximadamente em fins da década de 60, havia uma outra
espécie de hackers no horizonte, vindos principalmente da costa Oeste, das fileiras do
movimento antibélico. Estes eram os hackers radicais ou guerrilheiros, que estavam
destinados a dar ao computador uma imagem completamente nova e uma orientação política
que jamais poderia ter surgido com a Big Blue ou com qualquer de seus vassalos. Nas mãos
deles, a tecnologia da informação se tornaria mais próxima de um instrumento da política
democrática.

Um populismo eletrônico
Na primavera de 1970, um pequeno grupo de cientistas da computação que tinham
abandonado a universidade, envolvidos no movimento de protesto contra a guerra na
Universidade da Califórnia, em Berkeley, se uniram em meio à crise do Cambodja para
discutir a política da informação. Formaram um dos primeiros grupos de encontro de
hackers com preocupações sociais. Eles lamentavam o fato de o computador estar sendo
monopolizado para benefício e poder do mesmo complexo industrial-militar que já
controlava todas as outras principais tecnologias. Além disso, estavam convencidos de que
sua profissão era a chave para uma democracia participativa (vital). Nas palavras do
People’s Computer Company, um jornal radical dos hackers que começou a ser publicado
no final de 1972: “Quase sempre os computadores são usados contra as pessoas, e não a
favor delas, para controlá-las, ao invés de libertá-las. É hora de mudar tudo isto — nós
precisamos de uma... empresa de computadores para as pessoas”.2
O que, então, deveria ser feito? A solução para os hackers de Berkeley era o Recurso
Um, “uma empresa comunitária de computadores”, alojada numa cooperativa de artistas,
num armazém do setor industrial de São Francisco. Seus fundadores seguiram o seguinte
argumento:
Tanto a quantidade quanto o conteúdo da informação disponível é estabelecido
pelas instituições centralizadas — imprensa, TV, rádio, agências de notícias,
serviços de informações, agências governamentais, escolas e universidades —
que são controladas pelos mesmos interesses que controlam o resto da
economia. Mantendo a informação fluindo de cima para baixo, eles nos
mantêm isolados uns dos outros... A tecnologia de computadores tem sido
bastante usada para isso... principalmente pelo governo, e por aqueles que ele

2
Citado em Levy, Hackers, p. 165.
representa, para armazenar e dispor rapidamente de grandes quantidades de
informação sobre um enorme número de pessoas... É este padrão que nos
convence de que o controle sobre o fluxo de informação é tão crucial.3
Várias corporações e fundações contribuíram com pequenas verbas para Recurso
Um: a mais importante, a Corporação Transamérica, cedeu um computador IBM XDS-940,
um velho monstrengo que estava próximo à obsolescência. Recurso Um reformou a
máquina e a anunciou como verdadeira utilidade pública, esperando que os ativistas
políticos usassem a máquina e a habilidade de seus operadores para realizar pesquisas entre
os eleitores, fazer levantamentos de estatística social, organizar listas de correspondência.
Um “banco de dados urbanos” tornou-se uma das principais prioridades; coordenaria dados
sobre censos, resultados eleitorais, o uso do solo e avaliação de prioridades. Entre os planos,
também constavam na agenda serviços sociais e um serviço de contabilidade para grupos
comunitários não lucrativos.
Recurso Um sobreviveu por alguns anos sustentada principalmente pelo suor de seus
organizadores, mas nunca conseguiu suficiente subvenção ou uma utilização que trouxesse
a proeminência que procurava. Segundo alguns membros frustrados, o problema era
técnico. A tecnologia era restrita demais; era necessário atingir a comunidade, onde as
pessoas poderiam ter a experiência de manusear esta máquina exótica. Dando continuidade
a esta idéia, surgiu um novo projeto: a Memória Comunitária, planejada para ser uma rede
de pequenos terminais de computadores distribuídos pela Bay Area [área da baía de São
Francisco]. Os terminais estariam disponíveis para utilização gratuita e estariam ligados ao
banco central de dados e à unidade de processamento de dados do Recurso Um. Alguns
previram um projeto bem maior: um sistema de informações alternativas, de alcance
nacional, usando as linhas telefônicas da AT&T para unir cidades e campi universitários
em toda a América. O objetivo era criar uma “democracia direta da informação”.
A Memória Comunitária teve seu primeiro terminal operacional instalado em agosto
de 1973; estava localizado em uma loja de discos bastante freqüentada, próxima ao campus
da Universidade da Califórnia, em Berkeley. O terminal mostrou-se tão popular quanto um
mural eletrônico. Transmitia também muitos boatos, desabafos terapêuticos, fofocas e
grafitos. O terminal mudou de lugar algumas vezes; dois outros foram acrescentados ao
projeto, sendo que mais alguns foram também instalados, um em uma divisão da biblioteca
de São Francisco, outro em uma comunidade de trabalhadores. Mas quando o Recurso Um
faliu em 1975, a Memória Comunitária sofreu uma rápida bancarrota, embora tenha
reaparecido aproximadamente dez anos depois com uma rede de três terminais, que ainda
atuam no nível de mural e grafitos: um auxílio marginal, um divertido avanço com relação
à folha três por cinco presa numa lâmina de cortiça, mas dificilmente um instrumento de
mudança social significativa, mesmo em um local tão politizado quanto Berkeley.
Embora hesitantes, essas tentativas despertaram um novo acorde populista na
percepção do público com referência à informação. O computador foi potencialmente
identificado como sendo um “artefato social radical”. Nas palavras de Michael Rossman,
um dos teóricos do projeto:
Memória Comunitária... é “sociável e participatória”... Um sistema MC é um
sistema de informação ativamente aberto (“livre”), permitindo a comunicação

3
Boletim do Recurso Um, número 2, abr. 1974, p. 8.
direta entre seus usuários, sem edição centralizada ou controle sobre a
informação que é trocada. ... Tal sistema representa uma perfeita antítese do
uso dominador tanto da comunicação eletrônica dos meios de comunicação de
massa (os quais enviam mensagens estabelecidas por uma central a plateias
passivas), quanto da tecnologia da cibernética, o que envolve processamento
centralizado e controle dos dados advindos dos usuários ou a eles enviados...
O pagamento é a interação eficiente não-intermediada (ou melhor,
automediada), eliminando papéis e problemas que surgem quando uma parte
tem controle sobre qual informação é trocada entre duas ou mais partes. Esta
liberdade é complementada pela maneira segundo a qual o sistema democratiza
o poder da informação, pois nenhum grupo de usuários tem qualquer
preferência de acesso às principais informações.4
Do ponto de vista daqueles que lançaram Recurso Um e Memória Comunitária, a
informação era muito mais do que necessidade industrial ou mercadoria comercial. Era o
sangue do processo democrático e, como tal, precioso demais para ser concedido a
corporações e sujeito ao controle do governo. Para os políticos ativistas que passaram os
anos do Vietnã e de Watergate protestando contra o sigilo, o ocultamento e a manipulação
de notícias por parte do governo, o computador parecia ser o antídoto contra o elitismo
tecnocrático — desde que seu poder pudesse ser universalmente acessível. Mas como isso
podia ser feito? Recurso Um tentou trazer as pessoas até o computador — uma máquina
simples e exotérica; Memória Comunitária tentou trazer o computador às pessoas, sob a
forma de pequenos terminais amistosos. Nenhuma destas tentativas de aproximação chegou
a despertar o ímpeto das pessoas. Mas, nesse meio-tempo, a própria tecnologia estava
mudando de formas que sugeriam uma outra estratégia para a criação de um populismo
eletrônico. Em meados dos anos 70, o microcomputador, que tinha sido considerado pela
IBM como um investimento “pobre”, começou a parecer cada vez mais um instrumento
acessível, com condições de atrair uma considerável população ao mercado. Suponha,
então, que a tecnologia estava para ser trazida para dentro dos lares da América da mesma
forma que aparelhos de rádio, televisão, aparelhos estéreos de som. Com isso, não teríamos
a distribuição e o acesso necessário para quebrar o monopólio do processamento da
informação detido pelo governo e pelas corporações?

A heroica era do microcomputador


Desde seus primórdios, o microcomputador estava cercado por uma aura de vulgaridade e
radicalismo que contrastava agudamente com as pretensões de mandarim da alta tecnologia.
Isto acontecia porque grande parte desta nova tecnologia em menor escala foi deixada para
ser desenvolvida fora da cidadela, por jovens e impetuosos hackers — especialmente na
Califórnia, onde os tipos socialmente divergentes tinham se reunido na faixa da península
de São Francisco, que estava começando a ser chamada de Vale do Silício. Em meados dos
anos 70, pequenos grupos destes hackers começaram a se reunir em sessões informais onde
a ciência da computação era livremente discutida como se fosse mexerico provinciano num

4
Michael Rossman, “What is Community Memory?”, 1979, mimeo.
armazém de biscoitos. O tom desses encontros era deliberadamente caseiro: uma rejeição
autoconsciente do estilo formal das corporações. Os nomes expressavam muito do espírito
daquela época. Uma empresa iniciante daquele período chamou-se Itty-Bitty Machine
Company (uma IBM alternativa); outra era Kentucky Fried Computers.
Havia um ambiente em que tipos barbudos, usando jeans, podiam reunir-se
livremente para discutir as máquinas que estavam desenvolvendo em sótãos e garagens. O
Homebrew Computer Club [Clube do Computador Feito em Casa] em Menlo Park (perto
do campus e do parque industrial da Universidade de Stanford) era o mais colorido e o mais
produtivo dessas reuniões urbanas. O clube, desde então, assumiu proporções lendárias na
memória desse período. Foi no Homebrew que Stephen Wozniak revelou seu novo
microcomputador em 1977. O nome dado por ele — Apple [Maçã] — trouxe um novo tom
orgânico, ligeiramente rústico e destinado a suavizar as pontas duras da tecnologia,
tornando-a completamente familiar e amistosa. O nome também lembrava a antiga empresa
de discos dos Beatles (uma outra estória conta que o nome veio de uma dieta frutífera que
Steven Jobs, parceiro de Wozniak, trouxe quando voltou de sua curta viagem mística à
Índia).
A linhagem dos hackers que se reuniram em lugares como Homebrew tinha andado
nas margens do mundo da high tech por alguns anos. Muitos deles eram pessoas que
abandonaram a universidade e veteranos de uma política recente de contracultura de Bay
Area. Segundo um participante-observador, o estilo “tinha o código genético dos anos 60,
com atitudes contra-instituições, contraguerra, pró-liberdade e antidisciplina”.5 A
percepção dos computadores e da informação que os hackers guerrilheiros trouxeram para
seu trabalho era um estranho amálgama de rebelião política, ficção científica, sobrevivência
do tipo “faça você mesmo”. Se na verdade eles não leram os trabalhos de E. F. Schumacher,
ainda assim o lema poderia ter sido “o que é pequeno é bonito” — talvez pelo simples fato
de que “pequeno” era tudo o que eles tinham como condição econômica para construir para
si mesmos. De maneira similar, se eles não estudaram as teorias de Ivan Illich, mesmo assim
procuravam algo no estilo da tecnologia “de convívio” de Illich, que criava uma comunhão
de interesses e necessidades entre os usuários. Misturado a estas linhas de pensamento mais
sérias, havia um toque de extravagância, uma pitada de fantasia de criança que via o
computador como uma espécie de caixa mágica que podia sair de algum conto de fadas.
Assim, o primeiro microcomputador a circular no submundo hacker apareceu em 1975, na
forma de um pacote de correio, embalado por um casal de excêntricos ex-trabalhadores em
computação de Albuquerque — recebeu o nome de Altair, que era um planeta
desconhecido, da série de televisão Star Trek [Jornada nas Estrelas].
Embora primitivo, o kit de Altair se tornou aquilo que a arrogante IBM nunca poderia
imaginar que um processador de dados de tamanho econômico se tornaria: “um absoluto,
rápido, imediato, insano sucesso”.6 Logo ele começou a fazer parte do Whole Earth
Catalog, o que ajudou ainda mais as vendas. Os hackers guerrilheiros, com uma postura de
forte autoconfiança e espírito pioneiro, eram os primeiros exemplos da visão de mundo do
Catálogo. Na sua edição inicial em 1968, o Catálogo se anunciou ao mundo como sendo
“um serviço de informação ilegal”, dirigido aos leitores excêntricos e rebeldes, sem
filiações. Na sua maior parte, o Catálogo consistia de artigos para uma vida simples, rústica:

5
Jim Warren, citado em Freiberger e Swaine, Fire in the Valley, p. 99.
6
Freiberger e Swaine, Fire in the Valley, p. 37.
fornos para queimar madeira, roupas de couro, técnicas de obstetrícia e horticultura de
quintal. Mas desde o início apresentou-se fascinado por certas formas de alta tecnologia
[high tech]: sistemas estéreos, câmaras, sintetizadores e, logo no primeiro número,
computadores. Afinal, o Catálogo foi inspirado no trabalho de Buckminster Fuller,
engenheiro dissidente que patenteou o domo geodésico.
De fato, o domo poderia ser visto como o precursor de uma espécie de tecnologia
populista que, de acordo com seus inventores, o microcomputador algum dia se tornaria.
Graças ao especial talento de Fuller para a obscuridade grandiloqüente, o domo adquiriu
uma aura metafísica que atraía o gosto da contracultura. Fuller não apenas fez com que
parecesse barato e fácil de construir, ousando viver num domo, divergindo culturalmente
em estilo, mas insistindo que sua unidade estrutural básica — o tetraedro — de alguma
maneira se harmonizava com a lógica geométrica do cosmos. Como resultado, no final dos
anos 60, começa a crescer um culto em torno do domo: os discípulos de Fuller, a começar
por Stewart Brand, editor do Catálogo, apregoavam esta peça exótica de engenharia como
unicamente uma tecnologia do “povo” — o emblema de uma causa. Na verdade, havia
aqueles que previam que comunidades inteiras de domos apareceriam em breve nos
arredores das grandes cidades, como acampamentos bárbaros, as tendas da nova cultura.
Alguns anos mais tarde, o microcomputador, uma invenção tão dissidente quanto a de
Fuller, sendo desenvolvido domesticamente, acabou por ser visto sob a mesma luz — como
tecnologia da libertação.
Por uma estranha coincidência que só poderia ser imaginável na Califórnia, esta
visão insurgente da tecnologia da informação foi partilhada, ou pelo menos ocasionalmente
mencionada, pelo governador que estava no poder na mesma época em que os produtos do
Homebrew Computer Club estavam começando a assumir proporções industriais. Jerry
Brown estava entre os primeiros políticos americanos a compreender as futuras
possibilidades da high tech. Como se poderia esperar, o interesse do governador, assim
como os dos governadores da Califórnia que vieram antes e depois, estava solidamente
fincado nos grandes contratos militar-industriais que representavam a base da economia
estadual. Mas Brown tinha a aptidão de se associar, ainda que apenas oblíqua e
ambiguamente, a pessoas de valores e a grupos da contracultura. Ele se manifestava
firmemente contra a energia nuclear e era um forte defensor do meio ambiente. Era
conhecido por se encontrar com zen-budistas, estrelas de rock e economistas do estilo de
Schumacher; em pouco tempo, tinha aliciado Stewart Brand como confidente e conselheiro.
Em Sacramento, o governador fundou o State Office of Appropriate Technology, onde eram
criados ambiciosos programas de energia solar e eólica, fazendas urbanas e plantações
orgânicas. E quando se tratava de computador, ele fazia comentários como:
Mais pessoas estão gastando mais tempo colecionando, analisando e
processando informação, e isto é uma cultura inteiramente diferente daquela
que nós conhecemos... Com o apertar de um botão, você consegue mais e mais
informações sobre a decisão que pretende tomar... Informação é o que equaliza
e destrói a hierarquia.7
Houve um intervalo no início dos anos 80 — não durou mais do que alguns anos
intoxicantes — quando, pelo menos na Califórnia, os hackers guerrilheiros pareciam estar

7
Jerry Brown, citado em Esquire, fev, 1978, p. 65.
a ponto de refazer a Era da Informação em seus próprios termos. Saindo de suas garagens
emboloradas e atravessando a paisagem da alta tecnologia, eles conseguiram desequilibrar
as gigantescas corporações da indústria. Sua realização não foi mera questão de mercado,
embora isto também tenha sido uma parte significativa da história. Os fabricantes de
microcomputadores descobriram um público comprador que havia sido negligenciado pelas
grandes empresas. Mas seus lucros se baseavam em sólidas inovações técnicas. Desde o
lançamento da primeira máquina da Apple, os hackers ligados a microcomputadores
aproveitaram a capacidade limitada de armazenamento de dados que era disponível,
desenvolvendo uma conexão interativa entre o teclado e a tela de vídeo. O usuário podia
ver imediatamente o que estava acontecendo na máquina. Isto intensificou a habilidade do
computador para os jogos; mas o que é mais importante, estabeleceu uma nova relação,
quase uma conversação entre usuário e máquina. Muitos começaram a ver convidativas
possibilidades educacionais nesta relação. Quando essa capacidade para interação imediata
foi combinada com o engenhoso disk drive de Stephen Wozniak para o Apple II, o mundo
dos softwares em discos flexíveis floresceu subitamente, para se tornar rapidamente uma
indústria própria, muito além do alcance de hackers e profissionais. Até mesmo a Big Blue
teve que considerar uma ruptura tecnológica de tal importância; teve que rever seus planos
e entrar com determinação na concorrência de computadores pessoais. Mas a IBM estava
bem atrás na corrida, pois faltava a ousadia empresarial e o estilo inovador dos hackers
guerrilheiros. Sua invenção, o microcomputador, causou uma sensação desenfreada que
parecia poder mudar o estilo de vida americano em todos os níveis — inclusive as condutas
e os costumes do mercado.
Os hackers tinham até mesmo um amigo no escritório do governador, que podia falar
a seu favor e conduzir a audiência nacional de maior vulto. A exuberância impetuosa desse
período se acentuou com a feira anual de comércio da nova indústria, sendo a primeira em
Marin County, em 1977, onde foi apresentado, pela primeira vez, o surpreendente Apple II.
Estes acontecimentos estavam se tornando encontros de contracultura na área da baía de
São Francisco. Aqueles que compareceram, ainda hoje falam da experiência de ter vivido
momentos de excitação, ao caminharem pela exposição, examinando o poder tecnológico
que parecia estar diante deles, prestes a ser capturado. Subitamente, em todo o Vale do
Silício, firmas novas, produtos novos e bem concebidos, novas e chamativas possibilidades
sociais estavam surgindo rápido demais para ser avaliadas. E o dinheiro jorrava. A empresa
Apple surpreendeu seus fundadores com uma renda de 200 mil dólares em 1976. No ano
seguinte, foram vendidos 7 milhões em Apples. Cinco anos mais tarde, chegou perto da
marca de um bilhão de dólares. Enquanto isso, aumenta a procura das ações, transformando
instantaneamente aqueles que apostaram no Apple em multimilionários.
No apogeu de seu sucesso, Stephen Wozniak, co-fundador da Apple e, agora,
Horatio Alger, da contracultura, decidiram que era o momento de fazer um bom uso de todo
o seu dinheiro. Abandonando a empresa, decidiu reviver o espírito dos tumultuados anos
60. Produziu um festival de rock ao ar livre — maior do que o de Woodstock, e inteiramente
dedicado a revelar a promessa da Era da Informação. Aconteceram dois destes eventos, um
em 1982 e outro em 1983. Juntos custaram a Wozniak 20 milhões de dólares de seu próprio
bolso. Os rebeldes, os que haviam abandonado a faculdade, os sobreviventes do movimento
hippie, as estrelas de rock vieram de todo o país para se juntarem à nova riqueza do Vale
do Silício e criar ... quem poderia dizer que possibilidades revolucionárias?
Foram os “U. S. Festivais.”
Saudosistas e tecnófilos
As visões do futuro foram geralmente divididas em dois campos filosóficos. O primeiro —
que poderia ser chamado de panorama saudosista, queria o final do mundo industrial. O
artista e líder socialista do século XIX, William Morris, é um exemplo deste ponto de vista.
Angustiado com os horrores morais da vida industrial vitoriana e com os horrores estéticos
da produção de massa, Morris (no seu News from Nowhere — Notícias de Lugar Nenhum)
imaginava um futuro pós-industrial que recriava o passado pré-industrial, sociedade de
aldeias, fazendas de famílias e organizações tribais. Seu ideal econômico se baseava em
trabalhos manuais; o governo era um arranjo comunitário informal entre bucólicos
virtuosos.
Por outro lado, outros utópicos — os tecnófilos — apoiaram entusiasticamente o
sistema urbano-industrial, esperando vê-lo amadurecer em direção a uma ordem de vida
totalmente nova, na qual ciência e tecnologia dominariam permanentemente as forças da
natureza e reprojetariam o planeta. Este é o futuro previsto por Francis Bacon em seu New
Atlantis e por H. G. Wells em seu Shape of Things to Come.
O futuro imaginado pelos hackers guerrilheiros é único em sua determinação de
sintetizar estas duas imagens aparentemente contraditórias. Comprometidos por seus dotes
e preferências no que se refere à expansão da high tech, não hesitaram em percorrer todo o
repertório da eletrônica computacional e de telecomunicações globais. Mas a nova
tecnologia faria parte de um contexto político orgânico e comunitário. De alguma maneira,
os caminhos populares do Homebrew Computer Club e da Memória Comunitária seriam
preservados. Tudo poderia ser mantido descentralizado e numa éscala humana; de fato, o
computador poderia tornar isto possível. Isto engendraria uma nova democracia
“jeffersoniana”, baseada não na distribuição igualitária da terra, mas no igual acesso à
informação. O destino do microcomputador era criar uma cultura global de aldeias
eletrônicas localizadas num ambiente natural e saudável — o tipo de mundo que se encontra
nas páginas do Whole Earth Catalog. Neste panorama charmoso e idealizado, pode-se
imaginar o terminal de computador como uma espécie de lareira ou fogueira em volta da
qual, através de transmissores de satélite, os clãs se reuniriam para fofocar e fazer grafitos
com seus parceiros do outro lado do mundo. Esta imagem do mundo era tão rústica que se
poderia acreditar que o computador era um novo tipo de arado. Havia, por exemplo, o
poema escrito por Richard Brautigan no fim dos anos 60. O título, “All Watched Over by
Machines of Loving Grace” [“Sob os Olhos Atentos das Máquinas de Graça Amorosa”],
foi mais tarde usado pela Loving Grace Cybernetics, a companhia que instalou o
experimento da Memória Comunitária, em Berkeley, 1973.
“I like to think (and
the sooner the better!)
of a cybernetic meadow
where mammals and computers
live together in mutually
programming harmony
like pure water
touching clear sky
I like to think
(right now, please!)
of a cybernetic forest
filled with pines and electronics
where deer stroll peacefully
past computers
as if they were flowers
with spinning blossoms

I like to think
(it has to be!)
of a cybernetic ecology
where we are free of our labors
and joined back to nature
returned to our mammal
brothers and sisters,
and all watched over
by machines of loving grace” 8 *

O computador não foi nem a primeira, nem a única peça da tecnologia avançada a
ser assimilada por esta híbrida visão saudosista-tecnófila. Antes disso, como vimos, havia
uma fascinação similar com o domo geodésico de Fuller, que se tornou, para muitos
participantes da contracultura dos anos 60 e 70, uma espécie de tenda futurista. O maior
esforço feito neste período para se construir uma aldeia de domos foi a chamada Drop City,
localizada nos arredores de Trinidad, Colorado. Os domos foram montados a partir de
sucatas de automóvel encontradas no monturo mais próximo. Enquanto durou, de 1965 a
1975, Drop City procurou ser uma mistura da engenharia sofisticada e simplicidade tribal.9
Seguindo a mesma linha de pensamento, estava a burlesca metafísica de media de Marshall
McLuhan, que via a televisão e o computador como grupos de edifícios eletrônicos da
“aldeia global”, aldeia esta que seria aconchegante e participativa, ainda que
tecnologicamente sofisticada. Havia o arquiteto Paolo Soleri, que acreditava que a solução
para a crise ecológica poderia ser encontrada nas suas “arcologias” megaestruturais —
cidades-formigueiros, nas quais bilhões de pessoas poderiam ser ordenadamente
compactadas. Havia Gerard O’Neill, que viajava pelo país fazendo palestras onde fosse
possível, distribuindo entusiasmo como o mais desenfreado de todos os esquemas: a criação
de uma colônia espacial auto-suficiente, uma espécie de “fronteira elevada” onde o espírito
pioneiro poderia renascer.
Em determinado momento entre os anos 60 e 70, cada uma dessas visões se tornou
favorita dos adeptos da contracultura; O’Neill, de maneira especial, foi durante alguns anos

8
O poema aparece em The Pill Versus the Springhill Mine Disaster, Nova Iorque, Dell/Laurell, 1973.
*
Tradução livre em português: Eu gosto de pensar (e/ quanto antes melhor!)/ numa campina cibernética/ onde mamíferos e
computadores/ vivem juntos em mútua/ harmonia programável/ como água pura/ tocando o céu límpido./ Eu gosto de pensar/
(agora, por favor!)/ numa floresta cibernética/ cheia de pinheiros e acessórios eletrônicos/ onde cervos vagueiam pacificamente/
perto de computadores/ como se fossem flores/ com botões suaves./ Eu gosto de pensar/ (tem que ser!)/ numa ecologia
cibernética/ em que, livres do trabalho/ e unidos novamente à natureza/ retornamos a nossos irmãos e irmãs mamíferos/ e tudo
sob os olhos atentos/ das máquinas de graça amorosa. (N. T.)
9
Hugh Gardner, The Children of Prosperity, Nova Iorque, St. Martin’s Press, 1978, pp. 35-48.
o projeto favorito de Stewart Brand e o Co-Evolution Quartely, sucessor do Whole Earth
Catalog.10 Permeando cada uma dessas visões, pode-se perceber a mesma interação de
valores e fantasias, a mesma esperança de que a estrada da tecnofilia nos conduza a um
futuro saudosista. Quando H. G. Wells imaginou Things to Come [O Devir], ele vislumbrou
um mundo urbano estéril, dirigido por uma elite tecnocrata benevolente. Mas para muitos
adeptos da contracultura, o resultado da alta tecnologia industrial seria algo como uma
democracia tribal, onde os cidadãos estariam vestidos com peles de animais e iriam colher
morangos nas florestas.
Algumas vezes, esse desejo de síntese rústica e tecnologia avançada parecia ter
origem em apenas algumas metáforas muito enganosas. Assim, a concepção de McLuhan
dos meios de comunicação de massa urbanizados, levada a extremos, torna-se uma “aldeia”.
Para O’Neill, o foguete espacial e o satélite, desenvolvidos numa escala gigantesca, voltam-
se para nós como uma “fronteira”, que para seus entusiastas parece ser algo como o mundo
da cabana de madeira e do fogão à lenha. Os fãs que organizaram a Sociedade L-5 para
divulgar as idéias de O’Neill gostavam de imaginar um panorama de lares e jardins
orgânicos que se estendiam até milhas dentro de caixas orbitais de aço, além de infindáveis
brincadeiras em função da falta de peso, jogos de mergulhar no céu e a prática de wind surf
com gravidade zero. Mesmo as elevadas colméias humanas de Soleri eram vistas como uma
maneira de preservar o ameaçado mundo selvagem na sua forma primitiva — embora se
possa apenas estremecer ante a perspectiva de dez mil moradores colocados na fila de
elevadores, esperando para ir até a área de piquenique.
Finalmente, para os remanescentes da contracultura do final dos anos 70, mais do
que domos e colônias espaciais, seria a informação digital que conduziria o mundo para a
terra prometida pós-industrial. O computador pessoal daria a milhões de pessoas acesso a
bancos de dados de todo o mundo, os quais — assim se encaminhava a argumentação —
eram a condição essencial para uma cidadania autoconfiante. Redes computadorizadas e
jornais-murais manteriam as aldeias eletrônicas em contato, trocando informações vitais
que a elite do poder estaria talvez evitando fornecer. Ao mesmo tempo, inteligentes hackers
iriam penetrar nos bancos de dados classificados que guardavam os segredos das
corporações e os mistérios de estado. Quem teria previsto isto? Através dos terminais de
vídeo da IBM, de linhas telefônicas da AT&T, de fotografias espaciais do Pentágono e dos
satélites de comunicação da Westinghouse, um movimento mundial de rebeldes possuidores
da “habilidade computacional” se insurgiria para construir uma comunidade orgânica. Eles
poderiam mesmo sobreviver ao colapso total do sistema industrial que tinha inventado essas
tecnologias, pois havia uma visão desolada do holocausto termonuclear profundamente
misturada aos instintos de sobrevivência da contracultura. Uma das expressões mais
bizarras da visão de mundo dos hackers guerrilheiros era a de Lee Felsenstein, um dos
fundadores do Homebrew Computer Club e da Memória Comunitária, e mais tarde, o
criador do computador portátil Osborne. O estilo tecnológico de Felsenstein — enfatizando
simplicidade e reaproveitamento de material — surgiu de uma visão apocalíptica do futuro
industrial. Assim ele via o futuro:
A infraestrutura industrial poderia nos ser arrebatada a qualquer momento, e
as pessoas deveriam estar preparadas para surrupiar partes que serviriam para

10
Para O’Neill, ver seu livro High Frontier, Nova Iorque, Doubleday, 1982, e a publicação de outono de 1975 Co-Evolution
Quarterly apresentando seu projeto. Para Soleri, ver sua Arcology, MIT Press, Cambridge, 1970.
manter suas máquinas funcionando nos entulhos da sociedade devastada; o
ideal seria que o projeto das máquinas fosse suficientemente claro para permitir
que os usuários soubessem como instalar essas partes.
Como Felsenstein disse uma vez: “Devo projetar de tal maneira que você possa
montar tudo com peças tiradas de latas de lixo”.11

Domos, dados e drogas


É importante perceber o idealismo político que sustentava as esperanças dos hackers
guerrilheiros. Também é muito importante reconhecer que a síntese saudosista-tecnófila em
que se baseavam essas esperanças é tão ingênua quanto idealista. Tanto é assim que
sentimos a necessidade de irmos mais fundo para descobrir o segredo disto que é a estranha
persuasão para tantas mentes brilhantes. Pois, como alguém pode acreditar em alguma coisa
tão improvável?
Se nós investigarmos um pouco mais a fundo as origens da contracultura — voltando
ao final dos anos 50 e início dos anos 60 — vamos encontrar o que pode ser uma reveladora
conexão entre os valores saudosista e tecnófilo. No começo era a música — sempre o maior
condutor do movimento: música folk, depois rock and roll e depois rock com todas as
mutações. Logo de início, a música, da maneira que era apresentada em concertos e nos
novos clubes daquela época, assumiu um modo especial, que hoje em dia é comum no
cenário da música popular: era amplificada eletronicamente. Seu poder vinha do
equipamento. A jovem audiência que lotava os clubes podia estar portando emblemas de
não filiação à sociedade industrial, mas queria a música explosivamente amplificada e
modulada com perícia através dos melhores meios disponíveis; queria sentir a pulsação em
seus poros. A música precisava, então, de máquinas. E conforme ia chegando a década
seguinte, a música passava a necessitar cada vez mais de máquinas, pois o gosto estético da
época clamava por uma tecnologia de gravação totalmente nova, substituindo os músicos e
seus instrumentos pela mais complexa engenharia de som, e finalmente com vários tipos de
realces digitais. Por vezes, o estilo do músico procurava ser cru, sem adornos, “natural”. No
caso de Bob Dylan, talvez tenha havido um desejo de encontrar uma autenticidade sem
polimento e singular. Mas os técnicos assumiam com firmeza o controle da música.
Queriam ter a certeza de que o som sairia “profissionalmente” sem polimento,
“peritamente” singular.
O rock era apenas uma experiência sonora, nada além disso e esperava-se que
produzisse uma explosão na mente. Como um especialista do rock daquela época colocou,
Por si mesmo, sem a ajuda de luzes estroboscópicas e outros artifícios
subimaginativos, [o rock] atrai todo lado sensorial, apelando para a inteligência
sem a interferência do intelecto... O rock é um fenômeno tribal... e constitui
naquilo que poderia ser chamado de mágica do século XX.12

11
Levy, Hackers, p. 251.
12
Chester Anderson, San Francisco Oracle, 6.11.1967.
Mas logo a audiência também passaria a exigir as luzes estroboscópicas: êxtase tanto
para os olhos quanto para os ouvidos. Assim, em toda parte, os shows de luzes se tornaram
um acessório para as apresentações de rock. Os shows eram mais que um acompanhamento
visual para a música. Eram absorvidos de um só gole, como uma forma de reproduzir e/ou
criar a experiência psicodélica. Eram uma visível assinatura das drogas. Desde o início, a
principal droga da época foi o LSD, ele próprio, uma tecnologia, um produto de laboratório
que surgiu após uma pesquisa avançada da empresa farmacêutica suíça Sandoz.
No início do período de pós-guerra, o LSD e outros alucinógenos de laboratório
pertenciam a um público pequeno, elitista, constituído principalmente de ricos psiquiatras
e sua clientela da alta sociedade. Naquele época, antes do LSD ter adquirido uma aura
criminosa, publicações importantes como Time e Life estavam preparadas para louvar as
suas muitas vantagens terapêuticas. Mas no começo dos anos 60, os alucinógenos
encontraram um outro público, menos respeitável; eles estavam sendo vendidos aos poetas
beat e à juventude que fugira da universidade, nas ruas de Haight-Ashbury e em Greenwich
Village, como a salvação de nossa perturbada cultura. Em pcruco tempo, Thimothy Leary
estava disseminando a droga por toda a América; na área da baía de São Francisco, em
1966, Ken Kesey e seus “Felizes Traquinas” distribuíam alegremente, para grandes
audiências, doses deste misterioso elixir (ou prometiam distribuir) em eventos públicos
como os Testes Ácidos ou o Festival de Viagens.
A asserção subjacente a tais esforços de maciça distribuição era simples: a droga
salva sua alma. Como os sacramentos católicos, faz efeito ex opere operato — através de
sua própria aplicação. Depois que essa promessa encontrou o crescente interesse no
misticismo oriental, as drogas psicodélicas foram lançadas como sendo uma força cultural.
Parecia claro que os laboratórios de pesquisa da sociedade ocidental — incluindo as
gigantescas corporações farmacêuticas — apresentaram ao mundo um substituto para as
antigas disciplinas espirituais do Oriente. Ao invés de uma existência de contemplação,
umas poucas gotas de ácico feito em casa, numa pílula de vitamina, concretizariam a
mágica. Era o caminho mais curto para a “iluminação”.
“Para viver melhor através da química” era o lema da Companhia Dupont. E
milhares de jovens com as cabeças cheias de ácido estavam prontos para concordar. Eles
tinham ouvido a música; eles tinham visto as luzes coloridas, eles tinham experimentado a
droga. Nada foi mais significativo para conduzir a contracultura até o caminho da tecnofilia
ingênua do que este sedutor trio de delícias. Se a alta tecnologia do mundo ocidental poderia
oferecer um tesouro espiritual tão grande, por que não ter mais?
Esta é a razão pela qual Buckminster Fuller, Marshal McLuhan e outros acertaram o
acorde sensível entre os jovens da contracultura. O ácido e o rock tinham preparado uma
audiência para a mensagem daqueles homens, e a prepararam de maneira especialmente
persuasiva, que atingia os níveis do cérebro cheio. Pois os psicodélicos permitem uma
experiência poderosa, às vezes até mesmo destruidora. Combinados com a música e com as
cores que invadem os sentidos de maneira total, os psicodélicos fazem com que qualquer
coisa pareça impossível. Eles trazem uma sensação de magnificência e de euforia que faz
com que os mais austeros problemas políticos pareçam ser tigres de papel. Ao mesmo
tempo, a experiência conduz aos primordiais poderes místicos da mente — isto, de acordo
com seus disseminadores — que ainda brotam, ou deveriam brotar, em regiões exóticas do
globo, entre os praticantes nativos e as figuras tradicionais como o lendário Don Juan, de
Carlos Castaneda. Esta experiência, adquirida através dos laboratórios da nossa cultura
industrial, de alguma maneira, aliou seus discípulos com o antigo, o primitivo, o tribal. Aqui
encontramos a mesma combinação surpreendente do sofisticado-científico e do natural-
comunitário que Buckminster Fuller reivindicou para a geometria do domo geodésico e que
os hackers do Vale do Silício poderiam eventualmente reivindicar para o computador
pessoal.
Numa entrevista de 1985, comenta-se que Stewart Brand teria dito: “Esta geração
engole computadores inteiros, da mesma forma que a droga”. Esta metáfora pode ser
literalmente mais verdadeira do que ele pensava.13

Declínio e queda
A meteórica história da “revolução” do microcomputador pode ser resumida em dois
sensacionais esforços de propaganda. No começo de 1984 — e não nos esquecendo do livro
de Orwell — a Apple Computadores exibiu um comercial de um minuto na televisão, com
custo de um milhão de dólares, durante a transmissão de um jogo super-bowl. O anúncio
foi planejado para ser visto apenas uma vez, estrategicamente colocado no clímax da quarta
parte do jogo — uma extravagância sem precedentes, que provocou muitos comentários nos
meios de comunicação de massa. Espelhando o tema do ano, o comercial mostrava o rosto
do “Big Brother” [Grande Irmão], dentro de uma monumental tela de televisão, fazendo um
discurso bombástico para uma patética massa de servis indivíduos uniformizados. Além de
tudo o que a cena poderia significar, estava clara a representação da estrutura monolítica
corporativista da indústria de computadores, mais obviamente da dominação da IBM,
naquela época o principal competidor da Apple e avançando rapidamente no mercado de
computadores domésticos. De repente, no meio do passivo auditório, surge um espírito
rebelde. É uma jovem musculosa. Ela se lança para frente e atira na tela um martelo que
poderia pertencer a Thor. A tela se despedaça. Os milhões de escravos estão livres.
Estas são imagens poderosas de desafio e libertação. Deixando de lado algum
exagero histriónico, o comercial capta o espírito dos guerrilheiros hackers que lançaram a
empresa Apple, com grandes esperanças para um populismo eletrônico que eles poderiam
encorajar.
No final de 1984, porém, o panorama da indústria de microcomputadores tinha
mudado significativamente. As vendas estavam paralisadas; o mercado parecia
completamente saturado. O reflexo da crise estava claro no enorme investimento que a
Apple fez em uma campanha de fim de ano. Novamente, com muita fanfarra, a empresa fez
uma extravagância sem precedentes. Adquiriu cada polegada do espaço dedicado a
comerciais na edição especial de eleições de novembro da revista Newsweek e preencheu
as páginas com seu próprio material. O tema da edição era audaciosamente definido como
o “princípio da democracia aplicado à tecnologia: uma pessoa, um computador” — o novo
Macintosh da Apple. Mas o que a Apple tinha agora a dizer em favor do computador
pessoal? Na revista, foi publicada a estória fictícia de um jovem empresário inteligente (um
yuppie, como foi chamado), presumivelmente um “ex-escravo” da IBM, agora capaz de

13
Brand, cit. em San Francisco Focus Magazine, fev. 1985, p. 107.
exercitar a liberdade que a Apple lhe concedeu. O jovem tem uma idéia “quente” e quer
entrar nos negócios. Sendo magnata bem informado e esperto, ele seleciona os
computadores e os programas da Apple para planejar seu produto e manter sua
contabilidade. E qual é o seu produto? Splendora Gourmet Baby Food (comida para bebês).
Realmente, uma queda com relação ao ataque idealista contra o “Grande Irmão” do
começo do ano. Mas, sem dúvida, uma assertiva mais realista a respeito de onde se pode
encontrar mercado para os microcomputadores.
No começo de 1985, Steven Jobs, naquela época ainda presidente da Apple, estava
preparado para admitir o que muitos críticos já suspeitavam há algum tempo: que o mercado
de computadores domésticos foi bastante superestimado. Sem ter um uso específico
claramente definido, que todo eletrodoméstico deve ter, o computador doméstico se tornou
uma confusa máquina que serve para tudo, sendo que muitas das suas aplicações (controlar
talões de cheques, guardar receitas, fazer listas de endereços) eram perfeitamente
dispensáveis. Gente demais — talvez a maior parte daqueles que podiam pagar o preço da
máquina — comprou o computador doméstico sem ter nenhuma idéia sobre como utilizá-
lo. As instruções que acompanharam o equipamento (estranhamente chamadas de
“documentação” — em si um sinal de mistificação técnica) eram freqüentemente
incompreensíveis; muitas vezes, o computador fazia as coisas simples ficarem inanemente
complexas. E então, não importando o quão cuidadosos os usuários pudessem ser ao
selecionarem seus programas na confusão desordenada das lojas, certamente, em poucos
meses, sempre aparecia algo melhor ou mais novo no mercado. O preço, incluindo os
acessórios e programas necessários, nunca era tão baixo quanto o anunciado. De fato, todo
equipamento doméstico de computação dificilmente chega a ser completamente adquirido;
sempre há mais alguma coisa para ser acrescentada de maneira a se tirar todo o proveito do
computador. Pelo menos, em relação ao consumidor comum, o dinamismo prolífico da
indústria de computadores — empresas novas, produtos novos, conceitos totalmente novos
— mostrou ser frustrante. “Agora” nunca parecia ser o momento para comprar.
Encarando as frouxas perspectivas para o mercado doméstico, Jobs estava preparado
para acreditar que o futuro do microcomputador estava no escritório e na escola. Se isto for
verdade, significa que existe um território pródigo para a tecnologia da informação, um
território que vai continuar a exercer uma poderosa influência em nossa economia, em nossa
política educacional, em nossa vida profissional. Mas, de qualquer maneira, isto foi uma
mudança dramática na carreira do microcomputador. Algo importante foi perdido,
possivelmente a visão idealizada da informação e da sua utilização social. Durante os dez
vertiginosos anos, entre meados de 1970 e meados de 1980, o ideal de um populismo
eletrônico baseado na distribuição quase universal de computadores pessoais se tornou mais
débil. A empresa de computadores Apple, a defensora da causa, ganhou seu espaço
comercial — duramente conquistado — atacado não apenas pela indómita IBM (agora
unida à MCI Telecommunications, aos telefones ROLM e à Merrill Lynch MarketNet
System), mas também pela nova investida da gigantesca AT&T no mercado de
computadores domésticos e de escritórios. A tecnologia estava retornando ao seu
gigantismo original. Conforme declarou um executivo na área de computadores, “existe
uma tal mudança no mundo atual que fica difícil para o sujeito da garagem tornar-se o
próximo Apple”. De fato, a dominação renovada da IBM está sendo vista por alguns como
a única chance da América poder competir com os japoneses. A empresa foi retratada como
“uma corporação Rambo, um símbolo vivo de que o sistema industrial americano ainda
conserva um pouco de vida”. Pode-se até mesmo ouvir um suspiro de alívio em todo o
mundo dos negócios quando as grandes corporações provam novamente sua
invulnerabilidade.14 Nesse meio-tempo, a sociedade de cidadãos-hackers vivenciou a aldeia
de domos, e com ela um capítulo pitoresco e controverso da política da informação chegou
ao fim.

14
Joel Kotkin, “IBM Takes on the Mantle of America’s Champion”, Washington Post especial, reimpresso no San Francisco
Chronicle, 14.10.1985, p. 26.
8. A política da informação

Nada senão os fatos


Fatos, somente, são desejados na vida. Não plante mais nada
e desmate o resto. Só se pode formar as mentes de animais
racionais sobre Fatos: nada mais será de alguma utilidade
para eles.
Mr. Gradgrind, em Hard Times, de
Charles Dickens.

Sem o computador, o culto à informação seria impensável. Entretanto, mesmo antes da


existência da mais primitiva máquina de processamento de dados, havia um movimento
político organizado que já reconhecia a força persuasiva de fatos e números no mundo
moderno. Estes eram os English Utilitarians [utilitaristas ingleses] do início do século XIX,
os discípulos que acreditavam no excêntrico filósofo Jeremy Bentham. Sua carreira, como
uma das influências intelectuais de maior alcance dos tempos modernos, nos oferece um
modelo crítico instrutivo. Todos os elementos essenciais do culto da informação lá estão —
a aparência de neutralidade ética, o ar de rigor científico, a paixão pelo controle
tecnocrático. Só falta uma coisa: o computador. Os benthamistas não tinham uma máquina
espetacular que pudesse deslumbrar o público com autoridade quase divina e conquistar sua
aquiescência perplexa. Posteriormente, essa falta de uma tecnologia intimidatória tomou
sua tendência ideológica aparente. Eles podem, portanto, servir como um estudo de caso,
lembrando-nos de que a informação nunca é neutra; ela é completamente política.
Os benthamistas constituem um dos primeiros movimentos especificamente
modernos da filosofia política; eles são parte inextrincável de um sistema industrial. O
próximo nome que adotaram — utilitarismo — reflete a praticidade teimosa, a asserção não
sentimental dos valores materiais que dominavam a nova ordem econômica de sua época.
A Inglaterra foi a primeira sociedade a entrar na era da máquina e da fábrica. Ela o fez às
apalpadelas, cegamente, através de tentativas e erros. No início do século XIX, cidades
industriais se desenvolviam da noite para o dia como estranhas protuberâncias na terra,
produzindo grandes perturbações. A população “explodiu” em número e começou a se
deslocar maciçamente através do campo. Formas totalmente novas de trabalho, propriedade,
marketing e invenções apareceram repentinamente e com elas novos valores sociais e novas
forças políticas. Os utilitaristas estavam entre os primeiros a captar a importância histórica
desta rápida e confusa transformação e a fazer um brinde àquilo que muitos outros viam
como uma calamidade social. Além disso, intuitivamente, eles perceberam que, em
sociedades tão cronicamente dinâmicas quanto a Inglaterra estava se tornando, o controle
de fatos — ou até mesmo o controle aparente dos fatos — gera poder. Ele cria a impressão
de competência, confere a habilidade para governar.
Em uma sociedade industrial, a mudança é a ordem do dia. Mas a mudança destrói
antigas certezas; ela desnorteia e gera ansiedade. Em meio ao caos aparente que surgiu com
a revolução industrial, os utilitaristas corajosamente tomaram a iniciativa filosófica,
insistindo que a mudança poderia transformar-se em progresso se fosse utilizada como uma
oportunidade para reformas. E o segredo da reforma era o controle de fatos, muitos fatos.
Em sua época, os utilitaristas eram também conhecidos como “radicais filosóficos”,
precisamente porque eles estavam dentre os mais fortes campeões da reforma em todos os
setores — direito, economia, educação, bem-estar, prisões, saneamento. Em suas várias
campanhas para melhorias públicas, um intensivo levantamento de dados era sempre a
primeira medida. Eles eram guiados pela convicção de que os fatos, se colhidos em
quantidade suficiente, poderiam falar por si próprios. Alinha-os na página ,e eles revelarão
desperdício, corrupção, ineficiência, onde quer que existam.
O historiador G. M. Young descreve o que ele chama de “fórmula benthamista”, que
consiste em “inquirição, legislação, execução, inspeção e relatos”.1 As etapas de inquisição,
inspeção e relato da fórmula deram origem às grandes investigações públicas do período
vitoriano, por comissões parlamentares e reais. Hoje, nós sabemos que o governo está
envolvido em coletas de dados. Mas essa era uma nova e estranha idéia nos tempos de
Bentham, quando ainda nenhuma sociedade se preocupara em fazer um censo acurado. Os
utilitaristas mudaram tudo isso. “Em poucos anos”, observa Young, “o público havia sido
inundado com fatos e números relacionados com todos os aspectos da vida nacional...
Nenhuma comunidade na história havia sido submetida a um exame tão minucioso”. Não
era incomum que uma única comissão vitoriana produzisse vários volumes impressos
repletos de dados e estatísticas. E se a inquirição resultasse na criação de uma nova agência
administrativa, como geralmente ocorria, então a manutenção de registros crescia como
uma bola de neve; o levantamento de dados do governo continuava anualmente. Antes da
metade do século, essas grandes quantidades de informação passaram a ser compiladas nos
famosos “Livros Azuis Vitorianos”, a coleção mais densa de estatística social na história
humana.
Os “Livros Azuis” foram a fonte da qual Karl Marx mais tarde tiraria toda a
amaldiçoadora evidência de que precisava para a sua acusação do capitalismo. Ele não
sentia que precisava mover-se de sua escrivaninha no museu britânico para realizar sua
tarefa. Todos os dados de que necessitava estavam diante dele, em preto e branco. Na época
do primeiro ministro Gladstone, no final do século, graças ao estilo benthamista arraigado,
a prática política havia sido dramaticamente remoldada. “O conhecimento dos fatos”,
observa Young, “e uma manipulação débil dos números era ... a prova mais segura da
capacidade” na vida pública. Gladstone, cujos orçamentos cuidadosamente elaborados eram
o novo padrão mundial da política moderna, foi talvez o primeiro político a construir uma
carreira sobre o controle magistral da estatística social. Ele se sairia muito bem atualmente
em um debate presidencial norte-americano, despejando números em todas as direções.
Em seu fascínio pela coleta de dados, os utilitaristas podem ser vistos como os
herdeiros distantes de Francis Bacon. O interesse de Bacon, é claro, era ciência; o de
Bentham eram os assuntos legais e a economia. Mas há uma conexão entre os dois. Tal
como Bacon acreditava que dados poderiam ser organizados convenientemente segundo as
leis da natureza, os utilitaristas acreditavam que os fatos sociais produzidos por inquirição
precisa provariam instantaneamente as falhas de leis e instituições existentes, apontando

1
G. M. Young, Victorian England: Portrait of an Age, 2ª ed., Oxford, Oxford University Press, 1964, pp. 11, 32-33.
assim diretamente para a solução óbvia. Esta convicção deu aos utilitaristas um certo ar
impetuoso, mas refrescante, de suprema confiança. Eles estavam prontos para investigar
tudo com um olho crítico agudo, independentemente de quão tradicionais e veneráveis eles
fossem. Eles se deleitavam em sua insurgência intelectual, encantando-se em mostrar a
loucura e a confusão dos velhos costumes, dos quais havia muitos ainda vivos e ativos na
sociedade inglesa. Eles se encorajavam com sua arma peculiar: o fato, o fato onipotente,
contra o qual nem o sentimento nem a retórica emocional poderiam se colocar.
Ainda assim, apesar de sua postura de objetividade estudada, os utilitaristas
realmente trabalhavam a partir de uma ideologia política definida, de uma agenda de idéias
e ideais “não tão oculta” que servia para ativar a informação que eles coletavam. É
importante ressaltar esse aspecto de seu trabalho porque ele revela a inevitável atuação
recíproca entre idéias” e informação. No caso dos seguidores de Bentham, isto pode ser
visto claramente em sua mais ambiciosa campanha oficial para levantamento de dados: o
estudo nacional do British Poor Law em 1833. Este foi o maior projeto de investigação já
realizado. A inquirição abrangeu a nação, tocando em pontos específicos, tais como a
pesagem de pão e mingau servidos em asilos de indigentes em todo o país.
Sabemos, hoje, que os utilitaristas que trabalhavam neste levantamento estavam
dispostos a abalar o sistema. Eles documentaram assiduamente o desperdício, a
inconsistência, a inépcia da Old Poor Law. Isso não era tão fácil de se fazer. A Poor Law,
na realidade, não era uma única lei, mas uma miscelânia, com séculos de idade, de estatutos
e regras para se lidar com todas as formas de dependência social: os doentes, os idosos, os
aleijados, os desempregados, os órfãos, os loucos. No decorrer de gerações, este programa
polivalente foi tornando-se um emaranhado incoerente de contradições e improvisos. Os
utilitaristas, registrando a confusão, rapidamente convenceram o governo de que a lei
deveria ser substituída por um programa de sua própria elaboração, novo, uniforme,
centralizado, e bem mais barato. Eles ganharam sua causa. O resultado foi o sistema
draconiano de asilo para pobres que vemos retratados nos romances de Charles Dickens.
Apesar da comissão da Poor Law procurar tornar seu estudo completamente neutro — uma
inquirição puramente profissional baseada nos princípios de uma economia sã — ela foi
moldada desde o início por uma filosofia social bem estruturada, baseada, por exemplo, no
pressuposto de que a pobreza era uma forma de parasitismo criminoso que merecia ser
punido, é que um sistema de licenças generoso demais apenas corromperia a vontade de
trabalhar do povo. Por trás da investigação se escondia uma visão desoladora da natureza
humana e uma implacável obsessão por valores monetários. Os utilitaristas acreditavam
piamente que os pobres deveriam ser chicoteados para trabalhar. Isso os tornava aliados de
proprietários de fábricas, que haviam reduzido as condições de trabalho a um nível
desumano. Não seria um exagero afirmar que, com a arma dos fatos puros em suas mãos,
os benthamistas ajudaram a produzir a mão-de-obra da revolução industrial.
Assim, os utilitaristas, que tão cedo deram uma contribuição importante para o culto
da informação, estavam tão motivados, política e moralmente, quanto qualquer outro grupo
de influência política. Eles podem ser vistos como os precursores de todo o pensamento
militar e centros atuais de estudo de política, que continuam a preencher a arena política
com decisões ideologicamente comprometidas, mas colocadas de forma a parecer
exercícios meramente acadêmicos. De fato, foi porque os utilitaristas uniam a sua paixão
por pesquisa social a uma filosofia social não sentimental, de sangue-frio, que eles foram
bem-sucedidos em transformar sua fundamentada preocupação com fatos ofensivos em um
espírito mais humanista como Dickens. Em Hard Times, seu romance clássico sobre uma
cidade industrial primitiva, Dickens retrata os utilitaristas como burros de carga desalmados
e hipócritas que acreditavam que os fatos são mais reais do que a carne. O estereótipo do
utilitarista, para Dickens, é Mr. Gradgrind, o diretor da escola, que crê que a essência da
educação é preencher as mentes de seus alunos com o máximo de informação possível.
Fatos, somente fatos. Ê o sistema escolar, tal como Dickens percebeu com perspicácia, que
forma as mentes da época. E na escola de Mr. Gradgrind não há espaço para nada a não ser
dados e quantidades atomísticas.
O que é um cavalo? ele pergunta aos seus alunos. A resposta chega aos fatos da
questão.
Quadrúpede, graminívoro. Quarenta dentes, precisamente vinte e quatro
molares, quatro caninos e doze incisivos. Muda os pelos na primavera; em
regiões pantanosas perde os cascos. Cascos duros, mas necessitando ferrar.
Idade conhecida através de marcas na boca.
Se os computadores existissem em sua época, Mr. Gradgrind teria se apressado em
inundar sua escola com o apertar de um botão, talvez com gráficos animados em uma
simulação tridimensional. Mas seu quadrúpede puramente estatístico ainda assim não teria
sido uma criatura viva.

Fartura de dados
O novo poder não é o dinheiro nas mãos de poucos, mas a
informação nas mãos de muitos.
John Naisbitt,
Megatrends

No que se refere à negociação de dados, nossa política se tornou o sonho realizado de um


utilitarista. O implacável levantamento de dados que Bentham e seus seguidores viam como
uma necessidade da vida em uma sociedade urbano-industrial se instalou permanentemente
em um contingente crescente de repartições públicas e agências governamentais. O
computador se tornou uma grande indústria de serviço do setor privado. Os tomadores de
decisões, tanto particulares quanto públicas, agora possuem suprimentos ilimitados de
informação, fornecidos a uma velocidade relâmpago.
Nós podemos aprender uma lição política valiosa e aparentemente óbvia a partir do
exemplo dos utilitaristas que trabalhavam na arena da política pública. Não são
precisamente os fatos que determinam a política, mas mais freqüentemente a política é que
determina os fatos por seleção, ajustamento e distorção. Entretanto, faz parte do folclore da
Era da Informação a idéia de que o computador, especialmente o pessoal, nos trará um
renascimento democrático. A máquina que torna uma grande quantidade de dados
disponível a todos, em suas casas, está supostamente destinada a ser uma força libertadora.
A idéia tem sua origem em Marshall McLuhan, que previu, em meados dos anos 60, que
vários meios de comunicação elétricos transformariam o planeta em uma aldeia global, onde
“informação instantânea cria implicações em profundidade”.
McLuhan tinha em mente a televisão em primeiro plano; ele insistia que pessoas
sentadas passivamente diante de tubos de raios catódicos, assistindo uma apresentação
contínua de imagens de todo o mundo, estavam de alguma forma se tornando cidadãos mais
participativos. Entusiastas da computação têm ampliado a idéia para um novo uso da tela
de vídeo: sua capacidade de funcionar interativamente com seu espectador, produzindo um
fornecimento infinito de material de bancos de dados de toda a parte como resposta à
demanda do espectador. “O computador esmagará a pirâmide”, afirma John Naisbitt. “Nós
criamos o sistema gerencial hierárquico, piramidal, porque necessitávamos dele para
acompanhar as pessoas e o que elas faziam; com os computadores mantendo esse registro
podemos reestruturar nossas instituições horizontalmente.”
Esta perspectiva está certamente embasada em um diagnóstico peculiar de nossos
males sociais. Ela assume que o corpo político está faminto, em função da falta de
informação e que somente o computador pode suprir esta carência. Deve-se imaginar os
jornaleiros, as livrarias, as bibliotecas do país esvaziados pela população que consumiu suas
preciosas fontes de dados e que agora estão famintos daquilo que essas fontes não mais
podem fornecer.
Obviamente este não é o caso. O público mal esgotou a informação que está agora
prontamente a sua disposição. Pelo preço da assinatura de um dos melhores jornais do país
e de algumas revistas bem selecionadas, a maioria dos lares poderia econômica e facilmente
aumentar muito seu suprimento de informações. Aliás, uma só carta a um dos membros da
Câmara Legislativa em Washington trará uma enchente de publicações gratuitas repletas de
informação em qualquer área: audiências de comitê, relatórios especiais, brochuras,
folhetos. Tudo isso, milhares de pesquisas e estatísticas, emitidos por agências oficiais,
estaduais e federais, está disponível a qualquer cidadão interessado. Parte do que essas
fontes enviam pode ser confiável, parte não. Não há como se contornar o problema da
avaliação pessoal. Afinal, vários dos serviços de bancos de dados fornecidos pelo
computador foram compilados a partir das mesmas fontes. Um relatório do governo que é
publicado no New York Times e depois é digerido no terminal de dados NEXIS (disponível
a uma taxa mensal de 50 dólares, mais os custos de serviço que podem chegar a 28 dólares
por hora) não ganha credibilidade, automaticamente, ao ser computadorizado. Quanto a
segredos oficiais e dados confidenciais que freqüentemente podem constituir-se naquilo que
os cidadãos mais necessitam, não tendem a ser acessíveis a não ser para os espertos hackers
que conseguem se infiltrar em arquivos governamentais bem guardados.
Pode-se argumentar que, se o público tirasse proveito de toda a informação que o
correio americano pudesse entregar em sua porta, proveniente de fornecedores e
particulares, ele logo estaria nadando em dados.2 Em algumas das sociedades totalitárias do
mundo, o grande problema político pode ser uma censura oficial que trabalha para sufocar
o fluxo de informações. Na nossa, o problema é justamente o oposto. No mínimo sofremos
de uma fartura de informações não-refinadas, não-digeridas, que fluem de todos os
emissores que nos circundam. Eis um problema que os utilitaristas nunca previram: pode

2
Para uma amostra dos materiais disponíveis nas fontes do governo, ver Matthew Lesko, Information USA, um guia e manual
disponível em 12400 Beall Mt. Road, Potomac, MD 20854. Ver também Susan Osborn e Jeffrey Weiss, The Information Age
Sourcebook, Nova Iorque, Phanteon, 1982, que foi compilado de mais de 500 livros e brochuras sobre as atividades do governo.
haver informação em demasia. Tanta que a floresta se perde entre as árvores. O resultado é,
então, uma nova variedade de política, em que os governos não restringem o fluxo de
informação mas inundam o público com ela. Deve-se lembrar de 1984, de Orwell, no qual
os alto-falantes ubíquos do Big Brother falavam incessantemente das estatísticas
atordoantes de produção e consumo. Sem dúvida, em 1984 a informação era monolítica;
não havia competição crítica. Mas onde existem fontes em competição, como em nossa
sociedade, a estratégia do governo não é censurar, mas confrontar fato com fato, número
com número, pesquisa com pesquisa. Ainda se torna vantajoso haver muita disputa em torno
de fatos e números, uma tempestade estatística que adormece a atenção.
Do ponto de vista de alguns entusiastas da computação, a fartura de dados não é pior
do que um infeliz e temporário desequilíbrio no sistema. Então, John Naisbitt nos conta que
“temos pela primeira vez uma economia baseada em um recurso essencial não apenas
renovável, mas também autogerado. Sua falta não é um problema; afogar-se nele é. Os
dados agora estão se duplicando a cada vinte meses”. Entretanto, ele confiantemente prediz
que o problema brevemente será corrigido. Como? Pelos computadores. “A tecnologia da
informação traz ordem ao caos da poluição de informações e portanto dá valor aos dados
que, de outra forma, seriam inúteis”. Mais especificamente, um “negócio de seleção de
informações on-line” está aparecendo rapidamente; ele servirá para filtrar a fartura e
organizá-la conforme nossas especificações pessoais.
O que Naisbitt tem em mente são vários bancos de dados e serviços bibliográficos
especializados que os usuários de computadores domésticos podem assinar, frequentemente
a preços altos. Segundo uma avaliação, havia cerca de 2.200 terminais de dados no mercado
no início de 1985.3 Mas esses serviços são “seletivos” somente no sentido de organizar o
material por assunto, do mesmo modo que se faz com um fichário de biblioteca ou índice
de jornais. Nada sobre qualidade, honestidade, ou pertinência é sugerido pelo trabalho. Em
última análise, bancos de dados, como os demais auxílios de referência, são a criação de
pessoas que decidiram o que deveria e o que não deveria entrar no sistema. Os compiladores
de bancos de dados também cometem erros devido ao cansaço e à pane. O caráter
misterioso, oracular, do computador — sua operação impessoal e eficiente — pode ser
mascarado para os vários usuários, mas ele assim permanece. As firmas que montam os
bancos de dados tendem, indiscriminadamente, a incluir qualquer coisa que dê a seu serviço
uma aparência de respeitável especialização; certamente eles incluirão afirmações e fontes
oficiais, audiências do congresso, documentos e relatórios governamentais. Suponhamos,
então, que o tema de pesquisa seja o debate acerca do míssil MX. Um banco de dados
computadorizado dará, obedientemente, tudo o que possui sobre o assunto, incluindo todo
o material do Pentágono que foi produzido para consumo público. Qualquer seleção mais
refinada — digamos, quanto a quem está dizendo a verdade — deve ser inevitavelmente
deixada para os usuários. Se eles confiam em seu governo em tais questões, o acesso a um
banco de dados padrão como o NEXIS ou o Serviço de Referência Bibliográfica somente
fortalecerá o governo em seu ponto de vista, Se eles estiverem propensos a serem
hipnotizados por uma demonstração chamativa de fatos por especialistas da área, eles ainda

3
John Lamb, “Confusion Among the Databases”, New Scientist, Londres, 21.2.1985, p. 23. Lamb também lida com o problema
da incoerência entre os vários bancos de dados (códigos diferentes, protocolos e linguagens de comando), bem como gastos
crescentes com assinaturas e tributos. Deveria ser mencionado que o governo dos EUA é um dos maiores operadores de banco
de dados, muitos deles mais baratos ou gratuitos. Para um guia nesta verdadeira selva de informação, ver The Federal Database
Finder, também disponível em Lesko, Information USA.
serão as vítimas da fartura de dados. Nenhum banco de dados será inventado para responder
ao pedido: “mostre-me tudo o que é verdadeiro e relevante”.
Os entusiastas da computação fazem vista grossa ao fato de que a fartura de dados
não é uma flutuação acidental imprevista de suprimentos, como uma cultura de trigo
abundante. Ela é uma estratégia de controle social, manipulada deliberada e habilmente. É
uma das principais maneiras pelas quais os governos modernos e grupos de interesse
confundem questões em sua própria vantagem; eles ofuscam os cidadãos despejando mais
dados do que eles podem esperar organizar. Desde os debates Kennedy-Nixon, em 1960, o
estilo retórico predominante de nossa liderança política tem sido saturar a atenção pública
com informação — geralmente números: índices econômicos, projeções orçamentárias,
estatísticas sociais, proporções, porcentagens, tendências... Funcionou para Kennedy que
parecia possuir um cérebro computadorizado. Nos anos 80, Ronald Reagan ainda o
emprega, lendo números freqüentemente fictícios ou sem sentido, a uma velocidade de uma
milha por minuto. Os políticos que virão procederão da mesma forma, enquanto o público
estiver disposto a se impressionar ou se intimidar com um reservatório de fatos e números.
O computador não deu origem a este estilo traiçoeiro de discurso político. Como vimos, os
utilitaristas eram mestres no assunto quando o processamento de dados não era senão anotar
coisas no papel. Subjacente ao estilo, encontra-se a mística da destreza científica que dá
autoridade àqueles que conduzem os fatos de uma maneira fria e objetiva. O computador é
simplesmente corporificação mecânica desta mística; ele se vale de nosso respeito pelo
jargão científico e de nossa fraqueza com relação à dependência das máquinas. Mas ele
também permite que a informação seja compilada e manipulada de maneiras bem mais
estonteantes, sempre com a suposição de que tudo o que sai de um computador deve ser
confiável.
Nas eleições presidenciais de 1980, o público americano foi confrontado pelo
candidato Ronald Reagan com uma terrível taxação da defesa nacional. Os números
transbordavam em seus argumentos. Havia supostamente uma “janela de vulnerabilidade”
em nossas defesas que colocava a nação em perigo imediato de aniquilação. A “janela”
havia sido descoberta através de jogos de guerras simulados por computador. A
administração Reagan usou este panorama e a ansiedade resultante por parte do público
para iniciar o maior desenvolvimento militar da história para admitir somente a posteriori,
sob pressão crítica, que muitos dos seus fatos, números, suposições e deduções eram
errôneos.4 Mas, quando a oposição se deu conta dos erros, o Departamento de Defesa havia
aberto uma frente inteiramente nova, repleta de novos estudos, perspectivas e simulações.
Chamava-se “Iniciativa de Defesa Estratégica”: “Guerra nas Estrelas”.
Nunca foi novidade que os governos se entregam à tentação de mentir ou de enganar.
Mas lograr o público através da saturação de informações organizadas por especialistas em
uma quantidade superior àquela que ele pode digerir é uma virada decididamente nova e
altamente efetiva, na qual o computador contribuiu de forma indispensável.

4
Em janeiro de 1982, especialistas militares estavam questionando as simulações da campanha de Ronald Reagan. Ver relato de
Ian Mather em The Observer, de 24 de janeiro de 1982. Tanto a CIA como a Arms Control Association desafiaram os números
utilizados por Reagan como referências do armamento soviético. Ver New York Times, 3.3.1983, p. 1, 9.3.1983, p. 23, e o relato
“Knight News Service”, San Francisco Examiner, 18.6.1984, p. 1.
Questões de informação

A política da informação faz estranhos companheiros de cama. Somos assegurados pela


esquerda, direita e centro — pelos conservadores das regiões quentes, liberais da alta
tecnologia, hackers guerrilheiros — de que a informação trará poder aos cidadãos e salvará
a democracia. Mas em todos os casos somos confrontados com concepções de informação
que se espalham, pressupondo que pensar é uma forma de processamento de informação e
que, portanto, mais dados produzirão melhor compreensão. O resultado é que os entusiastas
da computação rapidamente se tornam vítimas da estratégia de “fartura” de dados, e então
procuram se defender voltando-se novamente para o computador, em busca de uma solução.
Não se encontra, porém, uma solução nos métodos mecanizados para organizar a
fartura. Pelo contrário, nós devemos insistir em um novo padrão de discurso político. Em
uma democracia relevante não é a quantidade, mas a qualidade de informação que importa.
Quais são os critérios de qualidade? Relevância, coerência e perspicácia. Como colocamos
estes critérios na jogada? Classificando a informação por assuntos. Estes assuntos, por sua
vez, são bem formulados quando ajudam a focalizar a atenção, a levantar questões, a
facilitar a crítica e finalmente quando nos permitem fazer escolhas com a sensação de que
distinguimos com inteligência entre todas as alternativas disponíveis.
Mais uma vez chegamos na importante distinção entre informação e idéias. A
informação se transforma em uma questão política quando é iluminada por uma idéia —
sobre justiça, liberdade, igualdade, segurança, dever, lealdade, virtude pública, boa
sociedade. Nós herdamos idéias desse tipo de nossa rica tradição em filosofia política: de
Platão e Aristóteles, Maquiavel e Hobbes, Jefferson e Marx. Muito pouco do que essas
mentes oferecem está relacionado com informação. Se estivesse, os dados seriam há muito
antiquados; mas as idéias sobrevivem — uma subestrutura ética sólida sobre a qual leis,
programas e sistemas continuam a ser elaborados, mesmo que por políticos que jamais
tenham lido esses pensadores. Além da filosofia discursiva, temas míticos fornecem
algumas das idéias mais duráveis de nosso repertório político. A imagem lendária do profeta
bíblico Nathan desafiando o rei David em nome de uma lei superior, a imagem de Adão e
Eva vivendo uma igualdade anárquica original, têm tido maior relação com energia
revolucionária do que qualquer obra de pesquisa sociológica. Quanto a isso, personagens
totalmente fabulosos de nossa cultura — os virtuosos meninos de rua de Horatio Alger ou
os pistoleiros do velho Oeste — têm ligação direta com a criação de valores políticos
populares. As grandes utopias de More e Bellamy e as anti-utopias de Huxley e Orwell não
têm, da mesma forma, nenhuma ligação com “fatos”; mas estas são imagens vivas da boa
(ou má) sociedade que dominam o imaginário popular. Tais idéias sobrevivem porque são
respostas poderosas a questões políticas universais; a profundidade da experiência, a
qualidade do pensamento, a magnitude das aspirações que participam destas respostas
impregnam-nas de uma especial persuasão. Os fatos, se têm algum valor, devem ser
utilizados a serviço de imagens e idéias como essas. Quando isso acontece, um bom fato
pode ter o valor de mil fatos irrelevantes.
Durante alguns anos, até que parou de ser publicado, eu assinei I. F. Stone’s Weekly,
um marco no jornalismo americano. Para seus leais leitores, o Weekly tinha mais valor do
que uma dúzia de jornais comuns; nenhum de nós o teria trocado por assinaturas gratuitas
das principais revistas de notícias. Ainda assim ele só tinha quatro páginas. Obviamente,
ele não continha muita informação; mas era fruto de uma inteligência política aguçada. Por
trás, havia uma mente que confrontava os casos do dia, sabendo quais as questões a
formular, e como discernir o relevante do inútil. Não era preciso concordar com Stone para
apreciar seu jornalismo; lucrava-se com suas orientações quando mostrava onde residiam
os contornos do debate público. Uma reportagem investigativa do calibre do trabalho de
Stone nos lembra de que notícias, que são a pulsação diária da política, nunca são apenas
informações; não são material factual bruto que sai do mundo com destino a um banco de
dados. São inquirições e interpretações específicas, baseadas em um conjunto sólido de
idéias sobre o mundo: o que importa, para onde caminha a história de nosso tempo, o que
está em jogo, quais são os objetivos secretos, qual é a grande perspectiva? As respostas a
tais questões são as idéias que determinam o valor da informação. Frequentemente o que
deve fazer um bom jornalista é jogar fora toneladas de dados desnorteantes para chegar à
verdade vívida.
É a vitalidade vívida dos assuntos que salva a democracia. No máximo o computador
dá uma contribuição limitada e marginal para esta meta. Certamente os resumos e recortes
que seus novos serviços oferecem (como o CompuServe Information Service e The Source
Newswire, editado pela United Press International) são irrelevantes em relação a qualquer
assunto além de relatórios do tempo e da bolsa de valores. Como nação política, estaríamos
em melhor situação se o público de maior influência tivesse contato ativo com alguns bons
jornais de opinião (de esquerda, direita e centro) do que se tivéssemos um computador
pessoal em cada residência.

Comunidade on-line: a promessa das redes


Ainda há um uso mais promissor para os computadores além da luta para vencer a fartura
de dados. De fato, este tem sempre sido um item estritamente secundário na agenda de
muitos hackers engajados politicamente. A informação que eles mais querem obter não tem
relação com bancos de dados, mas sim com as idéias de outras pessoas. Sua esperança tem
sido de que a capacidade de formação de redes da tecnologia — a habilidade de conectar
computadores pessoais através dos fios telefônicos — possa ser um meio de construir
comunidades preocupadas com a questão da cidadania. O resultado seria um fórum de
opiniões e debates. Seymour Papert tem notavelmente defendido o ideal de “culturas
computadorizadas alternativas”, não só entre minorias e grupos especiais de interesse dentro
das sociedades industriais avançadas, como também entre as nações do Terceiro Mundo.
Em larga escala, sua linguagem de programação LOGO visa ajudar crianças e adultos de
pouca instrução a obter uma habilidade computacional suficiente para que possam constituir
sua própria cultura computadorizada. Sua esperança é de que as redes de computadores
possam servir para fazer as sociedades subdesenvolvidas saltarem para o século XX,
permitindo-lhes o acesso a várias formas de conhecimento (educação, medicina, comércio,
agricultura).5

5
Para uma discussão da idéia de Papert das culturas do computador, ver James Dray e Joseph Menosky, “Computers and a New
World Order”, Technology Review, maio-jun. 1983. Ver também o primeiro capítulo do Mindstorms, de Papert.
Infelizmente, mas com freqüência, a formação de redes deste tipo também acaba
caindo no rótulo crescente de “informação”: é um uso, porém, claramente diferente do
computador, que oferece possibilidades dignas de serem exploradas. Algumas já estão
disponíveis de uma forma pioneira. Redes comerciais como CompuServe (com cerca de 75
mil assinantes) e The Source (com cerca de 40 mil) agora possibilitam aos usuários de
computadores domésticos se reunirem em uma teleconferência nacional sobre uma
variedade de tópicos. Os grupos especiais de interesse da CompuServe incluem discussões
contínuas de várias questões políticas e sociais. A linha de conferência PARTI do The
Source tem sido utilizada pelo deputado Edward Markey (democrata — Massachusetts)
para levantar opiniões acerca do impasse nuclear. PARTI também foi chamada por seus
assinantes após crises como a invasão de Granada ou o ataque soviético a um avião 707
coreano. Teleconferências também podem ser obtidas através do Eletronic Information
Exchange System (EIES), operado pelo New Jersey Institute of Technology, e da University
of Michigan’s Confer II, ambos podendo ser utilizados como discussões abertas entre todos
os assinantes ou por grupos menores na busca de um projeto específico.6
As versões, locais mais baratas de tais redes nacionais são as centenas de sistemas-
murais [os BBSs — bulletin board systems], que agora podem ser encontrados em distritos
eleitorais novos, criados por computador, que geralmente têm o tamanho do código
telefônico. Pagando um adicional referente a um programa terminal e possivelmente uma
linha telefônica especial, qualquer proprietário de um computador pode se tornar um
operador de sistemas (sysop) e usar um BBS para qualquer fim. Tudo o que se precisa fazer
é divulgar seu número telefônico, talvez colocando-o em outros painéis de avisos existentes
na área. Alguns destes fóruns eletrônicos têm um enfoque político; todos podem ser
utilizados para emitir alertas comunitários, levantar questões locais e desenvolver
discussões de eventos do momento.7 Um BBS que tem sido muito louvado como modelo
de democracia computadorizada é The Chariot, organizado na área de Colorado Springs
pelo ativista político Dave Hughes. Ele tem usado sua rede regional com sucesso para fazer
campanhas em várias questões diante das legislaturas estaduais e locais. Um dos objetivos
de Hughes é ter todos os representantes eleitos no estado em linha para comunicação
imediata noite e dia — embora seja difícil entender porque os políticos devem ser mais
receptivos à correspondência eletrônica do que a cartas comuns.
Apesar de se assemelharem ao radioamador e a certos programas de rádio em que o
espectador conversa com o locutor, as redes de computadores são, em vários aspectos, uma
forma exclusiva de comunicação. Não há outro meio através do qual um grande número de
pessoas em uma área tão grande quanto a do sistema telefônico mundial possa trocar idéias
de modo não estruturado, a qualquer hora do dia (ou da noite), e ainda ficar com uma cópia
transcrita. O modo de discurso — palavras datilografadas em uma tela de vídeo — pode ser
um substituto inconveniente para uma conversa cara a cara, mas estranhamente há aqüeles
que consideram o anonimato especialmente atraente. A impessoalidade que os
computadores pessoais possibilitam aos usuários da rede tem um efeito libertador e

6
Para uma revisão dos serviços como EIES e Compuserve, bem como dos recursos dos bancos de dados, ver “Telecommunicating”,
uma seção de Brand, ed. Whole Earth Software Catalog. Esta seção também oferece algumas indicações bibliográficas a respeito
do assunto.
7
Mike Cane, The Computer Phone Book, Nova Iorque, New American Library, 1983, examina algumas centenas de murais
computadorizados. Para sistemas interligados através de redes [networking], ver The Networking Newsletter (Box 66, West
Newton, MA 92165).
nivelador; ela anula raça, idade, sexo, aparência, timidez e deficiências, e encoraja a
franqueza. Sem dúvida ela também encoraja uma certa “encenação”; os usuários da rede,
como os locutores de radioamador, tendem a utilizar pseudônimos vistosos, ao invés de seus
nomes. Isso, por sua vez, pode levar a brincadeiras e a acessos irresponsáveis. Alguns
impressos BBS contêm uma quantidade marcante de material relativamente desagradável:
críticas racistas e sexistas, piadas sujas, blasfêmias. O meio de comunicação se enfraquece
no sentido de se tornar pichação eletrônica. Os custos podem ser encarados como uma
obrigação, embora a maioria dos usuários que conheci pareçam estar mais ou menos
despreocupados quanto a isso. O custo inicial para operar um “grupo de interesse especial”
da CompuServe SIG pode variar entre 500 e 1.000 dólares. A rede EIES exige uma taxa
mensal de 75 dólares, além dos custos por hora; ela é utilizada principalmente por
corporações e instituições acadêmicas. Mesmo um BBS local pode igualar facilmente o
custo mensal de manutenção de um segundo telefone. Há, sem dúvida, um público político
significativo para o qual as taxas por tempo de ligação, sem contar o preço do equipamento
básico, seriam proibitivas. A formação de redes, durante algum tempo, pode permanecer
como um medium estritamente da classe média. Mesmo neste nível, nem todos os usos são
encorajadores. Há redes de racistas, poder branco [white power] e nazistas americanos que
se situam dentro dos limites constitucionais da livre expressão; uma rede de pornografia
infantil apareceu em 1985, e transmitia os nomes e endereços de crianças que estavam
disponíveis para exploração sexual.8 O medium nada garante sobre a qualidade de suas
mensagens.
Ainda assim, mesmo como um meio de comunicação relativamente caro, a formação
de redes pode prestar serviços valiosos, e certamente merece ser explorada mais a fundo
pelo que vale. Eu farei apenas dois comentários de precaução que os usuários devem ter em
mente; ambos se baseiam em experiência histórica.
Primeiro, vale a pena lembrar que a rede original de computador — do início dos
anos 70 — a ARPA, começou logo que as telecomunicações packet switching foram
capazes de conectar terminais de computador para todo o país. A ARPA foi desenvolvida
para permitir a transferência de dados por parte de computadores militares; mas quase
imediatamente ela foi apropriada pelas pessoas — precisamente os contratantes militares e
consultores dos principais laboratórios e universidades. Esta rede ARPA, humana e
imprevista, surgiu espontaneamente para troca de informações sobre armas e estratégias
entre os especialistas.9 Este é justamente o tipo de abuso do computador que os guerrilheiros
hackers temiam; mas é uma aplicação inventada e utilizada por aquelas forças sociais que
mais se enriqueceram com as aplicações dos computadores incluindo a constituição de
redes. Membros do complexo militar-industrial continuam a inovar em aplicações que
cidadãos comuns jamais poderão explorar ou custear; em todos os seus usos mais
avançados, o computador é a sua máquina. Usá-lo para propósitos mais coletivos tem
sempre sido uma questão de vencer em esperteza ou passar a perna naqueles que dominam
a tecnologia.
Em segundo lugar, a promessa que os usuários da rede vêem no computador é muito
parecida com aquela oferecida pelo radioamador dos anos 60 e 70. Uma vez que seu alcance
era restrito a localidades próximas, o radioamador poderia ter sido utilizado para organizar

8
Relato da Associated Press, San Francisco Chronicle, 12.6.1985, p. 11.
9
Para a rede ARPA, ver The Networking Newsletter, 1, nº 3,1984; 15.
pequenas comunidades. Neste aspecto, ele tinha o benefício do diálogo entre pessoas: a
realidade humana do tom vivo, das nuances e ênfases — todos indispensáveis para a troca
de idéias mais efetiva. O radioamador também era mais barato e desprovido de vínculos do
que a rede de computadores, uma vez que diversamente dos computadores que se
restringem a linhas telefônicas particulares, ele fazia uso de uma utilidade pública aberta: o
ar da radiodifusão.
Mas o radioamador era raramente utilizado para algo politicamente mais
significativo do que dar a oportunidade aos caminhoneiros em alta velocidade, para que
pudessem enganar a polícia rodoviária, um tipo de atitude de rebelião minimamente
anarquista. Na maioria dos casos, ele se tornou mais uma novidade para consumo. Há
muitas indicações de que os computadores domésticos repetirão este padrão, desperdiçando
seu potencial em usos frívolos e leves, que não têm grande relevância política. As prateleiras
dos varejistas de computadores estão cheias de video games, programas de exercícios,
orçamentos domésticos, receitas, horóscopos. É a proliferação de tais bugigangas, jogos e
diversões que atualmente passam como sendo “revolução da informação”. Do mesmo
modo, aqueles que embalam e vendem serviços de rede não têm muito interesse em
encorajar usos políticos controvertidos. A firma CompuServe pertence a H.&R. Block, os
consultores de impostos; The Source pertence ao Readers Digest. Não é de se surpreender
que as redes operadas por tais interesses estejam horrivelmente dominadas por conversas
em lojas, entre pessoas de diversos hobbies, dicas de viagens, serviços de namoro por
computador e jogos interativos em geral.
A nível local, a maior preocupação dos assinantes de murais parece ser os “grupos
de usuários”. Estes são redes constituídas por pessoas que usam a mesma marca de
computador e que procuram aconselhamento acerca do equipamento que deu origem à rede:
um aspecto estranhamente incestuoso da computação. Além disso, há inúmeras diversões:
críticas de filmes e restaurantes, piadas, resumo de novelas, “Masmorras e Dragões”... Na
maioria das hard-copies BBS que eu já vi, as pérolas de pensamento se espalham em meio
a uma densa mata de trivialidades, trocadilhos e fragmentos ilegíveis de discursos. Eu
estaria inclinado a ver muitos desses “restos” como apenas outra fonte de dados, que exige
mais tempo para ser organizada e compilada do que aquilo que vale. Usar a rede é realmente
melhor do que se encontrar com alguém, à noite, num bar ou lanchonete, para conversar?
Não há nada de errado com o tipo de diversão que atualmente lota as redes; mas
também não há nada de grandioso. Ele nos leva a refletir: que tipo de informação, pensavam
os entusiastas da computação, que o público americano esperava receber através desse
meio, antes de se tornar uma democracia iluminada? E que quantidade de informação
deveria realmente ser fornecida por um equipamento tão caro? Certamente muito pouco
daquilo que é feito através de redes de computadores precisa ser feito dessa forma. Pelo
preço da taxa de assinatura da rede, do tempo de conexão e de um modulador-
desmodulador, poder-se-ia assinar uma dúzia de revistas. Talvez o computador possa
funcionar como um substituto vistoso para a palavra impressa. Ele pode manter infinitos
bits e bytes de dados saltitando no sistema elétrico da máquina. Mas que tem isso com a
reconstrução da democracia?
A biblioteca pública: o elo perdido da era da informação
É um fato curioso que a discussão contemporânea da informação toque tão raramente na
questão das bibliotecas. Entretanto, as bibliotecas municipais e estaduais representam o
melhor serviço de referência e leitura disponível ao público em geral. Uma instituição
genuinamente idealista, a biblioteca tem oferecido apoio intelectual a nossa sociedade desde
os dias de Benjamin Franklin; na verdade, como conceito, ela se originou na Idade da Razão,
que inventou a política democrática, que a Era da Informação deve agora supostamente
servir.
Talvez a biblioteca tenha se tornado o elo perdido entre o computador e o público,
pois nas mentes dos entusiastas da computação ela está demasiado associada ao papel
impresso para poder fazer parte da tecnologia que os fascina. Mas o compromisso da
biblioteca com os livros dificilmente impede a utilização de aparelhos eletrônicos: grande
parte do material que tem entrado nos principais bancos de dados estava anteriormente
incorporado aos livros de referência que, há muito, têm sido as ferramentas principais da
biblioteca. Da mesma forma, as bibliotecas têm seguido para onde suas fontes de referência
tem levado; elas podem utilizar — e utilizam — os computadores, desde que consigam
capital para investir na tecnologia.
Pode haver outras razões pelas quais os entusiastas da computação tão
freqüentemente ignoram a biblioteca. O principal impulso comercial por trás do culto à
informação está na venda de computadores. Vendas para bibliotecas contam muito pouco
quando comparadas à perspectiva de se colocar um micro em cada residência. Sem dúvida,
se os computadores estivessem disponíveis de imediato e gratuitamente na biblioteca, isso
poderia dissuadir alguns consumidores em potencial de comprá-los. Também existe a
questão da imagem de marketing. O computador pessoal foi vestido como um utensílio
opulento da classe média, como a Cuisinart e o aparelho estéreo. Sua utilização em
bibliotecas se associa a orçamentos públicos e aquisições eletrônicas, um investimento
considerável para servir a uma população de status distintamente inferior. Em sua extensão
democrática, a biblioteca contata uma clientela que pode até mesmo incluir os realmente
pobres, os quais os negociantes de dados não consideram de forma alguma como
consumidores. A indústria de computadores tem dado, de modo significativo, seus produtos
como amostras (gratuitas) às escolas, a fim de semear seu mercado, mas nunca às
bibliotecas.
Talvez haja mais uma razão, um tanto reveladora, pela qual a biblioteca desfrute de
tão pouca visibilidade na Era da Informação. Ela é um ambiente de trabalho nitidamente
feminino, uma das tradicionais profissões femininas. A biblioteca é estereotipadamente
associada a uma certa subserviência meticulosa, correta e feminina, que está atada à antiga
cultura dos livros. A high tech lida, ao contrário, com máquinas poderosas que representam
investimentos de bilhões de dólares. A high tech é masculina e agressiva: um mundo de
empresários envolvidos em altos negócios, executivos afobados e tomadores de decisões a
nível mundial. No pano de fundo de curto prazo há inventores inspirados e gênios hackers
da tecnologia, também tipos machões. O estereótipo sexual se sobrepõe ao estereótipo de
classe da biblioteca, dando uma imagem improvável a um brainstorming futurístico
ambicioso. Os futurólogos, por exemplo, que tanto têm feito para popularizar a noção de
Era da Informação, não lhe dão atenção alguma.
Tudo isso é triste porque se os serviços de informação computadorizada têm algum
lugar natural na sociedade, esse lugar é na biblioteca pública. Lá, o poder e a eficiência da
tecnologia podem ser maximizados, juntamente com seu acesso democrático. Ao preparar
este livro, eu me vi dependente, em inúmeras questões importantes, dos serviços de
referência das bibliotecárias. É uma ajuda que eu, como professor e escritor, durante muito
tempo não reconheci, pois ela é tão prontamente acessível e conveniente para o uso, que
podemos nem nos dar conta de seu valor. Mas desta vez, já que eu estava envolvido com a
crítica do caráter (ethos) e da economia da informação, eu me vi dando mais atenção às
bibliotecárias com quem eu trabalhava.10 Em várias ocasiões, elas efetuaram para mim
buscas em bancos de dados que geraram uma riqueza de material que eu não teria condições
de descobrir sozinho, mesmo com um computador pessoal conectado a uma boa rede. Por
um lado, as bibliotecárias tinham acesso a uma quantidade muito maior de bancos de dados
do que eu poderia alugar. Por outro, elas eram muito mais hábeis do que eu no uso dos
terminais de dados. Elas conheciam os protocolos e as peculiaridades de diferentes serviços
de bancos de dados; elas sabiam onde valia a pena tentar e conheciam as melhores
estratégias para conectá-los rapidamente. Alguns bancos de dados são de complicado
acesso; um amador pode vagar dentro deles durante muito tempo, achando pouca coisa de
valor. É necessária experiência de manipulação diária para sair caçando informações do
modo correto e nos lugares certos. É uma habilidade especial que poucos usuários de
computadores domésticos serão capazes de desenvolver até o nível de velocidade e previsão
de uma bibliotecária profissional.
As bibliotecárias ainda apresentavam outra vantagem. Em virtude de seu treino e
experiência, elas sabiam quando não usar o computador. Como um serviço de informação
completamente armazenado, a biblioteca contém uma variedade de livros básicos de
referência, que são freqüentemente o melhor, o mais barato e o mais rápido lugar para se
buscar um fato. Quanto a isso, as bibliotecárias sabem onde procurar além de seus próprios
recursos; arquivos especiais, coleções particulares, autoridades e especialistas na área. A
maioria das bibliotecárias tem montado um arquivo de tais recursos, menos visíveis, que
levou anos para ser conseguido. Uma inquirição que me foi feita para este livro culminou
com um telefonema para o Office of the Joint Chiefs of Staff, em Washington, onde a
bibliotecária tinha um contato. Eu realizei pesquisas através de perguntas (por carta ou
telefone) efetuadas a agências governamentais não tão acessíveis, jornalistas, pessoas com
hobbies específicos e entusiastas. As bibliotecárias sabem o que muitos hackers dedicados
querem ignorar: como um instrumento para o processamento de informação, o computador
complementa outras fontes, não as substitui.
Há nas bibliotecas do país uma rede espalhada pela sociedade, localizada em quase
todos os bairros sob os cuidados de pessoas experientes, que sempre valorizaram uma forte

10
Os serviços nos quais eu me detive e que estou utilizando como modelos são SCAN (Southern Califórnia Answering Network),
que opera a partir do Los Angeles Public Library Main Branch, e BARC (Bay Area Reference Center, que opera a partir do San
Francisco Public Library Main Branch). Ambos excelentes, são projetos custeados pelo governo federal que datam do início dos
anos 70; é, na verdade, bom demais para ser verdade constatar que o governo tivesse gasto parte do nosso dinheiro de maneira
tão brilhante. Entre os vendedores de banco de dados que assinam essas duas operações, estão NEXIS, Dialog, Bibliotecal
Retrieval Service, Orbit, The Magazine Index, Vu-Text e Hispanex. Vendedores desse tipo permitirão o acesso a centenas de
bancos de dados; só o Dialog já inclui cerca de 300 bancos, o Orbit mais 200. Essa abrangência de informação e também os
custos são muito maiores do que um usuário comum de um computador doméstico poderia suportar. Se operações como SCAN
e BARC existissem simplesmente como uma espécie de “vitrina” para se estabelecer um alto padrão profissional de serviço de
referência na era do computador, elas teriam valido o investimento público. (N. A.)
ética de serviço público. Se o equipamento para as referências computadorizadas estivesse
concentrado em bibliotecas locais ou, por motivos de economia, se cada biblioteca local
estivesse ligada a um centro regional de referência, com fundos suficientes, este seria o
meio mais barato e rápido para o público em geral ter acesso aos benefícios que a Era da
Informação pode oferecer. Os serviços de informação privados com fins lucrativos,
baseados em computadores, não são substitutos viáveis para aquilo que a biblioteca pode
fornecer como sendo um serviço público de referência, se a ela for dada a chance de mostrar
aquilo que pode fazer. Tais negócios simplesmente tiram o serviço do domínio público.
Como é doloroso, então, perceber que grande parte do dinheiro, que poderia ter ido para as
bibliotecas, na forma de dólares de impostos, foi desviado para a compra de computadores
domésticos, uma abordagem que acaba por fazer com que o público compre menor
quantidade de informação com seus dólares. Curiosamente, isso repete o padrão econômico
que serviu para aviltar a outra grande contribuição de Benjamin Franklin para a
democratização da informação: o correio. Também nisso a utilidade pública tem recebido
menos verbas, tendo o dinheiro sido desviado para as telecomunicações e sistemas de
entrega rápida mais caros do setor privado, todos funcionando principalmente para o
benefício de usuários de peso na economia das corporações. Esses exemplos deveriam nos
lembrar de que atingir uma maior democracia na Era da Informação é uma questão não só
de tecnologia, mas também da organização social desta tecnologia. Se muitas bibliotecas
não podem prestar os serviços de informação de primeira classe que gostariam de oferecer,
é somente por falta de fundos para fazê-lo. Elas não podem comprar o equipamento, alugar
os serviços e contratar o pessoal.
Não se deve pensar que o trabalho de referência das bibliotecárias deve-se limitar a
assuntos acadêmicos e intelectuais. No decorrer da última geração, muitas bibliotecas
públicas ampliaram seus serviços de informação para incluir panfletos e contatos que
abrangem uma grande variedade de necessidades sociais da comunidade: assistência legal,
direitos dos inquilinos, benefícios do desempregado, treino para a profissão, imigração,
saúde, bem-estar e problemas dos consumidores. O objetivo é colocar o público em contato
com grupos e agências que podem ajudar em questões diárias da vida e da sobrevivência.
Este não é o tipo de informação que se encontra na maioria dos bancos comerciais de dados;
enquanto o serviço possa se sobrepor à função de alguns murais eletrônicos, a biblioteca
pode tornar a informação acessível àqueles que não podem possuir um computador.
Mais um ponto. A biblioteca não existe simplesmente como uma instituição
governada e de pertinência social, um verdadeiro serviço de informação do povo; ela tem
como funcionários homens e mulheres que têm grande respeito por valores intelectuais.
Uma vez que elas também são as tradicionais guardadoras dos livros, as bibliotecárias têm
uma noção saudável da relação hierárquica entre dados e idéias, fatos e conhecimento. Elas
sabem o que se deve procurar em um banco de dados e o que se deve procurar em um livro.
Os computadores poderiam talvez não apenas gerar mais informação para o público; mas é
provável que a própria informação permaneça em seu lugar subordinado na cultura.11

11
Para um relato sobre os serviços disponíveis do SCAN, ver Evelyn Greenwald, “Reference Power”, American Libraries, nov.
1984, p. 698.
9. Nas mãos erradas

“Considerei seriamente a possibilidade de desistir de minha


produção científica por desconhecer uma maneira de impedir
que minhas publicações fossem parar em mãos erradas”.
Norbert Wiener,
outubro 19451

Os fundamentos da tecnologia da informação


Até um futuro previsível, é provável que os usos democráticos do computador doméstico
permaneçam num estágio rudimentar sobrecarregado pelo custo dos equipamentos e pelos
comerciais triviais que rodeiam a tecnologia no mercado. Não há dúvida que os hackers de
princípios, que ainda estão entre nós, continuarão a encontrar valiosas aplicações políticas
para os computadores; seus esforços merecem ser apoiados. Mas, enquanto isso, fora do
pequeno e ainda pouco desenvolvido mundo de redes politicamente relevantes, a economia
informacional não se encontra imóvel. Forças mais poderosas, com pouco interesse nos usos
comunitários dos computadores, estão trabalhando no sentido de moldar a tecnologia a fim
de servir a seus propósitos. O progresso conseguido por elas nessa área não é uma
contingência infeliz, algo que poderia não ter acontecido. Ao contrário, as “mãos erradas”
temidas (pois podiam capturar os frutos de sua imaginação) por Norbert Wiener são
precisamente as mesmas que criaram a cibernética e a teoria da informação. Por essa razão,
a apreensão de Wiener, embora moralmente admirável, não era nada realista.
Wiener tinha em vista dois abusos da tecnologia da informação: sua exploração
militar, como um meio de fazer a guerra, e sua exploração industrial, como um meio de
desespecializar e desempregar operários. Wiener, a consciência de uma profissão muito
comprometida, fez o que pôde para resistir a esses males; com certeza, tanto quanto se
esperaria de um indivíduo isolado. Com relação ao primeiro, recusou-se terminantemente a
aceitar qualquer apoio a pesquisas vindo de fontes militares, e exortou os colegas a imitá-
lo, embora sem sucesso. No que se refere ao segundo, tornou-se consultor do movimento
operário já em 1950. Naquele ano, escreveu a Walter Reuther, presidente do Sindicato dos
Trabalhadores das Indústrias Automobilísticas, chamando-lhe a atenção para “a ameaça
iminente da substituição em larga escala de trabalhadores por máquinas”, para a qual a
automação certamente contribuiria. Observou que a cibernética no local de trabalho “levaria
à fábrica sem operários”, e à conseqüente redução do poder do sindicato. “Não desejo
contribuir, de modo algum, para a destruição do trabalho, e tenho consciência de que
qualquer trabalho que entre em concorrência com o trabalho escravo, sejam esses escravos

1
Wiener, citado em Noble, Forces of Production, p. 73.
humanos ou mecânicos, deve aceitar as condições de trabalho escravo.” Segundo a sua
perspectiva, Wiener enxergou nada menos que as características do “fascismo”.2
Ao se revelarem esses perigos — as aplicações militares e industriais da cibernética
— já não eram dois males separados a serem combatidos por frentes de combate separadas.
Estavam intimamente relacionados. David Noble, em seu estudo Forças de Produção,
afirma que os elevados e contínuos investimentos governamentais na área dos
computadores, da eletrônica e da teoria da informação, após a Segunda Grande Guerra,
pretendiam alterar radicalmente o sistema industrial norte-americano. Seu objetivo era
desenvolver a automação como um modo de compensar a agitação dos trabalhadores e as
exigências dos sindicatos surgidos após a guerra. A automação iria “racionalizar” a
economia através do fortalecimento do controle da administração, principalmente nas
grandes firmas. As técnicas desenvolvidas durante a guerra, especialmente nas indústrias
de defesa, para compensar a falta de mão-de-obra especializada, seriam ampliadas a fim de
ser criada “a fábrica do futuro”, na qual cada vez menos mão-de-obra seria necessária.
Assim, a indústria poderia substituir a força do homem pela força da máquina,
disciplinando, desse modo, uma força de trabalho cada vez mais incômoda. Como declarou
Charles Wilson (em 1949), da General Motors, vice-presidente do Conselho de Produção
de Guerra e mais tarde Secretário da Defesa, os Estados Unidos enfrentavam dois problemas
principais: “a Rússia no exterior, os operários aqui dentro”.3
Essa aliança entre militares e industriais, com o objetivo de desenvolver a
informática, continua na era da alta tecnologia (high tech). O Departamento de Defesa
continua sendo uma das principais fontes de recursos para pesquisa e desenvolvimento, não
apenas para sistemas específicos de armas, mas também para promover o uso generalizado
de métodos de automação. O programa denominado ICAM (fabricação auxiliada por
computadores integrados), iniciado pela Força Aérea em 1979, está entre os mais
ambiciosos esforços para introduzir a alta tecnologia com economia de mão-de-obra e
capital aplicado de modo intensivo, incluindo a robótica no processo de produção. Trata-se
da espinha dorsal de todos os esforços de CAD/CAM (projeto e produção assistidos por
computador) na indústria norte-americana. Outros programas de modernização (Techmod
e Mantech) são, da mesma maneira, dependentes do dinheiro do Pentágono. Como observa
Noble, a respeito da luta contra a investida da automação de alta tecnologia, “o papel dos
militares, com ênfase no desempenho e no comando, e não nos custos, permanece
fundamental”.
Ainda baseada numa visão empobrecida dos seres humanos e numa sistemática
negação de seu potencial, a busca do controle total consiste em um esforço
ainda mais elaborado e dispendioso para a construção de um aparato lucrativo,
militarmente eficaz e tecnicamente elegante, que não dependa da cooperação
e dos recursos da massa da população.4
Esta é a realidade da sala da diretoria e do mercado, tão traiçoeiramente obscurecida
pelos futurologistas, com sua tagarelice frívola a respeito da “economia informacional”,
repleta de dispositivos e mecanismos ocultos que incentivam o consumo, em que,

2
Ver Noble, Forces of Production, pp. 71-76, para uma descrição dos esforços de Wiener para defender a cibernética do mau uso.
3
Wilson, citado por Noble, Forces of Production, p. 21. Ver especialmente seus capítulos 2, 3 e 4 sobre a automação no período
imediatamente pós-guerra.
4
Noble, Forces of Production, p. 328. Para uma descrição mais completa desses programas, ver o epílogo de Forces of Production.
aparentemente, as condições físicas da vida e do trabalho são tomadas etéreas, numa espécie
de Shangri-Lá eletrônico. Sua celebração superficial dessa grande transição, como a dos
conservadores e liberais da high tech, que extraem com tanta facilidade palavras excitantes
e frases de efeito, leva à omissão das verdadeiras forças e dos motivos subjacentes ao
processo econômico.
Se desejarmos reconduzir a tecnologia da informação a seus usos mais humanos,
deveremos, mais cedo ou mais tarde, enfrentar o fato duro e desagradável de que o
computador se presta, com perfeição, à subversão dos valores democráticos. Essa
responsabilidade ameaçadora se origina precisamente do que sempre foi anunciado como a
maior força da tecnologia: a capacidade de concentrar e controlar a informação. É onde se
encontram a eficiência e os prometidos benefícios dos sistemas computadorizados. É isso
que endossamos sempre que elogiamos o computador pela rapidez e eficiência de seus
serviços. Esse endosso é ainda mais reforçado quando concordamos que, ao executar esses
serviços, o computador está se revelando uma “máquina pensante”; na realidade, uma
máquina que pensa melhor que o cérebro humano.
Como temos afirmado nesse estudo, o culto à informação, que se formou ao redor
do computador, baseia-se numa suposição filosófica altamente racionalizada, que ganhou
enorme aceitação pública e está ganhando ainda mais à medida que penetra nas escolas e
universidades: que a mente humana, em todos os seus aspectos, pode ser completa e
perfeitamente descrita pelo modelo de processamento de informações. Historicamente, os
primeiros usos importantes desse modelo surgiram durante e logo após a Segunda Guerra
Mundial, nas áreas de combate e nas linhas dirigidas à guerra. Desde então, tais aplicações
têm se expandido continuamente, primeiramente sob o auspício militar, em um número cada
vez maior de áreas de produção e em níveis cada vez mais altos de especialização, de modo
que um número cada vez mais elevado de trabalhadores tem sido eliminado da indústria
fabril ou — tão grave quanto isso — ameaçado com tal eliminação. O primeiro e mais
significativo pensamento processado pelos computadores foi a habilidade dos
trabalhadores, o talento de suas mãos, a acuidade de sua percepção, o julgamento de suas
mentes. Sempre que isso foi feito o resultado conseguido foi a transferência de poder para
os técnicos, gerentes e proprietários.
Uma vez que a informática demonstrou sua capacidade de realizar essa transferência,
descobriu uma base sólida em nossa economia e conquistou a posição para atrair todo
prestígio e dinheiro de que necessitava. Se a ciência da computação não prometesse um belo
lucro para os compradores militares e civis, capazes de sustentar seus altos custos de
pesquisa e desenvolvimento, não teriam surgido programas de jogos de xadrez, jogos Pac-
Man, banco de dados NEXIS, e Turtle Graphics. Nem as várias profissões e campos de
estudo — inteligência artificial, ciência cognitiva, teoria da informação — surgidas com a
tecnologia e transformadas em algumas das mais influentes disciplinas dos currículos
universitários. Assim, têm surgido cada vez mais aplicações da tecnologia. Algumas, como
por exemplo a capacidade de interligação através de redes [networks] e as possibilidades
educacionais do microcomputador, foram apoderadas por esperançosos espíritos
democráticos, como os hackers guerrilheiros; mas esses usos restritos e marginais do
computador são simplesmente reduzidos à insignificância, face a suas aplicações
predominantes, muitas das quais põem seriamente em perigo nossa liberdade e nossa
sobrevivência.
Segue-se uma breve lista desses perigos.

A máquina da vigilância
A invasão da privacidade tem sido a questão social mais discutida e divulgada a respeito
dos computadores. Na Europa e nos Estados Unidos há extensivas pesquisas sobre o
assunto, algumas delas realizadas por legisladores e fontes oficiais com o objetivo de
servirem de base a futuras leis. A despeito dessa preocupação, porém, é óbvio que nenhuma
dessas salvaguardas legais dispõe de força confiável. Em sua maior parte são legislações de
caráter abrangente, com inúmeras exceções e brechas, e que carecem de meios de execução
eficazes. É quase um princípio da natureza: onde a lei procura manter-se passo a passo com
a tecnologia essa última vence. É como uma corrida entre um carro de bois e um jato
supersônico.5
Em nenhum lugar podemos observar essa discrepância de forma mais dramática do
que na área de computadores e das telecomunicações. Em pouco mais de uma geração, a
tecnologia de transferência de informação se tornou simplesmente demasiado vasta e
dinâmica para poder ser perfeitamente controlada pela lei. Isso não ocorreu somente porque
os técnicos se movem tão rapidamente em direções tão diversas, o que já constituiria, por
si só, um enorme problema. Há ainda o fato crucial de que seus esforços são alimentados
pela sede de lucro e poder daqueles que comandam suas habilidades e produtos [wares].
Nessa área, e em vários outros setores de nossa economia industrial, os usos da tecnologia
são moldados pelos valores daqueles que empregam os técnicos e se apropriam de seus
produtos.
Pode ser que não estejamos vivendo ainda numa sociedade dominada pela economia
da informação, termo que sempre teve mais brilho jornalístico que substância social; mas
acontece que, dentro de nossa economia, uma indústria de informação de proporções
consideráveis cresceu nos últimos vinte anos. É constituída não apenas por firmas de
computação e eletrônica que produzem os aparelhos, mas por novas e ambiciosas firmas de
prestação de serviços — agências de crédito, administradores de dados, malas diretas,
especialistas em marketing e em opinião pública. Esses empreendimentos, por sua vez,
ajudaram a criar a nova e promissora profissão de especialistas em sistemas de computação,
cuja tarefa consiste em inventar um número cada vez maior de aplicações para a tecnologia
da informação, e vendê-los para todos os negociantes que estejam em cena. Em nenhum
outro lugar o culto à informação está tão profundamente entranhado quanto nessa fronteira
empresarial, altamente competitiva e dinâmica, onde muitas das mais brilhantes mentes
jovens de nosso tempo trabalham duramente, negociando a promessa do computador e
manobrando inteligentemente seus serviços, a fim de atender qualquer necessidade
possivelmente apresentada por uma área ávida de atividades, e geralmente crédula.
Grande parte desses acontecimentos foi inevitável; muitas áreas de negócios —
bancos, seguros, corretagem, administração pública — trabalham com grandes quantidades

5
Para um exame dos problemas legais e políticos que surgem a partir de formas computadorizadas de vigilância, ver James Rule
e outros, The Politics of Privacy: Planning for Personal Data Systems as Powerful Technologies, Nova Iorque, Elsevier, 1980;
e David Burnham, The Rise of the Computer State, Nova Iorque, Random House, 1983.
de dados. Mas, por que razão uma companhia telefônica deveria manter registros de todos
os números discados por seus assinantes? Apenas porque lhe venderam um equipamento
capaz de fazê-lo; assim, registra os números, o que quer dizer que ela terá mais dados para
estocar. Hoje em dia, qualquer drogaria ou tinturaria surpreende seus clientes com uma
maravilha eletrônica, mistura de caixa registradora, controlador de estoque, verificador de
cartão de crédito, aparato bancário e contábil.
Emite uma série de bips e, finalmente, apresenta ao cliente uma nota fiscal que mais
parece um extrato estatístico. E cada pequena cifra inescrutável ali impressa representa um
registro que está arquivado em algum local.
O mais rico e mais acessível dos clientes da indústria da informação é sem dúvida
— de longe — o governo, o maior dos arquivadores de dados. Cinco das maiores áreas
federais (Saúde, Educação, Comércio — que controla o censo —, Defesa, Receita Federal
e Previdência Social) possuem entre 2 e 4 bilhões de arquivos superlotados sobre a
população norte-americana.6 Manter arquivos não representa nada de novo para os governos
do mundo moderno; mas a escala com a qual o Estado documenta a vida de seus cidadãos
não tem precedentes. Mais importante: os arquivos mantidos por essas agências já não são
separados uns dos outros. Estão sendo interligados através de mais de 300 redes de
computadores utilizados pelo governo como parte de seu trabalho de rotina. Essa integração
de dados é importantíssima; aumenta exponencialmente a utilidade da informação. No
contexto das redes, cada dado pode ter múltiplas conexões, adquirindo, assim, um número
imprevisível de aplicações. As redes permitem, e até encorajam, por exemplo, a utilização
de “programas de combinação”, capazes de relacionar, digamos, informações sobre
impostos e empréstimos estudantis não pagos, ou desembolso com a previdência: uma boa
maneira para acabar com as fraudes e sonegações. Além disso, com restrições mínimas e
frágeis, todas as informações contidas nos mais de 20 mil computadores do governo federal
estão à disposição de agências de segurança federais e locais, que podem fazer inúmeras
combinações com dados disponíveis em seus arquivos. Desse modo, um motorista parado
por ter uma das luzes do freio queimada poderá ter sua vida vasculhada por uma bateria de
bancos de dados integrados, que conterão tudo o que alguém já se deu ao trabalho de
arquivar: pensão alimentícia para os filhos, empréstimos não pagos, violações da
previdência, etc.
Além disso, uma quantidade cada vez maior de informações oficiais é combinada
com serviços privados de informação. O Departamento de Comércio costuma vender dados
dos censos a companhias de marketing e relações públicas. No governo Reagan, a Receita
Federal começou a utilizar bancos de dados particulares, tais como arquivos bancários, a
fim de descobrir sonegadores de impostos. Do mesmo modo, desde 1982, a Administração
de Serviços Gerais começou a negociar contratos para a troca de registros com agências de
crédito particulares, a fim de identificar os indivíduos que deixam de pagar empréstimos
federais. Há aproximadamente cem órgãos federais que compartilham, livremente, dados
com as sete mais importantes companhias de crédito nas áreas de penhora, empréstimos
bancários, registros de divórcios e cartões de crédito.7 Ironicamente, a justificativa para essa
integração de dados efetivada pela administração Reagan era que, ao fazê-lo, o presidente

6
Para um estudo do uso do governo ou privado de bancos de dados, ver Scott Winokur, “Nowhere to Hide”, San Francisco
Examiner, 7 e 12.10.1984.
7
Relato da Associated Press, “Credit Records Open to U. S. Security Soon”, San Francisco Chronicle, 11.4.1984.
estaria atingindo um de seus principais objetivos ideológicos: tirar o governo das costas do
povo. Ã primeira vista, pode parecer inconsistente. Mas não é bem assim. Robert Bedell,
chefe interino do Office of Management and Budget, teria dito que o único objetivo do
governo era proteger o direito dos cidadãos à privacidade. A sugestão da administração para
fazê-lo seria evitar manter informações a respeito dos cidadãos, através da redução do
tamanho dos programas do governo. “Não há melhor proteção contra a intervenção do
governo na privacidade do que não se ter a informação para começar”.8
São palavras sinistras. Implicam que a única maneira de nos livrarmos do tipo de
vigilância e intromissão produzidas pelos programas de combinação do governo é ficar
inteiramente fora de seus registros. Em suma, não tente conseguir qualquer assistência por
parte do governo. A ameaça implícita pode ser uma maneira extremamente eficaz de acabar
com a lista da previdência.
Como seria de se esperar, as áreas com maior apetite pela informação são a
segurança e o braço regulador de leis do governo. A nível federal, a Agência Nacional de
Segurança, cujos orçamentos excedem os da CIA, não apenas opera uma das maiores redes
de computação, mas também serve como principal fonte de fundos para algumas das
pesquisas mais avançadas na área da eletrônica e de telecomunicações. Por exemplo, é a
ANS que está financiando trabalhos pioneiros de reconhecimento de voz por computadores;
o que significaria que possui dispositivos capazes de reconhecer termos tais como “bomba”
e “assassinato”, ao fazer suas monitorações rotineiras de chamadas telefônicas, uma das
principais atividades da agência. Do mesmo modo os deveres da ANS no campo da
criptografia levaram-na a investir pesadamente nos super-rápidos interruptores de conexão
do tipo Josephson, que poderão vir a substituir os semicondutores. A ANS cooperou para o
estabelecimento do programa SEARCH [BUSCA], do FBI: Sistema de Análise e
Recuperação Eletrônica da História Criminal [cujas iniciais, em inglês, formam a palavra
“busca”], a maior rede de coleta de dados do país, na área de atividades criminais. O
SEARCH, por sua vez, incluiu dados no índice Interestadual do Crime Organizado [IOCI,
em inglês], um banco de dados recente que, apesar do título, inclui dissidentes políticos. O
IOCI é bastante utilizado por funcionários do serviço secreto da polícia e foi envolvido em
alguns casos de intromissão extralegal.9
No setor privado, as agências de crédito, com as quais o governo atualmente coopera
sob várias formas, tomaram-se, por sua vez, importantes operadores em coleta de dados. Há
quase dois mil deles. Os cinco maiores (eles incluem companhias tais como a TransUnion,
de Chicago, e a TRW, da Califórnia) possuem aproximadamente 450 milhões de arquivos.
Calcula-se que 80% dos norte-americanos de mais de 18 anos se encontram em algum de
seus computadores. Alguns desses arquivos incluem entradas sob a denominação “estilo de
vida” — hábitos pessoais relativos a bebidas, casamento e divórcio, problemas com a lei,
queixas de vizinhos devido a ruídos ou atividades estranhas, tudo o que pode vir a interessar
empregadores em potencial, instituições financeiras, senhorios. Os senhorios, em especial,
desenvolveram um banco de dados “detetor de ilegalidades”, que mantém registros de todos
os processos em tribunais envolvendo indivíduos que tenham tido problemas legais
enquanto inquilinos. Esses mesmos arquivos têm acesso aos dados relativos a estilo de vida.
Tais informações são especialmente valiosas para a “modelação em bloco”, outra prática

8
Citado por Winokur, “Nowhere to Hide”, 7.10.1984, p. 14.
9
Sobre as atividades da NSA, ver Loring Wirbel, “Somebody Isn’t listening”, The Progressive, nov. 1980, pp. 16-19.
que se tomou possível através da integração de bancos de dados. A exemplo da combinação
de computadores, os modelos em blocos reúnem informações de várias fontes, impossível
antes do advento das redes eletrônicas. Mas a modelação em blocos traz uma nova mudança.
Processa a informação através de programas (encontrados sob a forma de software barato e
comercialmente disponível) que comparam-no a perfis de personalidade gerais. Tais
programas são utilizados, atualmente por empregadores ou senhorios que desejam evitar
tipos indesejáveis. A modelação em bloco permite aos usuários fazer um “raio-X” dos
inquilinos e funcionários, de maneira a eliminar os criadores de caso e os riscos para o
usuário.
Não há limite de quantidade para os danos que tais sistemas de combinação e
modelação são capazes de absorver. Compreensivelmente, não há quantidade de
informações pequena demais para ser absorvida pela tecnologia. Em meados de 1984, o
Serviço de Recrutamento das Forças Armadas enviou uma carta a um rapaz de 18 anos,
cujo alistamento militar estava atrasado vários meses. Acontece que não havia ninguém
com esse nome no endereço para o qual a carta foi enviada. O nome era fictício. Fora
inventado aproximadamente sete anos antes por dois adolescentes que preencheram uma
ficha em uma sorveteria local, que oferecia lanches gratuitos por ocasião do aniversário de
seus jovens clientes. O nome foi para a mala direta computadorizada da loja. A companhia
proprietária da loja vendeu, a seguir, sua lista (uma prática comum) a uma das companhias
especializadas em mala direta que, por sua vez, colocou-a a disposição do Serviço de
Recrutamento das Forças Armadas, que tem como prática rotineira examinar tais listas,
precisamente para coletar nomes, endereços e datas de nascimento. Quando chegou a época
em que o rapaz fictício faria 18 anos, começou o acompanhamento de seu caso. O
computador o fez, gerando a carta de aviso conforme estava programado para enviar.10
À medida que aumenta o número de computadores e redes de computadores
utilizados pelo governo, alguns funcionários começam a expressar suas preocupações com
a segurança de seus bancos de dados, prevendo a penetração de pessoal não-autorizado.
Trata-se mais da preocupação de um ofical da lei do que uma preocupação de cidadão.
Assim, como se pode imaginar, a solução governamental para o problema é pouco
encorajadora. Nos termos da National Security Directive [Diretriz Nacional de Segurança]
de 1985 (nº 145), adotada pela administração Reagan sem prévia consulta ao Congresso, a
Agência Nacional de Segurança se tornou a única responsável pelo controle e a utilização
de todos os computadores e bancos de dados federais. Os poderes conferidos pela diretriz
permitem à ANS ter acesso a todos os arquivos computadorizados do governo, sem que
haja a preocupação pela manutenção da privacidade. A diretriz implica, também, que a ANS
tem o direito de acesso a todos os bancos de dados particulares ligados a operações
governamentais. No final de 1985 isso levou a uma grande investigação por parte do Centro
Nacional de Segurança Computadorizada, pertencente à ANS, dos programas de contagem
de votos, usados nas máquinas de contagem eletrônicas em vários estados, um
procedimento sem precedentes para um serviço militar de segurança.11
Alvin Toffler celebrou o voraz apetite do computador por dados, como a criação de
uma “memória social”, que irá, algum dia, nos dar uma “civilização com recuperação e

10

11
O amplo controle de bancos de dados da NSA foi comentado na edição da manhã do National Public Radio, em 1º de julho de
1985. Ver também o relato no New York Times, de 24.9.1985, reimpresso em 25.9.1985, no San Francisco Chronicle, p. 12.
recordação total”. “Uma bomba de informações está explodindo entre nós”, diz ele. Está
produzindo uma “infosfera”, que fornecerá à nossa sociedade “a maior e mais bem
organizada quantidade de informaçêos sobre si mesma do que qualquer um poderia ter
imaginado há um quarto de século atrás”.12
Não há dúvidas de que ele tem razão. Mas sinto dificuldades em compreender seu
entusiasmo por essa perspectiva. A maior parte dessa memória social será constituída dos
detritos do dia-a-dia, todas as chamadas telefônicas, cheques passados, compras com cartão
de crédito, multas de trânsito, passagens de avião. Qual seria sua vantagem para uma cultura
sadia e uma política vital? Obviamente nenhuma. Mas há aqueles para quem esse tipo de
escória de dados pode ser extremamente valiosa: os abelhudos profissionais, cuja obsessão
com a “recuperação total” se origina de uma necessidade desvairada de rastrear o menor
movimento dos indivíduos.
Um levantamento como esse, de vigilância computadorizada por parte de fontes
públicas e particulares implica, inevitavelmente, uma grande quantidade de agências, leis e
programas cobertos de estatísticas a respeito de arquivos e registros. Mas não se deve deixar
o significado central desses desenvolvimentos se perder no meio dos detalhes. Algo muito
grande, novo e ameaçador está permeando nossa vida política. Mesmo tendo sido a
“informação” definida ambiciosamente por especialistas e entusiastas, tudo o que os bancos
de dados e seus usuários desejam são dados em sua forma mais primitiva: fatos simples e
atomizados. Para os bisbilhoteiros, curiosos e intrometidos, a abundância de dados é uma
festa, pois lhes dá exatamente o que desejam. Existem para reduzir os indivíduos a
esqueletos estatísticos de acesso rápido: nome, número da previdência social, extrato
bancário, dívidas, avaliação de crédito, salário, pagamentos à previdência, impostos,
número de detenções e mandados importantes. Sem ambigüidades, sutilezas ou
complicações. As informações contidas nos bancos de dados se restringem ao mínimo
necessário exigido para uma rápida decisão comercial e legal. “Conceder ou não o
empréstimo.” “Alugar ou não a propriedade.” “Contratar ou não.” “Prender ou não.” Eis a
existência humana perfeitamente adaptada ao nível de números binários: liga/desliga,
sim/não. Os novos e “borbulhantes” equipamentos de vigilância com que nos defrontamos
não constituem um processo tecnológico de valor neutro; ao contrário, trata-se da visão
social dos filósofos do Utilitarismo, afinal inteiramente realizados no computador. Ela
produz um mundo sem sombras, segredos ou mistérios, em que tudo se transformou em
pura quantidade.

A máquina de pesquisas de opinião


Nas eleições presidenciais de 1980, o candidato Ronald Reagan tomou uma firme posição
com referência à defesa. Em tons austeros e urgentes, atacou violentamente a ameaça
soviética, exigindo expansão militar em ampla escala. Seu oponente tentou usar essa postura
para caracterizar Reagan como um fomentador da guerra, e até mesmo como um
bombardeador furioso. Foi uma das pequenas manchas na imagem pública de Reagan.

12
Toffler, The Third Wave, pp. 192-194.
A certa altura da campanha, seu modo de lidar com a política externa e de defesa
sofreu uma alteração visível. Seu tom se tornou mais calmo e razoável; a palavra “paz”
passou a aparecer com maior freqüência em seus discursos; as referências à “guerra” e à
“corrida armamentista” se enfraqueceram. Surgiu uma nova frase para representar sua
posição com relação aos armamentos, algo brando, evasivo e, aparentemente, prudente:
“uma margem de segurança”.
O que terá causado essa mudança de tom e de retórica? Foi a resposta a um
importante conselheiro da campanha, Richard Wirthlin. A recomendação poderia ter se
baseado, como comumente acontece, em puro instinto político, que poderia ou não
persuadir o candidato e muitos de seus outros conselheiros. Os políticos estão sempre
trabalhando com rumores, adivinhações, palpites, bom senso já testado e ousadia. Nesse
caso, porém, a recomendação de Wirthlin se baseou em algo mais: em números, em pilhas
de números. Surgiu a partir de uma coletânea de pesquisas nacionais de opinião pública.
Wirthlin era uma autoridade em estatística. Isso deu a suas recomendações a aparência de
algo diverso da adivinhação. Pareciam científicos.13
No final da década de 60, Wirthlin, ex-economista da Universidade Brigham Young,
em Utah, abriu uma firma de pesquisa de mercado no Sul da Califórnia, chamada Decision
Making Information — DMI [Informação para a Tomada de Decisões]. A exemplo de
muitas outras firmas que medem o gosto dos consumidores, a DMI logo entrou no campo
das pesquisas políticas, tendo sido contratada originalmente por Ronald Reagan para
coordenar sua campanha ao governo da Califórnia, em 1970. A DMI proporcionava os
serviços usuais: levantamento dos eleitores, amostragem, simulações. Esse malabarismo
estatístico é utilizado para supostamente descobrir os pontos fracos e fortes dos candidatos
— em quais regiões, entre quais grupos étnicos, faixas etárias, classes sociais — passando
a dirigir, então, suas campanhas de acordo com esses resultados. As pesquisas podem
também identificar os assuntos que mais interessam aos eleitores, suas preferências e o que
os desagrada, e indicar quais candidatos ou idéias políticas conseguiram melhores ou piores
resultados no passado.
John Kennedy foi o primeiro candidato do país a dar importância à utilização das
pesquisas de opinião. Foi em 1960; contratou o pesquisador Louis Harris, que depois veio
a se tornar um especialista independente. No final da década de 70, todos os candidatos
sérios para cargos eletivos que podiam pagar estavam seguindo a idéia de Kennedy; o estilo
de campanha que prevalecia era o de pesquisas dispendiosas de opinião, combinadas com
um grande número de aparições nos meios de comunicação de massa. Nessa época, porém,
as figuras mais destacadas e bem remuneradas da área, como Wirthlin, tinham se transferido
para novas alturas de precisão estatística. A DMI desenvolveu importantes ligações. Seus
clientes agora incluíam agências federais tais como Serviços Humanos e de Saúde [Health
and Human Services], Ministério do Trabalho [Department of Labor], e Ministério da
Educação [Office of Education]. Por sua vez, a firma tinha acesso a aproximadamente 40
bancos de dados federais, cujas informações se tornaram disponíveis ao público. Wirthlin,
com uma grande estrutura de suporte — por volta de 300 funcionários — era capaz de
mobilizar todos esses dados com a ajuda de um intrincado método de computação

13
Para uma descrição (algo exagerada) dos serviços de Richard Wirthlin na campanha de Reagan, em 1980, ver Roland Perry,
Hidden Power, Nova Iorque, Beauford Books, 1984. As linhas gerais da narrativa de Perry são confirmadas pelo relato “The
Marketing of a Candidate”, Advertising Age, 15.12.1980.
denominado PINS (Political Information Service, ou Serviço de Informação Política).
Conseguira reunir os mais ambiciosos serviços de simulação e amostragem eletrônica já
desenvolvidos, criando um novo padrão para a profissão. Suas pesquisas telefônicas — que
incluíam entrevistas previamente gravadas e automatizadas — eram as maiores, mais
completas e constantes. Desenvolveu técnicas de “rastreamento”, que envolviam entrevistas
telefônicas noturnas com um número entre 500 e 1000 eleitores escolhidos ao acaso. Havia
até mesmo dispositivos que permitiam ao entrevistador entrar com as respostas diretamente
nos computadores, garantindo resultados em milésimos de segundo. Os programas de
computação e as entrevistas cuidadosamente preparadas por Wirthlin, que dividiram a
população norte-americana em 108 categorias demográficas, eram perfeitamente capazes
de isolar qualquer item da plataforma do candidato, ou de sua imagem pessoal — “o fator
bom moço”, “o fator maldade”, “o fator perigoso e negligente” — avaliando rapidamente
sua “tendência” a flutuações em grupos específicos de eleitores, fornecendo reações
imediatas a um discurso, debate, entrevista coletiva, e até um comentário extra-oficial. A
mesma pesquisa refinada podia ser utilizada para avaliar o progresso da oposição, e a
campanha podia ser ajustada aos números conseguidos: mais disso, menos daquilo, mais
pressão aqui, deixar tal coisa pra lá, sorrir mais, manter o perfil esquerdo voltado para a
câmera.14
A cada eleição, cresce a influência e a visibilidade dos pesquisadores de opinião
pública. Alguns deles, como Wirthlin e Patrick Caddell, assumiram um grande status
pessoal aos olhos do público, como pertencentes a uma nova geração de estrategistas
políticos. Tendo aperfeiçoado as simulações e as pesquisas de opinião pública até conseguir
uma beira metodológica refinada no mercado, podem empregar esses conhecimentos para
vender candidatos da mesma maneira como venderiam quaisquer outros produtos. O
segredo de seu sucesso está na mística da informação computadorizada, sua capacidade de
gerar e lidar com grandes quantidades de dados, fazendo surgir “números confiáveis” sobre
qualquer assunto, idéia política, incidente, gesto, mudança de discurso. Wirthlin, por
exemplo, foi capaz de apresentar a seu cliente presidencial uma quantidade atordoante de
dados computadorizados. Na época da eleição, em 1980, seu programa PINS já rodara mais
de 400 simulações baseadas em cada uma das combinações e suposições possíveis sobre
quais as atitudes que o candidato Reagan deveria tomar. Após a eleição, os serviços de um
pesquisador de opinião pública não precisam, necessariamente, ser encerrados. Wirthlin
continuou na folha de pagamento da administração Reagan após a vitória do candidato,
continuando a fazer pesquisas de opinião pública e dando conselhos a um custo aproximado
de um milhão de dólares anuais.
Os pesquisadores de opinião estão disponíveis a qualquer um que possa custear o
trabalho; têm sido utilizados por grupos de todas as tendências políticas. Mas, obviamente,
preferem aqueles que pagam mais pelos melhores serviços. Congressistas que têm acesso a
computadores financiados pelo governo e gozam do direito à postagem gratuita também
têm sua vez. Esse privilégio pode ser vantajosamente combinado com os serviços de uma

14
Para discussões dos métodos de Wirthlin, ver Mark Levy, “Polling and the Presidential Election”. Annals of the American
Academy of Political and Social Sciences, mar. 1984; e o próprio relato de Wirthlin da campanha de 1980, “A Estratégia
Republicana e Suas Conseqüências Eleitorais”, em Party Coalitions nos anos 80, Seymour Lipset (org.), São Francisco, Institute
for Contemporary Studies, 1981. A respeito das eleições em geral, ver Dom Bonafede, “Campaign Pollster — Candidates Won’t
Leave Home without Them”, National Journal, 26. 5.1984; Bruce E. Altshuler, Keeping a Finger on the Public Pulse, Westport,
Conn. Greenwood Press, 1982; e Steven J. Rosenstone, Forecasting Presidential Elections, Yale University Press, New Haven,
1983.
nova mina de ouro no negócio da informática: as malas diretas. São as pessoas que correm
atrás das pilhas de correspondência inútil que soma, nas caixas de correio norte-americanas,
aproximadamente 10 milhões de unidades diárias. Os proprietários de malas diretas
negociam listas. Acumulam listas computadorizadas de nomes e endereços de centenas de
fontes, para depois analisá-los e refiná-los, de modo a atingir populações específicas para
publicidade, levantamento de fundos, campanhas políticas. As maiores firmas nessa área (a
Metromail, de Lincoln, Nebraska; a R. L. Polk Company, de Detroit; a Donnelley
Marketing Service, de Stamford, Connecticut) rotineiramente fazem a entrada em seus
computadores de listas telefônicas, listas de endereços, registros municipais, dados sobre
veículos, integrando essas informações com os recenseamentos e os CEPs. Como resultado,
70 das 85 milhões de residências norte-americanas se encontram em arquivos para serem
selecionadas por malas diretas adequadas.
Será que os pesquisadores fazem tanta diferença assim para os candidatos? É claro
que eles são especialistas em vender seu próprio trabalho e, portanto, como se pode
imaginar, prontos a afirmar que nenhum candidato poderá prescindir deles — embora
(obviamente) pelo menos metade dos candidatos que concorrem a cargos eletivos, mesmo
com sua ajuda, serão derrotados. Mas a questão é muito mais ampla. O que importa é que
os candidatos “acreditam” que esses pesquisadores fazem diferença e planejam suas
campanhas com base na informação computadorizada. Como resultado, temos um estilo
melancólico de política, cada vez mais calcado na imagem, em slogans, mistificação
retórica — na verdade, ao estilo mercenário de uma feira livre.
Em todo caso, os políticos são sempre vítimas desse vício nos Estados Unidos, mas
os pesquisadores somente aumentam a corrupção ao afirmarem que são capazes de
manobrar seus candidatos com uma precisão milimétrica. Não há dúvidas de que grande
parte das recomendações desses pesquisadores não passa de baboseira: discussões banais a
respeito de percepções efêmeras do público, projeções ilusórias, invenções estatísticas. É
óbvio que nenhuma das informações pode ser superior às suposições que a programam. Mas
trata-se de uma baboseira expressa em quantidades intrincadamente combinadas e recém-
saídas do computador. Tais “demografias” — ou melhor ainda, “psicografias”, uma nova
moda das relações públicas cujo propósito é integrar valores e aspirações quantificadas dos
consumidores/eleitores — chegaram a gozar da mesma credibilidade entre os políticos, que
os spreadsheets para a comunidade financeira. Os números promovem a magia. Fazem
“parecer” que os pesquisadores sabem do que estão falando, e estes tratam logo de assumir
um ar científico intimidatório. “Sou, em primeiro lugar, um cientista”, diz o pesquisador de
opinião Jonathan Robbin. “Essa é a minha vocação. Sendo cientista, isso quer dizer que me
interesso pelos problemas de medições e interpretações, e pelo entendimento de como as
coisas funcionam”. Robbin é o inventor de um método de marketing baseado na
computação, método esse denominado Geodemographics, baseado em códigos de
endereçamento postal e estatísticas sociais. Realizou pesquisas de opinião pública para a
Sears, a General Motors, o Exército, e para sindicatos de trabalhadores durante as eleições.15
Na verdade, é possível que algumas vezes haja alguma eficácia sutil nas
recomendações desses especialistas, como indivíduos experientes que são a respeito do
nível de mediação dos meios de comunicação nas instáveis preferências do público, nos

15
Robbin, citado em Burnham, The Rise of the Computer State, p. 90, faz uma descrição iluminadora de como um sindicato de
trabalhadores utilizou a técnica de Robbin para derrotar certas leis.
caprichos, nos preconceitos, e nas inseguranças. Afinal, suas técnicas de marketing
realmente são bem sucedidas na venda de inúmeros artigos inúteis, de que o público nunca
soube que necessitava. Falando ainda mais claro: existe um pesquisador de opinião pública,
Richard Wirthlin, que conseguiu tomar Ronald Reagan presidente. Qualquer técnica que
consiga fazer um vencedor a partir de material tão improvável, certamente parecerá
impressionante para os outros indivíduos da área.
Como geralmente acontece quando os estritos poderes mecânicos do computador
são aplicados a um problema complexo, o sucesso resultante advém principalmente da
maneira de dissociar os componentes da tarefa em elementos menores, ou seja, em algo que
o computador seja capaz de fazer — e, a seguir, fazer bastante barulho para abafar as
reticências. Aquilo que os pesquisadores mostram como resultado de seus métodos provém
de um drástico aviltamento do processo democrático. Na verdade, desviam a atenção dos
temas importantes, transformando o debate e o julgamento eleitoral em um jogo estatístico
vazio. Este, obviamente, é o melhor uso que eles podem fazer de seus computadores:
pesquisas que mostram quem está “na frente”. Não apenas no sentido geral, mas através de
medidas cada vez mais meticulosamente refinadas: dentro desse grupo, naquela área, neste
tema. E pesquisam repetida e elaboradamente — até mesmo diariamente. O resultado é uma
avalanche estonteante de números revelados ao público sob o rótulo de notícias
“importantes”. Nesse caminho, os pesquisadores são seguidos pelos meios de comunicação,
também altamente informatizados. Assim, os levantamentos, as pesquisas de opinião, as
simulações são combinados, comparados e debatidos. Confronta-se um pesquisador com
outro, um computador com outro — como se o tema principal da eleição fosse a
credibilidade das pesquisas. Isso nem chega a ser política reduzida ao nível de corridas de
cavalos; é um concurso entre os book-makers para comparar suas “barbadas”.
Na década passada, à medida que os computadores foram se tornando cada vez mais
eficientes e importantes, desenvolvemos uma cultura popular obcecada por classificações e
avaliações. Até mesmo os concursos de beleza atuais são elaboradamente tabulados em
programas esotéricos que fazem piscar os totais nas telas dos aparelhos de TV a cada
segundo. Os esportes e o atletismo se tornaram um mar de estatísticas instantâneas. Os
jornais apresentam as últimas audiências dos programas de televisão; filmes e discos são
classificados pelas vendas semanais. No mundo dos negócios vemos cartazes diários de
desempenho das companhias. Era inevitável que esse espírito de competição quantitativa
tomasse conta dos políticos.
Nas recentes eleições norte-americanas, a principal questão, arduamente discutida,
tanto nos meios de comunicação quanto nos escritórios eleitorais dos candidatos, tornou-
se: “quem está ganhando?” Quem está ganhando na Califórnia... na Flórida... entre os
cidadãos mais idosos... entre os yuppies... entre os operários das várias etnias. A campanha
em si, medida por essas coordenadas, toma-se uma preocupação obsessiva entre
comentaristas e especialistas — não os temas para os quais a campanha presumivelmente
serve como veículo. Essas questões são, afinal, matéria de julgamento subjetivo. Mas a
situação das campanhas, refletida nas pesquisas, é uma questão de números sólidos, e
números sólidos permitem fácil avaliação. Um candidato se torna uma “boa” escolha se
estiver “na frente”; uma má escolha se estiver “atrás”. Candidatos “à frente do bolo” são
tratados com a deferência e a admiração reservadas aos vencedores; suas campanhas estão
em “boa forma”. Candidatos “longe do bolo” estão “em dificuldades”. Têm a aparência de
perdedores e são tratados com perceptível ceticismo. Suas campanhas estão
“desordenadas”, “caindo aos pedaços”, “quase perdidas”. Um ponto conseguido num debate
é “bom” se conseguir altos pontos nas pesquisas do dia seguinte, mesmo que não tenha
passado de uma piada ou de uma resposta inteligente. Um ato falho, uma exibição de humor
ou fadiga pode ser um “erro”; é logo identificado como um item importante nas pesquisas.
Será que “prejudicou” sua posição? Será que o candidato poderá “recuperar-se” e “alcançar”
os outros? Os eleitores são encorajados a prestar muita atenção à aparência e à fala dos
candidatos. Eles parecem relaxados, sob controle, ansiosos?
Eis as trivialidades transitórias registradas pela pesquisa de opinião
computadorizada. Não têm qualquer relação com idéias e convicções; o conhecimento
desses aspectos não encoraja idéias e convicções. São meros reflexos verbais a níveis
elementares, trejeitos emocionais efêmeros. Mas, uma vez que as incertezas são coletadas,
somadas, computadas, impressas, assumem a autoridade de números exatos. Os meios de
comunicação os divulgam solenemente. O público e os candidatos lêem os números e os
avaliam. Eruditos tiram conclusões sérias. Cada vez mais, porém, o que está ocorrendo é
que os indivíduos estão reagindo à pesquisa em si. As pesquisas estão medindo as pesquisas.
Nada disso acaba quando as eleições chegam ao fim. Continua, agora, como Uma
atividade profissional em período integral. Em cada questão que surge, em cada incidente
que se noticia, as opiniões do público são aferidas. Esse público fica sabendo que outros
indivíduos desse mesmo público “aprovam” ou “desaprovam”, “gostam” ou “não gostam”.
Somos encorajados a acreditar que política significa “opiniões” — não a “formação” de
opiniões, mas apenas sua tabulação. Isso pode ganhar a aparência de algo extremamente
democrático. Afinal, “todo mundo” tem uma opinião, e não é verdade que uma opinião vale
tanto quanto a outra? Se souber fazer a pergunta certa, você poderá reduzir a resposta a um
simples sim Ou não. Todo mundo sabe dizer sim ou não. O que torna válida uma opinião?
O ato da pesquisa em si, que funde todas as opiniões, conta-as, e depois as divulga como
descobertas significativas para a consideração do público. O eleitorado é colocado na
posição absurda de espectador da previsão de seu próprio comportamento político.
Talvez algum dia um escritor com o intrincado toque surrealista do argentino Jorge
Luis Borges escreva uma história a respeito desse estado de coisas. Começará com uma
pesquisa que pergunta se o público aprova a maneira pela qual as pesquisas vêm lidando
com a taxa de aprovação do presidente. A seguir, haverá uma pesquisa para medir as
opiniões do público sobre aquela pesquisa. Depois, haverá uma pesquisa sobre a pesquisa
sobre a pesquisa. Finalmente haverá uma eleição em que o público votará na pesquisa que
lhe parecer refletir mais precisamente as opiniões do público.
Política na Era da Informação.

A máquina de guerra
Se a medida da força política se encontra na magnitude das decisões que se toma, então
podemos estar a um passo de entregar ao computador a autoridade suprema de governo de
nossa sociedade. Tanto nos Estados Unidos quanto na União Soviética, o controle sobre o
arsenal termonuclear é cada vez mais depositado em sistemas computadorizados,
juntamente com panoramas programados que determinam como, quando e onde tal arsenal
deve ser utilizado. Isto representa nada menos que o poder sobre nossa vida e morte coletiva.
Na conferência anual realizada em São Francisco no outono de 1984, recomendou-
se insistentemente que os membros da Association for Computer Machinery [Associação
dos Equipamentos de Computação] — a mais antiga sociedade ligada à computação nos
Estados Unidos — fizessem uma reflexão crítica a respeito do papel de suas profissões no
sistema de “desencorajamento” do país. Foi-lhes dito: “Não podemos ignorar o fato de que
a tecnologia da informação tenha tanta importância nas forças nucleares quanto a tecnologia
da física nuclear ou dos foguetes. Nós também projetamos os equipamentes de guerra
nuclear. O que significa que temos uma enorme responsabilidade moral”.16
Na mesma época, no outono de 1984, um grupo ativista denominado Computer
Professionals for Social Responsability [Profissionais da Computação por uma
Responsabilidade Social], com sede na península de São Francisco, dava uma importância
ainda maior a essa ameaça. Sua preocupação era o conceito estratégico chamado launch on
warning (LOW) — lançamento baseado em informação — que constitui o lançamento pré-
programado de mísseis termonucleares, como os Minuteman e os MX, quando os
computadores recebem informações indicando um “possível” ataque soviético. Na hipótese
de tal ataque estar em andamento, o tempo hábil de resposta por parte dos Estados Unidos
seria tão restrito que os mísseis teriam que ser lançados o mais cedo possível. Caso
contrário, seriam destruídos em seus próprios silos. Mísseis de submarinos soviéticos ao
largo da costa norte-americana podem atingir alvos como Washington e Nova Iorque em
aproximadamente seis minutos; bases terrestres vulneráveis mais no interior, em menos de
meia hora. Não haveria tempo para assegurar uma decisão presidencial. Como dizem os
militares, com relação aos mísseis tipo MX: “Vamos usá-los ou perdê-los”.
O Ministério da Defesa jamais admitiu ter uma política de LOW. Mas essa, se
existisse — assim afirmam os Profissionais da Computação por uma Responsabilidade
Social — seria uma clara violação da Constituição, que reserva a autoridade de fazer a
guerra ao presidente e ao Congresso. O LOW significaria que os poderes para fazer a guerra
teriam sido delegados às máquinas, ou melhor, aos programadores anônimos não-eleitos
que teriam criado o software para o sistema de deterrence* com a decisão de lançar as armas
mais destrutivas entre as já criadas. Em junho de 1984, os membros do PCRS entraram com
uma ação judicial no supremo tribunal federal, exigindo que os ataques nucleares acionados
automaticamente por computadores fossem declarados inconstitucionais. (O caso foi
rejeitado).17
O Pentágono afirma que os Estados Unidos não possuem a habilidade necessária
para um LOW. Mas essa pode ser apenas uma contingência temporária da situação militar
nacional. No período entre 1985 e 1990, o Departamento de Defesa estará ganhando 600
milhões de dólares numa iniciativa estratégica computadorizada altamente apregoada, que
terá como objetivo explorar os usos militares dos mais avançados sistemas de computação,

16
Ver o relato “Nuclear War and the Computer”, Datamation, fev. 1984, pp. 50-51, e em New Scientist, Londres, 25.10.1984.
*
Desencorajamento, inibição. (N. T.)
17
Ver o relato em New Scientist, Londres, 25.10.1984, p. 7. Ver também artigo no San Francisco Chronicle, 11.7.1985, p. 17.
Aparece um item sobre a responsabilidade social dos profissionais do computador em Datamation, fev. 1984, pp. 58-60, e uma
discussão de uma ação judicial aparece em Laura Fraser, “Can a Computer Declare War?”, This World Magazine, San Francisco
Chronicle, 24.11.1985. p. 19.
com vistas a criar armamentos totalmente automatizados, possivelmente incluindo
suplementos no sistema de deterrence. As armas já não são chamadas de “inteligentes”,
mas de “brilhantes”.18 A computação estratégica é a resposta americana à pesquisa japonesa
na chamada tecnologia da computação de quinta geração. Pelo que se sabe, os japoneses
decidiram repensar radicalmente os projetos de seus computadores, de modo a integrar
várias formas de inteligência artificial, principalmente sistemas especializados. A
tecnologia norte-americana, baseada na IA (inteligência artificial), terá que processar
milhões de vezes mais dados, em programas muito mais complicados que qualquer um entre
os atualmente existentes. A agenda do Pentágono inclui itens tais como os tanques
robotizados e um completo “sistema de gerenciamento de batalha” montado a bordo de um
porta-aviões. Ambos terão capacidade para agir com autonomia, sem a intervenção humana.
Poderão ver, ouvir, falar e fazer julgamentos baseados na previsão de “eventos prováveis”.
Os militares prometem que as pesquisas para esses sistemas de armamentos trarão lucros
ilimitados. O Departamento de Projetos de Pesquisa de Defesa Avançada convenceu o
Congresso de que “as aplicações comerciais domésticas dessa nova tecnologia certamente
completarão a transformação da sociedade norte-americana em uma sociedade da era da
informação”.19
Pesquisas desse tipo certamente se intensificarão, à medida que os Estados Unidos
desenvolverem seu sistema de defesa estratégica, o projeto “Guerra nas Estrelas”. Essa
defesa antimíssil estaria baseada em múltiplos sistemas de computação de uma
complexidade estonteante, que deveriam operar em combate (sem testes prévios
significativos além das simulações realizadas pelos próprios computadores), sem a
supervisão humana. O Secretário da Defesa, Caspar Weinberger, descreveu a tarefa do SDI
(com otimismo) como a capacidade de “identificar, rastrear e destruir, com segurança,
vários milhares de alvos em curtíssimo espaço de tempo”. Curtíssimo, quanto? Mais ou
menos dois ou três minutos. Os programas que controlam a interação de tecnologias tão
avançadas (em sua maioria, ainda não inventadas) terão que prever centenas de
contingências de combate, que poderão surgir no calor da batalha: táticas de evasão, falhas
no equipamento, acidentes, variações climáticas. Nenhum cérebro humano seria capaz de
processar tantas informações com suficiente rapidez. Estima-se que os programas do SDI
terão dezenas de milhões de linhas de código — mil vezes mais que os mais complexos
programas atualmente existentes. Exigiriam equipes de programadores trabalhando durante
anos.20
Mesmo sem o SDI, a dependência dos militares aos computadores é enorme. A
estratégia de deterrence nuclear do Comando Aéreo Estratégico é controlada pelo maior
complexo de telecomunicações e processamento de informações do mundo: o Worldwide
Military Command and Control System — WIMEX — [Sistema de Controle e Comando
Militar Mundial]. Trata-se de uma rede mundial de sensores, satélites e sistemas de
computadores que ligam 26 importantes centros de comando norte-americanos localizados

18
Sobre a Strategic Computing Initiative, ver artigos em New York Times, 18.6.1984, p. 17; 23.10.1984, p. C-l; e Washington Post,
4.11.1983, p. 1, e 5.9.1984, p. F-l. Ver também “Military Computing: DARPA'S Big Push in AI”, Datamation, fev. 1984, pp.
48-50.
19
Congresso dos EUA, House Appropriations Committee, Department of Defense Appropriations para 1985, p. 5, 98 Congr., 2
sess., p. 495.
20
Sobre a iniciativa de defesa estratégica, ver Jonathan Jacky, “The Star Wars Defense Won’t Compute”, Atlantic, jun. 1985, pp.
18-29; Jeff Hecht, “Star Wars: An Astronomical Bribe for Scientists”, New Scientist, Londres, 20.6.1985, pp. 14-18; “Reagan’s
Star Wars”, relato da Union of Concerned Scientists, New York Review of Books, 26.4.1984, pp. 47-52.
em várias partes do mundo. Desde meados da década de 70, o WIMEX tem sido objeto de
críticas insistentes e freqüentes, devido a suas inúmeras vulnerabilidades, que incluem
algumas duvidosas compras de equipamentos de computação originais.21 As dúvidas têm
bastante fundamento; o sistema passou por repetidos problemas de mau funcionamento. Em
1977, durante um teste mundial, mais de 60% das mensagens deixaram de ser transmitidas.
Durante um período de 18 meses, no final da década de 70, a Defesa Aérea Norte-
Americana relatou 150 alarmes falsos “graves”, quatro dos quais resultaram no
funcionamento dos motores por parte de tripulações de bombardeiros B-52; grupos de
mísseis e comandantes de submarinos entraram em alerta máximo.
A maior parte desses erros foram devidos a identificações impróprias nos radares,
ou a peças defeituosas, muitas vezes componentes eletrônicos de baixo custo. Em certa
ocasião, em novembro de 1979, uma fita de treinamento de ataque simulado soviético.foi
rodada por engano e foi lida pelo sistema como um alerta real. Todas essas crises foram, no
final, resolvidas pela intervenção dos comandantes militares, que simplesmente sabiam que
aquilo tinha de ser um engano. Felizmente, eles tiveram tempo — ao menos vários minutos
— para pensar, com suas lentas mentes humanas, e interromper o alerta. Mas, à medida que
o tempo de resposta permitido pelos armamentos diminuir, o sistema terá que se tornar cada
vez mais sensível e autônomo.
Atualmente, o local-chave para a automação militar avançada não é o sistema de
mísseis intercontinentais do país, mas o mais limitado cenário europeu. Ali, a nova geração
de mísseis soviéticos de médio alcance e os mísseis norte-americanos Pershing II e Cruise
estão instalados a poucos minutos de vôo uns dos outros. Em ambos os lados, as armas são
dotadas de capacidade de primeiro ataque, o que significa a precisão ou a indetectabilidade
necessária para destruir os armamentos do inimigo, através de um ataque antecipado. A
situação é tão delicada que, atualmente, o Pentágono está procurando desenvolver um
sistema especializado de inteligência artificial que possa assumir controle total dos
armamentos. O projeto foi contratado com Sistemas de Defesa TRW, da Califórnia.22 Os
estudos de exeqüibilidade realizados pela TRW partem da abordagem que se tornou comum
no projeto de sistemas especializados: examina a maneira pela qual os especialistas agem,
ou seja, nesse caso, os generais fazendo a guerra. Generais de inteligência superior são
identificados; sua “capacidade de julgamento” é, então, traduzida em um programa de
computador, da mesma maneira que a experiência de vários bons médicos poderiam ser
compilados em um sistema especializado em diagnósticos médicos. Há uma diferença,
claro. Nenhum general jamais enfrentou uma guerra termonuclear, quanto mais saiu
vencedor de uma delas. Então, onde são encontrados tais “especialistas”? São selecionados
por seu desempenho em jogos de guerra, simulações computadorizadas de batalhas,
supostamenté baseadas na concepção não especializada de um indivíduo qualquer, do que
seria uma guerra termonuclear. Assim, os programas de computação desse sistema
especializado não serão baseados em experiência exaustivametne testada, mas em
avaliações feitas por outros programas de computação.
O objetivo de pesquisas como essas (nas palavras do Departamento de Defesa) é
atingir “veículos terrestres, marítimos e aéreos, completamente autônomos, capazes de

21
Sobre o WIMEX e os problemas de computador, no que se refere aos primeiros sistemas de aviso dos EUA, ver Daniel Ford,
The Button: The Pentagon's Strategic Command and Control System, Nova Iorque; Simon & Schuster, 1985.
22
Ver “General Computer Takes Charge”, New Scientist, Londres, 21.4.1983, p. 153.
extensas e complexas missões de reconhecimento e ataque. Em comparação com os
computadores anteriores, a nova geração exibirá inteligência semelhante à humana para
planejamento e raciocínio”.23
A tecnologia da informação é a filha da necessidade militar; tem feito parte da
máquina de guerra desde o início, quando os primeiros computadores primitivos foram
utilizados, durante a Segunda Guerra Mundial, para auxiliar a balística e a artilharia nos
cálculos da bomba atômica. Tal ligação permanece. Nos Estados Unidos, o projeto mais
ambicioso de pesquisa e desenvolvimento é a nova Companhia de Microeletrônica e
Informática [Microelectronic and Computer Technology Corporation], em Austin, Texas.24
Trata-se de um consórcio de doze companhias que viola claramente as leis antitruste. Se o
Departamento de Justiça permite sua sobrevivência, é graças à intervenção do Pentágono,
que criou e, em grande parte, banca a operação, com o propósito específico de explorar as
aplicações militares dos computadores. Como observa Jonathan Jacky, “O Departamento
de Defesa está atualmente subordinando tão completamente a ciência da computação às
necessidades militares quanto a física nuclear, a astronáutica, e a balística de foguetes
estavam subordinadas nos anos 40”. Ele calcula que, até 1990, o Pentágono estará gastando
mais de 30 bilhões de dólares anuais somente na produção de software, o que corresponde
a 10% do orçamento da defesa.25
Não há dúvida de que qualquer fã dos computadores consideraria os video games
tais como “Invasores do Espaço” como estando entre os usos mais triviais dessa espantosa
tecnologia que simula tão perfeitamente a inteligência humana. Mas há uma estreita
correlação entre esses divertimentos infantis e as mais audaciosas extensões da informática,
encontradas no SDI. Essa correlação consiste na psicologia de intimidação do guerreiro, a
fundação chauvinista do sistema de nação-Estado. Essa fascinação pela violência humana
aparece primeiramente nas brigas de rua entre adolescentes, das quais sabemos que eles vão
logo se cansar. Mas muitos garotos nunca crescem; sua paixãò pela luta simplesmente se
toma mais disciplinada, mais organizada. E, afinal, os bobocas do mundo inteiro
presentearam os meninos-soldados com o maior de todos os palcos de video games — o
planeta Terra.
Graças às velocidades espantosas das armas modernas, as últimas tentativas de
restrição à guerra termonuclear estão caindo por terra. Em pouco tempo, os resíduos de
medo, pena, compaixão e indecisão, que devem sobreviver nas almas dos soldados, serão
também eliminados. Os armamentos estarão totalmente sujeitos a máquinas, cuja
inteligência artificial será uma caricatura unidimensional e insensível da vontade militar. A
honra, a audácia, o heroísmo pessoal, as únicas qualidades redimíveis da vocação militar
não mais existirão. O ato de guerra mais decisivo e concebível será expresso por uma lógica
de números processados fria e prontamente pelas inescrutáveis células de silício de uma
máquina.

23
Relato DARPA, Strategic Computing, citado por Jacky, “The Star Wars Defense Won’t Compute”, p. 20.
24
Ver John Lamb, “Defense Men Take Control of America's Computers”, New Scientist, Londres, 26.5.1983, p. 526.
25
Jacky, “The Star Wars Defense Won’t Compute”, p. 26.
Machine à gouverner
Já em 1950, quando o “computador ultra-rápido” não passava de um monstro desajeitado,
Norbert Wiener especulava a respeito das eventuais aplicações sociais e políticas da
cibernética. Propôs a seguinte questão:
“Não se poderia imaginar uma máquina que coletasse esse ou aquele tipo de
informação, como por exemplo, informação sobre produção e mercado, e
depois determinar, como função da psicologia média dos seres humanos e das
quantidades passíveis de medições em determinadas circunstâncias, qual seria
o mais provável desenvolvimento da situação? Não se poderia conceber um
aparato estatal que cobrisse todos os sistemas de decisões políticas...? Podemos
sonhar com o momento em que uma machine à gouverner passe a substituir
— bem ou mal — a óbvia inadequação atual da mente quando se trata do
último caso, ou seja, a costumeira máquina política”.26
Quando essas palavras foram escritas, talvez tenham sido consideradas ficção
científica. Até mesmo entre os especialistas em cibernética, teria havido poucos a acreditar
que assuntos que apresentavam complexidade moral referente a conflitos internacionais ou
a planejamento econômico poderiam ser eventualmente confiados à inteligência artificial.
O próprio Wiener, após considerar a possibilidade sob vários ângulos, encerrou a questão
com o seguinte alerta:
Pobres de nós se a ela confiarmos nossas decisões, a menos que tenhamos
examinado previamente as leis de sua atuação e tenhamos pleno conhecimento
de qual seria sua conduta, com base em princípios por nós aceitos!
Mas a reserva de Wiener não era compartilhada por todos os seus colegas,
principalmente não por aqueles que estavam ocupados abrindo os campos da inteligência
artificial e, mais tarde, da ciência cognitiva. Já em 1960, Herbert Simon esperava confiante
pelo dia “daqui a menos de vinte e cinco anos” no futuro, em que “teremos a capacidade
técnica de substituir máquinas por todas e quaisquer funções e organizações humanas”,
inclusive aquelas que requerem “emoções, atitudes e valores”.27
Essa previsão, a exemplo da maioria das autopropagandas oportunistas, originárias
da comunidade da inteligência artificial, obviamente não se tornou realidade; sua realização
não está à vista. Entretanto, sustentados por promessas profissionais exuberantes como essa,
o campo da tecnologia informacional se expandiu agressivamente em várias áreas de nossa
vida política, inclusive nos altos níveis de política e tomada de decisões.
As bases desse desenvolvimento eram restritas e descentralizadas, originárias das
equipes de análise de sistemas (ou operações) da Segunda Guerra Mundial. Após o término
da guerra, a teoria de sistemas aplicados encontrou um novo lar no pensamento militar,
como no RAND e no Mitre, onde cientistas sociais estavam muitas vezes ligados aos físicos
e estrategistas em projetos de pesquisa ad hoc para avaliar os efeitos de uma guerra
termonuclear ou de um plano de defesa civil. Durante o governo Kennedy, um dos
principais focos de pesquisa em ciência social era o das operações armadas de contra-

26
Wiener, citando Pere Dubarle em The Human Use of Human Beings, pp. 178-180.
27
Citado em Weizenbaum, Computer Power and Human Reason, p. 244.
revolução, utilizando-se de equipes de cientistas políticos, antropólogos e psicólogos.
Naquela época, a forma dominante de ciência social nas universidades era comportamental
e altamente estatística, uma desajeitada caricatura das ciências físicas. O estilo clamava pela
computadorização mas, nas universidades, os cientistas sociais costumavam ser tratados
como cidadãos de segunda classe, quando se tratava de utilizar os poucos computadores
disponíveis.
Essa ruptura não ocorreu senão no final dos anos 60 — e em duas frentes. Em 1967,
o Instituto Internacional de Análises de Sistemas Aplicados se estabeleceu em Viena. Era
um centro equipado com computadores de alto investimento, apoiado tanto pelo bloco
ocidental quanto pelo oriental. Serviu para abrir caminho para vários projetos na área de
“modelos globais” ou “mundiais” para planejamento social de longo alcance.28 Alguns anos
depois, em 1969, sociólogos de Harvard e o MIT se associaram para organizar o que parecia
um Projeto Manhattan para suas disciplinas. Conseguiram, do Departamento de Defesa,
uma verba de 7,6 milhões de dólares durante cinco anos para explorar novas técnicas de
programação. A verba foi destinada ao Projeto Cambridge, que, teoricamente, abarcava
pesquisas genéricas, sendo, portanto, útil para uma variedade de estudos das ciências
sociais. O projeto foi anunciado como uma busca de “computadores neutros”.29 Mas as
verbas do Departamento de Defesa ligaram inevitavelmente o Projeto Cambridge às
necessidades do Pentágono, que esperava fazer valer seu dinheiro. Como resultado, o
projeto logo se envolveu na Guerra Fria — recebendo tarefas como desenvolver programas
de “identificações e alertas” para o serviço secreto militar. Outro de seus estudos visava
construir modelos computadorizados de aldeias amigas e hostis na Tailândia,
recomendando, em seguida, a política mais adequada. Uma forma semelhante de utilização
de modelos foi a seleção de alvos de bombardeios na guerra do Vietnã. Cidades cujos
parâmetros do modelo eram “amigas” eram deixadas de lado; as “hostis” eram condenadas
à destruição. A ciência social computadorizada finalmente encontrou seu caminho numa
aplicação de vida e morte.30
Em 1971, um relatório do Projeto Cambridge torna claro suas amplas intenções
políticas:
Com estas técnicas seria possível, em poucos dias, considerar todas as
estratégias para uma invasão de Cuba ou do Vietnã do Norte. Provavelmente
mais adiante, mas ainda num futuro próximo, tais técnicas poderiam ser
empregadas para decidir sobre uma possível intervenção numa revolução ou
eleição em país estrangeiro.31
Talvez o mais ambicioso esforço de adaptação da tecnologia da informação à arte de
governar tenha tido lugar no Chile, em 1970. O presidente Salvador Allende levou ao país
o especialista britânico em cibernética, Stafford Beer, para desenvolver e administrar uma
ordem econômica otimizada para o país. Trabalhando a partir da fórmula “a informação é o
que nos modifica; a informação constitui o controle”, Beer tinha inventado um intrincado
sistema de computação, curiosamente por ele denominado Máquina da Liberdade. Seu

28
A respeito do IIASA, ver artigo em New Scientist, Londres, 19. 7.1973, p. 27.
29
Judith Cobum, “Project Cambridge: Another Showdown for Social Sciences?”, Science, 5.12.1969, pp. 1250-1253.
30
Sobre sistemas de bombardeio computadorizado no Vietnã, ver Weizenbaum, Computer Power and Human Reason, pp. 238-
240.
31
JosephHanlon, “TheImplicationsof Project Cambridge”, New Scientist, Londres, 25.2.1971, pp. 421-423.
propósito era concentrar todos os dados disponíveis sobre a economia nacional e até
mundial e, a partir daí, criar um “modelo cibernético”. Os computadores no comando dos
modelos receberiam “dados reais dos sistemas por eles monitorados, filtrando a informação
ali contida”. Então, seria possível “formular hipóteses, fazer simulações e predições a
respeito da trajetória mundial”. Entre 1971 e 1973, Beer, trabalhando secretamente para o
Ministério das Finanças, procurou estabelecer, no Chile, algo semelhante à Máquina da
Liberdade. Foi um esforço sério, instalado a muito custo numa sala de controle central (o
“Opsroom”), em Santiago, onde conseguiu, no auge de seu poder, reunir 60% da economia
do Chile em sua coleta de dados nas redes do governo.32 O sistema incluía a capacidade
para prever e impedir greves. Beer relatou: “Utilizamos todo conhecimento científico
relevante no projeto do local — conhecimento cibernético de processos mentais, de
psicologia aplicada e grupai, de ergometria”.33 O projeto acarretou uma nova e interessante
definição de “liberdade”. “Liberdade”, decidiu Beer, “pode, de fato, ser utilmente redefinida
para a atual era tecnológica. Informações precisas estão livres para agir — e esse é o
princípio sobre o qual a nova Máquina da Liberdade deveria se basear”. É uma definição
que transforma o computador em parte integrante do conceito.34
O grande projeto de Beer foi interrompido pela queda de Allende, num golpe de
estado patrocinado pela CIA, mas, mesmo nessa forma incompleta, é um bom exemplo de
o quanto um utópico crédulo da cibernética deseja assumir o controle. Esquemas dessa
magnitude deveriam ser encarados somente como os mais ambiciosos projetos de pesquisa
que têm procurado maneiras de computadorizar uma série de serviços e instituições
humanas: medicina, direito, psiquiatria, administração pública. Todos esses esforços são
baseados numa só suposição: a de que o pensamento humano, mesmo nos níveis mais sutis
e intrincados, é um tipo de processo de informação; portanto, quanto maior a quantidade de
dados e a rapidez do processamento, melhor.
Atualmente, muitas das técnicas de modelos computadorizados desenvolvidas pelos
cientistas sociais desde a época do Projeto Cambridge, encontraram seus caminhos no
governo, sob os augúrios da expressão “administração de crises”. Em 1983, a administração
Reagan deu grande dignidade à área quando criou o altamente computadorizado Grupo de
Planejamento e Apoio à Administração de Crises, no Conselho de Segurança Nacional. A
operação foi legada a Richard Beal, um cientista político da Universidade Brigham Young,
em Utah, antigo empregado de Richard Wirthlin, o pesquisador político do presidente. A
tarefa de Beal era criar bancos de dados para aproximadamente vinte focos mundiais de
distúrbios. Uma das realizações mais orgulhosamente divulgadas do projeto é a capacidade
de gerar informações em um “modelo de vídeo composto”, utilizando “gráficos
moderníssimos”. Os gráficos incluem mapas, diagramas de barras e símbolos representando
atividades tais como negociações e conflitos armados. O objetivo dessas inteligentes
invenções de computadores e vídeos é oferecer ao presidente, a curto prazo, uma
representação gráfica simples da crise internacional, supostamente com todos os dados

32
Ver relato sobre o projeto Beer em New Scientist, Londres, 25.10. 1973, p. 260. Ver também “Economia pelo Computador”,
suplemento This World, San Francisco Chronicle, 21.1.1973, p. 15.
33
Beer citado por John Adams, “Everything Under Control”, Science for the People, abr.-maio 1973, p. 4. Este artigo como um
todo é uma boa revisão critica das teorias de Beer.
34
Stafford Beer, “The Liberty Machine”, Futures, dez. 1971, pp. 338-348.
necessários, representados de modo televisivo, para que possa ser escolhida a política mais
adequada. Talvez se assemelhe a um video game sobre um mapa-múndi.35
Esse projeto não é apenas uma experiência puramente acadêmica. Foi o quartel-
general utilizado pelo presidente e por seus conselheiros mais importantes durante a invasão
de Granada, em outubro de 1983.36 O resultado desse exercício, que incluía uma censura
cuidadosa à imprensa como parte do gerenciamento da crise, foi considerado um sucesso.
(A pesquisa de Wirthlin, após o evento, confirmou essa visão.) Talvez isso tenha
influenciado, em parte, a Agência de Segurança Nacional [National Security Agency] a
adquirir, um ano depois, um dos maiores complexos de computação já comprados pelo
governo em sua história: várias centenas de máquinas compradas à AT&T a um custo de
quase um bilhão de dólares. Os computadores serão distribuídos pelos postos avançados da
ASN em todo o mundo, e ligados ao quartel-general de administração de crises, em
Washington.
A Junta de Chefes de Pessoal [Joint Chiefs of Staff] também decidiu investir em
modelos e simulações computadorizados. Seu projeto, iniciado em 1984, é denominado
“Previsões” [Forecasts], e serve para utilizar as “informações específicas do país” na
projeção de futuros prováveis para mais de 130 países até um período de 20 a 30 anos no
futuro. O banco de dados do projeto Previsões possui mais de mil indicadores para cada
país, “a maior parte deles consistindo de uma série de valores temporais para cada indicador,
para cada ano entre 1960 e 1980”. O projeto Previsões poderá, posteriormente, estender as
tendências desses dados para o futuro, e simular “a inter-relação entre as variáveis no
tempo”. O projeto é considerado “uma importante ferramenta para a tomada de decisões”,
originalmente num sentido “heurístico”, “ajudando a sugerir o alcance de futuras formas
que o futuro poderá assumir”.
As previsões serão importantes para determinar a forma de relacionamento dos
Estados Unidos com o resto do mundo, quais poderiam ser os interesses norte-
americanos, onde há possibilidades de origem de conflitos e até que ponto os
Estados Unidos dependerão de fontes externas de energia, materiais e
produtos... Há também um sistema de gerenciamento de banco de dados, que
permite que esses dados sejam questionados e atualizados.37

Nos limites da sanidade: a máquina psicótica


Tentativas de instalar computadores equivalentes ao do governo na escala da Máquina da
Liberdade de Stafford Beer provavelmente continuarão sendo experiências raras. Mas
projetos como o Centro de Administração de Crises, da ASN, e o Previsões provavelmente
se tornarão aplicações mais visíveis — e mais perigosas — da capacidade do computador
em altos níveis de tomada de decisões. O perigo está na discrepância existente entre as

35
Ver “Crisis Management Under Strain”, Science, 31.8.1984, pp. 907-909, que descreve os planos básicos de Richard Beal para
o projeto e suas inovações em videográfico.
36
Ralph K. Bennett, “Grenada: Anatomy of a ‘Go’ Decision”, Reader’s Digest, fev. 1984, pp. 72-77. Há também uma construção
um tanto ficcionalizada da invasão computadorizada de Granada, em Roland Perry, Hidden Power, cap. 22.
37
Esta descrição de FORECASTS [previsões] vem de uma carta pessoal do Public Affairs Office of the Joint Chiefs of Staff,
29.7.1985.
expectativas aparentemente racionais, com as quais tais projetos são lançados, e a situação
final de utilização. Pois quando são finalmente solicitados pelos políticos para desempenhar
seu papel, como anunciado, em uma crise real, quando o tempo é escasso e, em caso de
ameaça à paz mundial, as máquinas podem ter sido arrastadas para longe da realidade de
seus usuários. Podem ter ficado literalmente malucas: mentes — ainda que artificiais —
transformadas num caos de imperativos conflitantes. Como isso pode acontecer?
Quando um projeto como o Grupo de Administração de Crises é iniciado, os líderes
envolvidos tendem a encará-lo como a busca de um objetivo defensivo de alta prioridade
para o mundo atual: o simples fato de coletar dados, milhões deles. O culto à informação
pressiona nesse sentido com força total. A oportunidade de utilizar computadores
moderníssimos para esse propósito tende a tornar a iniciativa ainda mais atraente,
conferindo-lhe uma aura de precisão e sofisticação futurista.
À medida que uma quantidade cada vez maior de máquinas e redes entram em
operação, o tipo e a quantidade dos dados que coletam sofrem uma expansão exponencial.
É como fome que não pode ser saciada. Na verdade, torna-se um dos estratagemas
preferidos dos virtuosos da computação, que planejam o sistema para procurar dados
exóticos e improváveis, do tipo que nenhuma mente humana não-especializada poderia
levar em consideração. Paul Bracken conta, por exemplo, que o programa COMINT, da
Agência de Segurança Nacional, coleta atualmente “milhões de mensagens que passam
pelas burocracias políticas e militares soviéticas” grampeando as linhas telefônicas da
União Soviética. E esse é apenas um dos programas de vigilância que despejam dados nos
computadores da ASN. “Na década de 80”, observa Bracken, “a coleção e a comparação de
informações de centenas de programas através de todo um comando inimigo tornou-se
possível graças aos computadores”. Ele sugere que as possibilidades podem ser expandidas
ainda mais, sendo aperfeiçoadas a ponto de monitorar as lavanderias dos portos soviéticos,
informação que poderá fornecer “excelente alerta estratégico de quando embarcações
submarinas e de superfície estarão prontas para serem lançadas ao mar”.38 Assim, no futuro
próximo, nas profundezas da máquina de guerra do Pentágono, pode ser que um computador
esteja tabulando as roupas sujas dos marinheiros soviéticos, analisando o significado desse
indicador-chave, representando-o graficamente num modelo dinâmico para a tomada de
decisões, do qual dependerá a paz mundial.
Em qualidade e quantidade, os dados concentrados nos computadores do governo
estão muito longe daquilo que um só cérebro humano poderia processar. Os líderes que
usam as máquinas em épocas de crise talvez nem imaginem a razão pela qual certas
informações foram coletadas, ou porque lhes foi dada tanta importância. Não obstante, os
indivíduos que se sentam à frente de cintilantes telas de vídeo, afagando teclas, fazendo
surgir tabelas, gráficos e simulações, estão sujeitos a se sentirem passo a passo com o tempo.
São os mestres dos dados de todo o mundo, trabalhando na ponta de lança da Era da
Informação. O que é facilmente esquecido é o fato de que todas as máquinas com que se
defrontam estão trabalhando de acordo com programas baseados em suposições e valores.
O que eles têm diante de si não constitui, no sentido puramente neutro do termo, “dados
brutos” oferecidos para sua criteriosa apreciação — embora os gerenciadores de crises
assim costumam descrever a questão, com total imparcialidade pessoal. Dão a entender
simplesmente estarem fornecendo informações objetivas conforme lhes foi solicitado. Mas
38
Paul Bracken, The Command and Control of Nuclear Weapons, Yale University Press, New Haven, 1983, pp. 39-41.
essa informação foi editada, formatada, pesada e ordenada, refletindo prioridades de tipo
talvez altamente ideológico. Quanto mais simplificadas e gráficas as informações
computadorizadas se tornarem, mais forçosamente interpretativas serão. Um resumo, afinal,
condensa mais fortemente, assume uma forma mais arbitrária. Assim, os gráficos
apresentados ao presidente Reagan por seus administradores de crises durante a invasão de
Granada devem ter sido elaborados com base em suposições a respeito da política no Caribe,
dos interesses comunistas através do mundo, do papel norte-americano no hemisfério
ocidental. Valores devem ter sido utilizados para contrabalançar opiniões diplomáticas e
militares. Será que o presidente tinha plena consciência de onde terminava o papel dos
dados e onde começavam as suposições? Ficou claro de quem eram os valores e suposições?
Será que os programas que forneceram as informações poderiam ser remontados a suas
origens, isto é, aos cérebros que os originaram? Será que os futuros presidentes utilizarão
os mesmos programas de administração de crises criados quando o projeto foi iniciado, sob
os auspícios de Ronald Reagan?
À medida que o tempo passa, na história de qualquer sistema de computação,
questões como essas se tornam cada vez mais difíceis de serem respondidas. Para começar,
grandes programas raramente são o resultado do trabalho de um indivíduo único e
identificável; eles são criados por equipes de programadores e pesquisadores. A qualquer
momento, essa equipe apresentará uma miscelânea de estilos e preferências; haverá
abordagens diversas e diferentes níveis de competência. Um pequeno número dessas
sutilezas e cacoetes se tornará aparente, a maioria não. Os programadores provavelmente
apresentarão uma fachada de uniformidade e objetividade profissional. Estas, porém,
estarão moldando um artefato intelectual que reflete gostos, escolhas e julgamentos de seus
criadores.
O sistema necessita, periodicamente, de ajustes e atualização. Outros
programadores, que refletem talvez os padrões de outras gerações, trarão seus juízos ao
serem chamados para tais tarefas. Dessa forma, os programas que dirigem atualmente os
sistemas de armamento do Pentágono têm sido alinhavados e emendados durante inúmeras
administrações presidenciais. Deve ter havido muitas revisões que nada mais eram do que
imposições do hardware antiquado. O sistema não é simplesmente um artefato técnico, mas
também histórico, moldado por um vasto número de programadores, cujas contribuições,
em sua maioria, são impossíveis de serem identificadas, e muitos dos quais provavelmente
não seriam capazes de reconstruir o trabalho da equipe da qual participou. Que suposições
a respeito de estratégia e de política mundial estavam nas mentes daqueles que trabalhavam
em 1962... 1968... 1974? Que teorias e métodos costumavam estar nas cabeças dos cientistas
da computação nessas épocas?
Joseph Weizenbaum levantou a questão de que muitos sistemas de computação de
porte elevado são atualmente controlados por “programas incompreensíveis”, pelos quais
ninguém mais pode ser responsabilizado.
Esses sistemas, geralmente gigantescos, são elaborados por equipes de
programadores, geralmente trabalhando em conjunto por um período de muitos
anos. Mas, na época em que esses sistemas entram em operação, a maior parte
dos programadores originais já não está mais trabalhando ali ou está com a
atenção voltada para outras áreas. É precisamente quando os sistemas gigantes
entram em operação, que seu funcionamento já não pode ser entendido por um
só indivíduo ou por uma pequena equipe.39
A quase tragédia da usina nuclear de Three Mile Island é um exemplo desse tipo de
programa incompreensível, apenas em uma única instalação de tamanho médio. Os
operadores da usina levaram dezenas de horas fatais até entenderem o significado de
alarmes controlados pelos computadores, que estavam além de sua compreensão imediata.
Situações como essa podem, em pouco tempo, tornar-se ainda mais densamente
impenetráveis. Atualmente estão sendo desenvolvidas técnicas para permitir aos
computadores se “autoprogramarem”, sem a intervenção humana. Essas técnicas —
programas de autoprogramação que supostamente “aprendem” a partir de suas próprias
operações — estão entre as últimas aplicações das pesquisas na área de inteligência
artificial. Um deles, a linguagem de programação Query-By-Example, da IBM, está sendo
considerada, pela comunidade financeira, como uma maneira de economizar nos custos de
certas formas de programação. Um especialista nesse campo, Donald Michie, da
Universidade de Edinburgh, alertou que esses procedimentos de programação automáticos
poderiam gerar um “buraco negro tecnológico”, no qual “os seres humanos serão incapazes
de entender o raciocínio que subjazem aos resultados gerados pelos computadores e
utilizados para a tomada de decisões-chave”.40 Embora programas autoprogramáveis ainda
precisem ser programados pela mente humana, afastam ainda mais a responsabilidade
humana da máquina que os utiliza.
Equipamentos que funcionam com programas incompreensíveis estão se
aproximando de um tipo de loucura tecnológica. Estão no caminho de se tornarem
inteligências desintegradas, estilhaçadas e fragmentadas, um ensopado psicótico de
suposições e padrões, aos quais já não se pode dar uma ordem racional. Mesmo assim, se a
máquina fizer parte de um projeto de administração de crises, continuará a processar dados,
arrumando-os em lindas tabelas, gráficos, simulações, e mantendo uma aparência externa
de racionalidade. Os computadores são presenteados com essa fachada de precisão
impessoal; não têm possibilidade de parecer, soar ou agir como loucos. É óbvio que a
verdadeira loucura seria a dos indivíduos responsáveis pela tomada de decisões e a da
sociedade como um todo, que escolheu tornar-se dependente de sistemas mecânicos que
acarretam essas responsabilidades. Mesmo assim, entregar a responsabilidade a um
mecanismo supostamente infalível pode ser uma tentação firmemente enraizada em nossa
cultura.
O esforço para construir uma machine à gouverner deriva de um código de fé que
há muito faz parte da tradição científica da sociedade ocidental: a crença de que os segredos
da natureza podem ser totalmente compreendidos através de análises redutivas e modelos
mecânicos. Traduzida em programas de pesquisa e desenvolvimento, essa convicção tem
rendido, na atualidade, ótimos resultados em muitos campos. Os órgãos de nosso corpo
estão sendo substituídos por equipamentos mecânicos, embora nem sempre bem-sucedidos.
A engenharia genética está encontrando meios de reconstruir e, supostamente, melhorar
estruturas viventes, através do rearranjo dos mecanismos da hereditariedade. A mente
humana tem estado nos planos dos mecanicistas desde que os primeiros e primitivos

39
Joseph Weizenbaum, “On the Impact of the Computer on Society”, Science, 12.5.1972, pp. 612-613. Ver também seu capítulo
“Incomprehensible Programs”, em Computer Power and Human Reason.
40
“Computers that Learn Could Lead to Disaster”, New Scientist, Londres, 17.1.1980, p. 160.
modelos mecânicos surgiram no século XVIII. Agora esse paradigma da inteligência
amadureceu, juntamente com a tecnologia, no modelo de pensamento por processamento
de dados. A mente, em todos os seus aspectos, pode ser encarada, hoje, como “nada mais
que” uma complicada máquina de processamento de informações, que constrói seus
maiores poderes a partir de procedimentos simples e formais que organizam dados. Assim
como a prova definitiva do modelo mecanicista na medicina é a invenção do coração ou do
rim artificial, que manterão a vida, também na ciência cognitiva há esforços para inventar
uma máquina capaz de imitar, com perfeição, as principais funções do cérebro — seu poder
de raciocínio, de julgamento e de decisão.
Seria notável se a ciência cognitiva e a IA asseverassem, mais modestamente, que
os modelos de computação poderiam nos auxiliar no entendimento de certas funções
específicas do cérebro. Mesmo essa seria uma proposição dúbia, baseada na suposição de
que dois mecanismos que desempenham grosseiramente a mesma função, o cérebro
biológico e o computador mecânico, devem ter uma natureza semelhante. Mas isso exibiria,
no mínimo, uma modéstia conveniente. Há pessoas nesse campo que afirmam nada mais do
que isso; pode ser que haja indivíduos preparados para chegar a uma conclusão mais
autodestrutiva: que o significado real do modelo computadorizado é que nos diz o quanto
“não” entendemos sobre a mente, e “não podemos” entender, nos termos daquele modelo.41
Mas modéstia desse tipo não recebe aplausos; não ganha verbas nem prêmios. Faz
até má figura, se comparada aos espantosos avanços registrados em outras ciências. Não
ajudarão a construir uma carreira brilhante. Onde o dinheiro de grandes companhias e o
poder militar e industrial oferecem recompensas assombrosas, é difícil entrar no jogo. O
culto à informação tem muitos membros; mas são poucos os que fazem parte do grupo de
profissionais acadêmicos comprometidos com o controle da mente. O modelo de
processamento de dados é a única coisa que eles têm para lidar; irão até onde puderem.
Isso pode não estar muito distante. Não há possibilidade de que os computadores
igualem ou substituam a mente humana, exceto nas aplicações funcionais limitadas que
envolvam processamento de dados e pensamento processivo. A possibilidade é excluída,
em princípio, porque as suposições metafísicas que fundamentam esse esforço são falsas.
Mas “é” possível redefinir a mente e seus usos de maneira que “possa” ser imitada pela
máquina. Então, teremos uma caricatura mecânica que nivelará a atividade de acordo com
um padrão mais baixo. É isso que a machine à gouverner seria, se fosse construída algum
dia. Já podemos ter uma idéia dessa caricatura nas aplicações sociais das possibilidades do
computador analisadas neste capítulo. Em cada um dos casos, um fenômeno complexo foi
reduzido a algo brutalmente simples, capaz de ser processado por uma máquina. A política
é reanalisada, de modo a se tornar uma negociação de opiniões; a guerra, revisada para se
tornar um cálculo de velocidades, trajetórias e megamortes.
É importante perceber, porém, que essas absurdas simplificações assim como estão,
mesmo sem a esperança de uma eventual elaboração, são úteis a certas forças de nossa
sociedade. Os administradores burocráticos, a elite civil, os militares, a segurança, as
agências de levantamentos podem fazer uso dos dados computadorizados para ofuscar,
mitificar, intimidar e controlar. Por possuírem a quase totalidade das fontes e dos

41
Joseph Weizenbaum seria o mais preeminente exemplo de um cientista da computação que assume sua posição. É também a
posição de Hubert Dreyfus, What Computers Can't Do, Nova Iorque, Harper & Row, 1973; e John Searle, Minds, Brains and
Science, Harvard University Press, Cambridge, 1985.
equipamentos de dados, é que o culto à informação empresta a eles uma mística para a
dominação.
A razão pela qual podem explorar a informação que controlam com tanta eficácia
deveria ser óbvia. Esses elementos sociais possuem interesses duradouros, profundamente
arraigados, aos quais as informações podem ser assimiladas, e dos quais podem ser
deduzidos programas. Em assuntos militares, eles trabalham para preservar o sistema de
nação-Estado; na economia, para responder à ética empresarial; na política, para aumentar
a administração utilitarista. Todos são compromissos bem racionalizados, nunca
questionados por aqueles que os possuem, nunca necessitando de conhecimento ou
discussão pública. Para eles, trata-se de uma simples e clara agenda política: concentrar
mais lucro e poder nas mãos daqueles que já possuem lucro e poder. Desde que essa agenda
possa ser convenientemente mantida fora das vistas, a atordoante massa de informações
dentro de bancos de dados ainda maiores e seu processamento ainda mais eficiente, através
de redes mundiais, podem tornar-se aparentemente necessários e até socialmente benéficos.
Trata-se simplesmente do desdobramento de um imperativo tecnológico. É a aproximação
da Era da Informação, considerada uma mudança de estação.
Mas, independentemente das altas promessas dessa era, o preço que pagamos por
seus benefícios nunca ultrapassarão os custos. A violação da privacidade significa a perda
da liberdade. A degradação da política eleitoral significa a perda da democracia. A criação
de uma máquina de guerra computadorizada é uma ameaça direta à sobrevivência das
espécies. Seria, em parte, reconfortante concluir que essas responsabilidades resultam de
um abuso do poder da computação. Mas esses são os objetivos há muito selecionados por
aqueles que inventaram a tecnologia da informação, que a orientaram e a financiaram em
todos os passos de seu desenvolvimento. O computador é a máquina deles; sua mística é a
sua validação.
10. O anjo de Descartes

Reflexões sobre a verdadeira arte de pensar


Na noite de 10 de novembro de 1619, René Descartes, então um aspirante a filósofo ainda
com vinte anos, teve uma série de três sonhos que mudaram o curso de sua vida e do
pensamento moderno. Ele conta que, em seu sonho, o anjo da verdade apareceu a ele e, em
uma revelação ofuscante como um flash, desvelou um segredo que iria “assentar os
fundamentos de um novo método de compreensão e de uma nova e maravilhosa ciência”.
À luz do que lhe disse o anjo, Descartes se pôs fervorosamente a trabalhar em um tratado
ambicioso chamado “Regras para a Direção da Mente”. O objetivo de sua “nova e
maravilhosa ciência” era nada menos que descrever como funciona a mente. Para Descartes,
que estava para inventar a geometria analítica, não havia questão sobre o fato de que o
modelo para sua tarefa deveria ser encontrado na matemática. Haveria axiomas (“idéias
claras e distintas” de que ninguém poderia duvidar) e, ligando os axiomas em progressões
lógicas, um número finito de regras simples e absolutamente sensíveis, que eram igualmente
auto-evidentes. O resultado seria um corpo de conhecimento em expansão.
Descartes nunca terminou seu tratado; o projeto foi abandonado após a regra dezoito
— talvez porque comprovou ser mais difícil do que ele havia antecipado. Ele fez justiça,
contudo, à inspiração do anjo no famoso Discurso Sobre o Método, que é geralmente
tomado como sendo o documento fundador da filosofia moderna.1 O projeto de Descartes
era o primeiro entre muitas tentativas do mundo moderno para codificar as regras do
pensamento; quase todos seguem sua liderança na utilização da matemática como modelo.
Hoje, os campos da inteligência artificial e da ciência cognitiva podem ser vistos como parte
desta tradição, mas agora unidos à tecnologia e centrados em torno de um mecanismo físico
— o computador —, que supostamente corporifica essas leis.
Os sistemas epistemológicos que têm sido desenvolvidos desde a época de Descartes
têm sido freqüentemente engenhosos. Eles certamente iluminam muitos aspectos da mente.
Mas todos são marcados pelo mesmo fato curioso. Eles omitiram o anjo da verdade — como
aliás fez o próprio Descartes. Pois ele nunca retornou à fonte de sua inspiração. Seus escritos
não trataram do papel dos sonhos, das revelações e insights como fontes do pensamento.
Ao invés disso, ele deu atenção aos procedimentos lógicos e formais que supostamente
começam em zero, uma posição de dúvida radical. Este é um descuido fatídico por parte do
pai da filosofia moderna; é excluído do pensamento aquele ponto de vista que o faz mais
uma arte que uma ciência, deixando em paz a tecnologia: o momento da inspiração, a
misteriosa origem das idéias. O próprio Descartes teria tido dificuldades em dizer por qual
porta da mente o anjo havia conseguido entrar em seus pensamentos. Será que algum de
nós poderia dizer de onde vêm os flashes de intuição? Parecem surgir espontaneamente a
partir de fontes inconscientes. Nós não os alinhavamos parte por parte. Ao contrário, eles
surgem completos e súbitos. Se há regras que podemos seguir para a geração de idéias, elas
funcionam apenas no sentido de deixar a mente aberta e receptiva por todos os lados, de

1
Jacques Maritain oferece uma longa análise do sonho profético de Descartes em The Dream of Descartes, Nova Iorque,
Philosophical Library, 1944.
fazer com que permaneça receptiva ao estranho, ao periférico, ao anuviado e ao evanescente
que, de outra forma, poderiam passar despercebidos. Não podemos saber como a mente cria
ou recebe as idéias, mas sem elas — e especialmente as que chamei de idéias-mestras, que
incorporam grandes reservas de experiência acumulada — nossa cultura seria
inimaginavelmente pobre. É difícil ver agora como a mente poderia funcionar se não tivesse
grandes concepções como verdade, bondade e beleza para iluminar seu caminho.
Ao mesmo tempo que Descartes delineava suas regras de pensamento, o filósofo
inglês Francis Bacon também buscava um novo e radical método de entendimento. Bacon,
que era matematicamente iletrado, preferiu acentuar a importância da observação e do
acúmulo de fatos. Ele era também um homem com uma visão revolucionária — a intenção
de colocar todo o saber sobre uma nova fundação de fatos sólidos provinha do “exaspero”
experimental da natureza. Antes do final do século XVII, as duas correntes filosóficas — o
racionalismo de Descartes e o empirismo de Bacon — tinham constituído uma aliança para
produção do empreendimento intelectual a que chamamos ciência: observação sujeita à
disciplina de um método impessoal elaborado para ter o mesmo rigor formal da matemática.
Como Bacon afirmou, se temos o método adequado, então “a própria mente” será “guiada
a cada passo e tudo será feito como que por uma maquinaria”.
Desde a época de Descartes e Bacon, a ciência teve robusto crescimento. Seus
métodos foram debatidos, revisados e aperfeiçoados à medida que se investia em novos
campos de estudo; os fatos por ela descobertos se elevam a cada dia. Mas o anjo que
queimou as mentes de grandes cientistas com uma visão da verdade tão audaz quanto aquela
de Descartes, raramente lhe conferiu o devido crédito, e menos ainda pelos cientistas da
computação que parecem convencidos de que inventaram a “maquinaria” mental de Bacon
e de que ela pode superar as realizações de seu original humano, sem auxílio de
inexplicáveis revelações.
A lacuna geralmente deixada pelos filósofos entre a origem das idéias e a
subseqüente mecânica do pensamento — entre a palavra do anjo e o processo analítico que
se segue — simplesmente reflete a diferença entre aquilo que a mente pode e não pode
entender a respeito de si própria. Podemos ligar, semiconscientemente, idéia com idéia,
comparando e contrastando à medida que prosseguimos, planejando o curso de uma
seqüência dedutiva. Mas, ao tentarmos ir atrás das idéias para agarrar a esquiva inter-relação
entre experiência, memória e insight que borbulha na consciência como um pensamento
global, sairemos do esforço certamente aturdidos e confusos — como se tivéssemos tentado
ler uma mensagem que passasse por nós em altíssima velocidade. Delinear idéias é uma
ação tão espontânea — poderíamos talvez dizer instintiva — que desafia a apreensão e a
análise. Não podemos reduzir a velocidade da mente para ver o processo passo a passo.
Selecionar nossos pensamentos em seu nível primitivo e pré-consciente seria quase como
aqueles exercícios desconcertantes dos mestres zen-budistas, utilizados para ofuscar a
mente de forma que possa experimentar o vazio. Quando a questão é saber de onde a mente
tira suas idéias, talvez o melhor que podemos fazer seja dizer, como Descartes, “Um anjo
me contou”, Mas então há alguma necessidade de ir além? A mentalidade é um dom de
nossa natureza humana. Podemos usá-lo, apreciá-lo, estendê-lo e elaborá-lo sem sermos
capazes de explicá-lo.
De qualquer forma, o fato de que a origem das idéias é radicalmente evasiva não
significa que podemos ignorar a importância das idéias e começar com qualquer coisa que
podemos explicar como se essa fosse a resposta completa à antiga questão epistemológica
com a qual os filósofos lutaram durante séculos. Acredito que isto é o que os cientistas da
computação fazem quando procuram utilizar o computador para explicar a cognição e a
inteligência.
O modelo de processamento informativo do pensamento, que tem sido o pomo da
discórdia dessas páginas, propõe um notável paradoxo. Com base nesse modelo, ficamos
sabendo que o pensamento é reduzido a uma questão de organizar dados através de
procedimentos simples e formais. Mas quando procuramos pensar desta forma “simples”,
ela prova ser muito trabalhosa — como se estivéssemos forçando a mente a funcionar contra
sua natureza. Tomemos uma rotina comum da vida diária — um ato mínimo de inteligência
— e tentemos especificar todos os seus componentes em uma seqüência lógica. Fazer o café
da manhã, trocar de roupas, sair para as compras. Como vimos em um capítulo anterior,
esses projetos do senso comum resistiram aos melhores esforços dos cientistas cognitivos
para programá-los. Ou tomemos uma atividade mais extraordinária (no sentido de menos
rotineira): escolher uma profissão, escrever uma peça de teatro, uma novela ou um poema,
ou — como no caso de Descartes — revolucionar as bases do pensamento. Em cada um
desses exercícios, o que temos em primeiro lugar, e sobretudo em mente, é o projeto global.
Executá-lo-emos e em seguida — de alguma forma, aparentemente sem pensar nisso —
abordaremos o assunto passo a passo, improvisando inúmeras sub-rotinas que podem
contribuir para o projeto. Onde algo não funciona ou dá errado, ajustamo-lo em termos do
projeto. Nós entendemos projetos: atividades globais. Podem ser atividades mal concebidas,
mas devem ser, de qualquer forma, os fins que devem vir antes dos meios. Quando tratamos
dos meios, permanecemos perfeitamente conscientes de que são questões subordinadas. A
forma mais segura de qualquer projeto da vida dar errado é nos fixarmos nas questões
subordinadas e perdermos a visão do todo. Então nos tornamos como a centopéia do
provérbio que, ao ser perguntada como fazia para coordenar todas as suas partes, descobriu
estar paralisada.
Estou sugerindo que, nas pequenas e grandes questões, a mente funciona por meio
de Gestalts, e não por procedimentos algorítmicos. Isto ocorre porque nossa vida como um
todo é constituída por uma hierarquia de projetos, alguns triviais e repetitivos, alguns
especiais e espetaculares. A mente é naturalmente uma fiandeira de projetos, estabelecendo
objetivos, escolhendo-os entre as muitas alternativas do que poderíamos estar fazendo de
nossas vidas. Ponderar escolhas e elaborar projetos — estas constituem a primeira ordem
de atividade da mente. Isso é tão óbvio, tão básico, que talvez estejamos prontos para refletir
sobre isso quando uma idéia diversa a respeito do pensamento é apresentada, tal como a de
que o pensamento conecta dados em seqüências formais.
Mas a mente, sem dúvida, acumula coisas à medida que prossegue. Nós registramos
dados. Mas registramos informações de formas altamente seletivas, dentro dos termos de
um projeto que, entre outras coisas, nos avisa sobre quais fatos devemos estar atentos, quais
devemos ignorar e quais merecem valor mais alto ou mais baixo. Pensar significa — o que
é mais significativo — constituir projetos e refletir sobre os valores que cada projeto
envolve. Muitos projetos são dados simplesmente pelas condições físicas da vida: encontrar
comida, vestir o corpo, abrigar-se contra os elementos, assegurando ajuda em tempo de
perigo. Mas todos nós esperamos pelo menos ter a oportunidade de funcionar em níveis
mais elevados do que esse e poder passar a maior parte do tempo acima do nível da
necessidade, perseguindo aquilo que John Maynard Keynes chamou certa vez de “a arte da
própria vida”. Constituir projetos desse tipo é o chamado mais elevado que faz parte da
natureza humana. Ensinar aos jovens como honrar e apreciar esse dom é o próprio
significado da educação. Não é certamente o que estamos fazendo ao sobrecarregá-los de
informação, ou ao fazê-los perceber que a coleta de informações é a principal atividade da
mente. Nem ensinamos a eles a arte de viver quando pedimos que “pensem igual a uma
máquina”. Máquinas não inventam projetos; elas são inventadas por seres humanos para
perseguirem projetos. Aquilo que Seymour Papert chama de “pensamento processivo”
certamente cumpre seu papel na vida; mas seu papel nada mais é do que elaborar um roteiro
de viagem através do estudo detalhado do mapa das estradas. É uma atividade que tem lugar
apenas após termos escolhido fazer a viagem e optado por um destino.
O essencial da educação nos primeiros anos é o aprendizado daquilo que chamei de
idéias-mestras, os paradigmas morais e metafísicos que subjazem no coração de toda
cultura. Escolher um modelo clássico na história da pedagogia ocidental: no mundo antigo,
os poemas épicos de Homero (lidos ou recitados) eram os textos a partir dos quais as
crianças aprendiam os valores de sua civilização. Aprendiam a partir das histórias de
aventuras e dos modelos heróicos que deviam imitar através de jogos intermináveis, nos
campos e nas estradas. Toda cultura sadia coloca suas crianças em contato com tal interlúdio
homérico; as imagens épicas, os contos de fadas, as chansons de geste, as estórias bíblicas,
as fábulas e as lendas convocam a mente em formação para seus altos objetivos e propósitos.
Tal interlúdio consiste nas fundações do pensamento. Os “textos” não precisam ser
necessariamente literários. Podem ser rituais — como em muitas sociedades tribais, em que
os mitos se encarnam em cerimônias festivas. Podem também ser obras de arte, como os
vitrais ou as estátuas das igrejas medievais. As idéias-mestras podem ser ensinadas de
muitas formas. Em nossa sociedade, a televisão e o cinema estão entre os mais poderosos
meios de instrução, ao ponto de eclipsar os materiais desbotados e opacos apresentados nas
escolas. Infelizmente esses importantes meios de comunicação se encontram, na sua maior
parte, nas mãos de oportunistas comerciais para quem nobreza de propósitos não estão no
horizonte. Na melhor das hipóteses, algumas poucas imagens espalhafatosas de heroísmo e
vilania podem ser filtradas pelas famintas mentes jovens. Os rudimentos da conduta épica
podem ser encontrados em um filme como Guerra nas Estrelas, mas o imaginário foi
produzido segundo uma estética e um nível intelectual medíocre, com maior preocupação
com os “efeitos” do que com o perfil moral. É assim que arquétipos se tornam estereótipos
e as grandes realizações são deformadas pela publicidade.
As culturas que exortam Homero, as estórias bíblicas, ou Mahabharata para
educação dos jovens são afortunadas. Apesar da compreensão das crianças com relação a
esta literatura ser simples e divertida, elas ficam em contato com um material de elevada
seriedade. A partir de heróicos exemplos do passado, elas aprendem que crescer significa
elaborar projetos com total responsabilidade pelas escolhas feitas. Em suma, assumir a
própria vida à luz de um modelo precioso e nobre. As mentes jovens buscam esta liderança,
este guia. Elas exercitam seus poderes de imaginação, através de grandes fantasias de buscas
e batalhas, feitos astuciosos, ousadia, paixão e sacrifício. Identificam-se com modelos de
deuses e deusas, reis e rainhas, guerreiros, caçadores, santos, tipos ideais de mãe e pai,
amigo e vizinho. E, talvez, algumas delas aspirem a se tornarem os poetas e artistas da nova
geração que levarão à frente os ideais de sua cultura. A educação começa quando são
fornecidos às mentes jovens não dados, mas imagens para reflexão.
Contudo, há um problema com relação ao ensino dos valores culturais às crianças.
Deixados por conta de pais e professores, mas especialmente nas mãos da Igreja e do
Estado, onde essas instituições sejam dominantes, os ideais se tornam facilmente formas de
doutrinação, ídolos da tribo que podem tiranizar as mentes jovens. Heroísmo se torna
chauvinismo: imagens radiantes se tornam convenções constritoras. As idéias-mestras são
depreciadas quando são colocadas sob a custódia de mentes tímidas e medíocres, que
cresceram longe da própria exuberância infantil.
Nas mãos de grandes artistas como Homero, as imagens nunca perdem a
complexidade remissora da vida real. Os heróis estão suficientemente próximos de suas
fraquezas humanas, para parecerem de carne e osso. Aquiles, o maior dos guerreiros é,
porém, vaidoso, e tão mimado quanto uma criança, uma figura tragicamente fendida.
Ulisses pode ser pouco mais do que um patife, com seus estratagemas reduzidos a simples
pirataria. É a plenitude da personalidade desses heróis que leva seus admiradores à dúvida
entre a adulação e a incerteza. O ideal tem mais de um lado; a mente se aborrece com o
pensamento “sim, mas...”. Quando esta verdade é perdida, as imagens se tornam ocas.
Podem, então, ser usadas para manipular, não para inspirar.
Os gregos, que levaram suas crianças a uma dieta de temas homéricos, também
produziram Sócrates, o chato filósofo cuja missão era aguilhoar sua cidade para que
conhecesse a reflexão. “Conhece-te a ti mesmo”, insistia Sócrates com seus alunos. Mas
como se pode começar o auto-conhecimento senão a partir do questionamento dos valores
ancestrais?
Aqui está outro significativo uso das idéias: a produção de contraste crítico,
acendendo a mente para a vida, vivificando-a. Homero oferece intensos exemplos de
coragem. Mas o que é a verdadeira coragem? Sócrates pergunta, oferecendo outras imagens
conflitantes, algumas das quais desafiando Homero. A idéia é, ao mesmo tempo,
apresentada como oposta a outras idéias, e os estudantes devem decidir-se, julgar e escolher.
As sociedades dificilmente respeitam seus espíritos socráticos. Atenas, irritando-se até além
da tolerância por sua crítica persistente, levou-o à morte. Mesmo assim, nenhuma teoria
educacional que não tenha esse contraponto pode esperar libertar seus jovens para novos
pensamentos, para que se tornem novos indivíduos que renovarão a cultura.
Numa época em que nossas escolas estão repletas de tecnologia educacional
avançada, pode parecer quase perverso buscar ideais educacionais em antigas sociedades
primitivas que só ensinavam com a palavra oral. Mas pode constituir um contraste para o
estímulo de uma visão propriamente crítica do papel do computador na educação dos
jovens. Pelo menos, faz com que nos lembremos de que todas as sociedades, modernas ou
tradicionais, tiveram que decidir sobre o que ensinar a suas crianças antes de poderem
perguntar como ensinar a elas. Conteúdo antes dos meios, mensagens antes do medium.
O ensino — para os jovens — tem sido sempre uma mistura de habilidades básicas
(ou alfabetização e cálculo, ou caça e colheita) e ideais elevados. Mesmo se nossa sociedade
tivesse de decidir que a habilidade computacional (Computer literacy — esperemos que em
um sentido positivo deste termo tão confuso) deveria ser incluída entre as habilidades
[skills] ensinadas nas escolas, isto nos deveria deixar com os ideais de vida ainda por serem
ensinados. A maioria dos educadores, com certeza, reconhece o fato, tratando o computador
como meio de instrução. O que eles podem perder de vista é que o computador traz consigo
um curriculum oculto que acaba por impor-se aos ideais a serem ensinados. Pois é um
instrumento realmente poderoso: uma máquina “inteligente” que traz consigo profundas
suposições sobre a natureza da mente. Incorporada à máquina está a idéia do que é a mente
e como ela funciona. A idéia está lá porque os cientistas que pretendem entender a cognição
e a inteligência a colocaram ali. Nenhum outro instrumento de ensino jamais trouxe uma
bagagem intelectual tão prenhe de conseqüências. Uma concepção da mente — mesmo se
apenas uma caricatura — facilmente conduz a uma prescrição de valor e moral. Quando
damos a alguém o poder de nos ensinar como pensar, podemos também estar dando a tal
pessoa a oportunidade de nos ensinar o que pensar, por onde começar a pensar e onde
terminar. Em determinado nível que fundamenta os textos, testes e planos de lições, a
educação é uma anatomia da mente, de suas estruturas, limites, poderes e aplicações.
A lição subliminar que está sendo ensinada sempre que o computador é utilizado (a
menos que um cuidadoso esforço seja feito para apagar este efeito) é o modelo da mente
como processadora de dados. Este modelo, como vimos, está ligado a uma importante
transição em nossa vida econômica, que nos está conduzindo a um novo estágio de
industrialização de alta tecnologia [high tech], a chamada Era da Informação, com sua
economia orientada para serviços. Subjacente a essa transição, poderosos interesses
corporativos estão atuando na modelagem de nossa ordem social. O governo (especialmente
os militares), como cliente e usuário primeiro da tecnologia da informação, está ao lado das
corporações na construção dessa ordem. Entrelaçado em ambos, está um segmento
significativo e bem financiado da comunidade técnico-científica — os especialistas em
inteligência artificial e em ciência cognitiva; eles deram ao modelo da mente computadora
a sanção de uma proposição metafísica profunda. Todas essas forças, auxiliadas pelas
habilidades persuasivas dos publicitários, insistem na imagem do computador como um
instrumento educacional; a máquina traz aquela formidável constelação de interesses
sociais até as salas de aula e para o campus. Quanto mais espaço e status for dado ao
computador pelos educadores, maior será a influência de tais interesses.
Além disso, estes são os interesses que fazem o uso mais questionável do
computador. Em suas mãos, essa promissora tecnologia — ela própria uma manifestação
prodigiosa da imaginação e inventividade humana — está sendo degradada a um
instrumento de vigilância e controle, de centralização financeira e administrativa, de
manipulação da opinião pública, de realização da guerra. A presença de computadores
pessoais em milhões de casas, especialmente quando são utilizados não apenas como
divertimento trivial, não apaga, de forma significativa, o poder que a máquina traz àqueles
que a utilizam para os propósitos citados.
Apresentar o computador aos estudantes de pouca idade, criar a impressão de que os
pequenos exercícios de programação e jogos darão a eles, de certa forma, o controle sobre
uma tecnologia poderosa, pode ser uma decepção. Isso não significa ensiná-los a pensar de
forma científica, mas levá-los à aquiescência. Significa acostumá-los à presença dos
computadores em todos os estágios da vida e, assim, torná-los dependentes das máquinas,
com sua suposta superioridade. Nessas circunstâncias, o melhor approach para a habilidade
computacional poderia ser acentuarmos as limitações e abusos da máquina, mostrando aos
estudantes que eles não precisam em quase nada dela para desenvolverem seus poderes
autônomos de pensamento.
Pode haver mesmo uma justificação ecológica honesta para tal curriculum. Pode
fazer as crianças recordarem sua ligação com o vívido mundo da natureza que se encontra
além do ambiente industrial de cidades e máquinas. Sherry Turkle observa que, no passado,
as crianças, em larga medida, aprendiam sua natureza humana através da comparação de si
mesmas com as demais. Agora, cada vez mais, “os computadores, com sua interatividade,
com sua psicologia, com quaisquer fragmentos de inteligência que possam ter... prometem
tomar este lugar”.2 Isso pode significar para as crianças, nesse momento histórico, uma vez
mais a importância de se encontrar com os animais, os quais, em seu próprio modo
inarticulado, mostram maiores poderes da mente do que qualquer computador. Seria
realmente uma perda se as crianças não pudessem ver nos pássaros preparando ninhos ou
no gato caçando, uma inteligência e uma dignidade que pertence à linha de evolução a partir
da qual suas próprias mentes emergiram. Não é uma virtude educacional do saber e das
lendas tradicionais que pertençam, em sua maioria, à era pré-industrial, em que as realidades
do mundo não-humano estavam mais vivamente presentes. Quanto de sentido ecológico
ainda se preserva ao impedirmos as crianças de vivenciarem o pouco que resta dessa
experiência, ao empurrarmos sobre elas um dispositivo mecânico?
Há um intervalo crucial que ocorre bem cedo no desenvolvimento das mentes jovens,
quando elas necessitam ser alimentadas com imagens e idéias relativas a valores — como
os temas homéricos que abrem a aventura da vida para elas. Elas podem esperar
indefinidamente para aprender o que a maioria das escolas poderá ensinar-lhes sobre os
computadores. As habilidades de valor inquestionável que a tecnologia torna disponíveis
— processamento de palavras, computação rápida, procura em bancos de dados — podem
certamente ser deixadas para os anos de colégio ou mesmo da universidade. Mas, uma vez
que as jovens mentes perderam a possibilidade de contato com o conto de fadas, com as
estórias épicas, os mitos e as lendas, é difícil retroceder e recapturá-las com aquele fértil
sentido de espanto e maravilha ingênuos, tão característicos da infância. Analogamente, se
o gosto pela inquirição socrática não é estimulado nos anos de adolescência, a mente em
desenvolvimento pode constituir hábitos de aquiescência, que tornam difícil a libertação da
sombra de dominação familiar e da autoridade social.
A situação atual é a seguinte: há um forte consenso de que nossas escolas estão
fazendo um trabalho medíocre em estabelecer essas bases intelectuais. As razões para essa
indisposição das escolas são variadas. Os professores são, em geral, sobrecarregados de
trabalho e subvalorizados; muitos estudantes vêm a eles desanimados, rebeldes, perturbados
ou desmoralizados. Algumas das crianças de cidades do interior dos EUA estão demasiado
prejudicadas e exauridas pelas necessidades para se concentrarem e atingirem um sentido
educativo da maravilha de que falamos; outras podem ter-se tornado prematuramente
cínicas pelos valores corrompidos da comercialização e da celebridade barata; muitas,
mesmo as de mais sorte e mais afluentes, podem estar assustadas com o medo penetrante
da extinção termonuclear que arruina todas as nossas vidas. As escolas participam desses
aborrecimentos e nos refletem; talvez, em certas ocasiões, os problemas sobrepujem os
melhores esforços dos melhores professores, conduzindo-os de volta ao estreito foco nas
aptidões básicas, treinamento para empregos e competição. Mas é valioso sabermos onde
estão os grandes problemas e sabermos que não há uma solução tecnológica para eles. Os
computadores, mesmo quando chegamos ao ponto de tê-los na escrivaninha de cada aluno,
não trará curas para doenças de natureza política e social.

2
Turkle, The Second Self, p. 313.
Talvez minha posição a respeito dos limites educacionais do computador termina
por assumir um apelo humanista conservador das artes e das letras. Assim o é. Cientistas e
técnicos, cujos interesses profissionais tendem a torná-los entusiastas dos computadores,
podem, portanto, ver pouco espaço para seus valores com relação à pedagogia que
recomendo. Mas a estória do anjo de Descartes pode recordar-nos que ciência e tecnologia,
em seu nível criativo mais elevado, não estão de forma alguma desligadas da imaginação e
das idéias. Também se utilizam de todos os recursos da mente, inclusive os homéricos e
socráticos — da mesma forma que as artes e as letras. Não perdemos o ponto de vista de
nenhuma disciplina específica ao buscarmos o cultivo geral da mente. As idéias-mestras
pertencem a todos os campos do pensamento. Seria, sem dúvida, um triste erro introduzir
um pequeno número de prosaicas habilidades computacionais na educação dos jovens, de
forma que poderiam bloquear os poderes de invenção que, em primeiro lugar, criaram esta
surpreendente tecnologia. E o que ganhamos ao convencer as crianças de que suas mentes
são inferiores a uma máquina que imita cegamente uma ínfima fração de seus talentos
natos?
Na educação dos jovens, humanistas e cientistas dividem uma causa comum ao
resistir a qualquer teoria que deprecia o pensamento. É o que o modelo do processamento
de dados faz ao se fechar naquela qualidade da mente, a qual tantos filósofos, profetas e
artistas se recusaram a considerar como de tipo “divino”: sua potencialidade que não se
exaure. Em sua busca de “procedimentos efetivos” que podem ser universalmente aplicados
a todos os aspectos da cultura, os especialistas em inteligência artificial e na ciência
cognitiva são forçados a insistir que não há nada — em termos de pensamento — que uma
análise mecanicista convencional não possa descobrir: dados embaralhados em um pequeno
repertório de algoritmos. Em contraste, meu argumento neste livro foi o de que a mente
pensa não com dados, mas com idéias, cuja criação e elaboração não pode ser reduzida a
um conjunto de regras previsíveis. Quando conduzimos as crianças à esfera das idéias,
damos a elas o dom da aventura intelectual. Elas começam a perceber as dimensões do
pensamento e as possibilidades de insight original. Se elas adquirem a forma das palavras,
das imagens, dos números, dos gestos, as idéias se revelam e se desdobram. Revelam
espaços dentro de espaços dentro de espaços, numa constante abertura para mundos de
especulação cada vez mais amplos.
A arte de pensar se fundamenta na espantosa capacidade da mente em criar além
daquilo que pretende, além daquilo que pode prever. Não podemos começar a ajustar essa
capacidade em direção a fins humanos, preservando-a ao mesmo tempo de abusos
diabólicos, até que tenhamos experimentado, em primeiro lugar, a verdadeira dimensão da
mente.
ÍNDICE REMISSIVO

Agência Japonesa de Tecnologia e Ciência, 203 Co-evolution Quarterly, 224


Agências de crédito, 275 COMINT, 305
All watched over by machines of loving grace COMPUSERVE, 252, 254
(Brautigan), 222 Comunicação, 29
Altair, 216 técnicas de, 36
A máquina de calcular (Rice), 20 teoria da, 31
Amizade e computadores, 62-63 Computador Apple, 81, 215, 220, 230, 231, 232
Animação, computador, 89, 91, 93 Computadores animação por, 89, 91, 93
Apple II, 219 antropomorfização dos, 65-73
ARPA (rede), 255 arte realizada por, 93
Association for computer machinery, 189, 289 aspectos evolucionários dos, 73, 78
Atari, 81 comparados à originalidade humana, 156
AT & T, 46 complementando a mente, 177
Automação, 205, 265 desenvolvimento dos, 34, 35
objeções à, 196, 197 domésticos, 82
e a loucura tecnológica, 308-313
Bacon, Francis, 159, 160, 221, 238, 316, 317 e amizade, 62, 63
BASIC, 85, 86 e contracultura, 205, 234
Beal, Richard, 302 e crianças (ver crianças) e curriculum, 88
Bedell, Robert, 273 e desemprego, 92
Beer, Stafford, 300, 301 e gráficos tridimensionais, 90
Bentham, Jeremy, 235 e guerra, 289-296
Benthamistas, 235, 236, 237, 239 e inadequação humana, 76, 78, 80
Bibliographic Reference Service, 246 e idéias matemáticas, 167, 174
Biblioteca pública, 258-263 e “interpretação”, 200
Boden, Margaret, 171 e invasão da privacidade, 270, 279
Boyer, Ernest, 102 entusiastas e, 208, 209
Bracken, Paul, 305 e os militares, 50-51, 54-55, 56, 289-296
Brand, Stewart, 216, 230 e poder, 107-112
Branscomb, Lewis M., 189 e “procedimento efetivo”, 174
Brautigan, Richard, 222 e projetos de habitações, 61, 62
Bricklm, David, 181 “equity gap”, 83
Brown, Jerry, 83, 217, 218 e suposições hipotéticas, 113
Bulletin-board systems — BBS (murais e tendências políticas nas eleições, 279-288
eletrônicos), 253, 254 e trabalho de escritório, 59-61
e UNIVAC, 22
Cadell, Patrick, 282 fascinação com, 66, 72, 107-109, 112-113
Califórnia, 81, 83 filosofia educacional e, 118, 119, 138
Capeck, Karl, 73 folclore dos, 109
Carnegie-Mellon, 96, 97, 98, 101 futuro dos, 57-65, 80, 186, 198-199, 221-
Casas desenhadas por computador, 61-62, 63-64 223, 233-234
Centre Mondial Informatique et Ressources gênios dos, 185
Humaines, 119 imagem pública até os anos-70, 206, 207,
Centro de Tecnologia Educacional, 87 208
Centro-Oeste, 52 impacto na biologia, 38
Chariot, The, 253 limitações dos, 177, 192, 193, 328
Cibernética, 25, 26, 38, 265, 297 e biologia, 38, microcomputador, 208, 214, 221, 230, 231,
39-40 232, 233
Cibernética (Wiener), 25 nas escolas, 81-83, 86, 87, 88-94
CIA, 51 nas universidades, 94-107
Ciência, 160, 161, 316-317 no vocabulário americano, 22
idéias governando a, 174 penetração na vida diária, 80
moderna, 174-178 pensamento processivo dos, 136-137
perigo dos, na sala de aula, 138 objetivos da, 140
política dos, 213, 226, 227, 235-263 perigo do computador na sala de aula, 138
primeiros modelos, 22, 24 universidades e computadores, 94-107
simulações em, problemas das, 112-117, Electronic Information Exchange System — EIES,
156-157 252, 254
CONFER II, 252 Eletrônica, 51
Conservadorismo, 51 Empirismo, 158-163
Contracultura e o desenvolvimento computacional, Ensino, 88-94, 104, 105, 118, 119, 323, 326
214, 215 Era da informação, 40, 43
e o futuro, 220-226 e a biblioteca pública, 258-263
e política, 209, 213, 226, 229 Engenheiros de eletricidade, 30
e o RECURSO UM, 210, 211, 212, 213 Escritório, trabalho computadorizado de, 59, 61
e os hackers guerrilheiros, 208-211, 214-
220, 226 Estados Unidos
início da, 205-206 causas das tendências conservadoras nos,
Control Data Corporation, 113 51, 52
Crianças, 84 computadores nas escolas, 81-82, 85-87,
e informação tirada do computador, 89 138
e LOGO, 120, 121, 123-131 contratos de defesa ns regiões quentes, 50-
e o ensino do pensar, 144, 145 51
e problemas advindos de simulações em conversão da high tech nos, 50, 51, 52
computador, 112, 113, 114 e guerra, 289-296
e video games, 182, 183 exploração militar da informação, 266
introduzindo o computador às, 109, 325, invasão da privacidade nos, 270-279
326 militarização da vida econômica, 50-51
Crick, Francis, 36 política e tecnologia nos, 45, 46, 47
Cultura, 77 vida diária e computadores nos, 80
Cyert, Richard, 101, 106 Evans, Christopher, 70
EXPER SIM, 113
Dallas Baptist College, 97 Experiência, 149-150, 151, 152, 154, 156-157
Deane, Barbara, 84 Experimentos, computadores, 112-114
Decisões, tomada de, 61
Defense Applied Research Projects Agency — Fabricação, 44-45
DARPA, 189 Feedback (realimentação), 26
Departamento de Defesa, 51, 52, 267, 290-291 Feigenbaum, Edward, 199
Descartes, René, 314-316, 317 Felsenstein, Lee, 226
Desemprego, 92-93 Forças de produção (Noble), 266
Digital Equipment Corporation, 98 França, 82
DNA, 36, 37 Fuller, Buckminster, 217
Dorfman, Ariel, 183 Fundação Alfred P. Sloan, 191
Drop City, 223 Futurologia, 43, 45, 47
Dylan, Bob, 227
General Services Administration, 273
Eckery, J. P., 22 Generalizações, 141, 142
Economia, 43-44, 45 Gestalt, Psicologia da, 142, 143
industrial, 54-55 Gingrich, Newt, 47, 48, 49, 51
informacional (ver Economia Good, I. C., 70
informacional) Gráficos turtle (tartaruga), 119, 120, 121
Economia informacional, 49, 50, 51, 54-55, 58, Grosh, Herbert, 189
164 Grupo de Gerenciamento de Crises, 304
e o futuro dos computadores, 58 Guerra, 289-296
e o impacto sobre as idéias, 165 “Guerra nas Estrelas” (ver Iniciativa de defesa
problemas da, 55 estratégica)
Educação
:curriculum e computadores, problemas da, Habilidade computacional definição da, 85-86
88, 89 e educação, 86, 140, 323, 325
e computadores, 81-82, 83, 84-86, 323-324 Hackers, 208, 209, 210, 213-214
instrução programada, problemas da, 86-87 guerrilheiros, 214-220, 226
Hackers; heroes of the computer age (Levy), 208 Inteligência artificial, 119
Hard times (Dickens), 241 desenvolvimento da, 27
Harris, Louis, 280 e atividades que visam propósitos, 135
Hart, Gary, 47 e LOGO, 132
Harvard, Universidade de, 87 financiamento da, 188
Hewlett-Packard, 81 futuro da, 188, 198, 199, 203
Homebrew Computer Club, 215, 217 objetivos da, 186, 187
Houston, Universidade de, 98, 100 penetração na vida econômica, 194
Hughes, David, 253 problemas relativos à, 190, 191, 192, 193,
195, 197, 311
IBM, 81, 206, 207, 208, 209, 214, 219, 231 quinta geração da, 203
Idéias, 139-144 Internal Revenue Service, 273
científicas, 174-178 Interpretação da informação, 200-201
desenvolvimento de, 145-146 Itty-bitty Machine Company, 215
e criação de informação, 163-166
e espontaneidade, 156 Japão, 82, 291
e experiência e memória, 149, 150, 151, Jastrow, Robert, 76, 173
152, 153, 154 Jobs, Steven, 64, 232
função das, 147, 323 Jogos de computador para garotas, 182
matemáticas, 168-178
mestras, 144-149, 320 Kahn, Herman, 50
subordinação das, aos dados, 158, 168 Kallaghan, Paul, 112
Illustrated London News, 79 Kemeny, John, 74
Inadequação humana, 73, 74, 75, 76, 77 Kemp, Jack, 48, 49, 51
Indústria de computadores e a educação, 81, 86, Kennedy, John, 280
87, 88 Kentucky Fried Computers, 215
exageros relacionados com o computador Kesey, Ken, 228
propagados pela, 57, 118
e o mercado de computadores, 96 Larsen, Judith, 54
Informação abusos da, 264-269 “Launch on warning” (LOW), 289
atitude atual em relação à, 24 Learning with LOGO (Watt), 123, 129
atitudes em relação à, nos anos 40, 17-21 Leary, Timothy, 228
comércio, 42, 56 Levy, Steven, 181, 208
confusão com conhecimento, 44, 147, 148 Literatura épica, 320-323
definição atual de, 29, 30-34 Livros azuis, 238
definições da, 139-141 LOGO, 118-122
distinções entre idéias e, 164-165 e arte, 124, 125, 126, 127
e guerra, 289-296 e curricula, 124, 130
e invasão da privacidade, 270-279 e pensamento processivo, 133, 134, 135,
e política, 46, 47, 48, 49, 50, 51 136
e trabalho, 52, 53, 54, 55 e poesia, 128, 129, 130, 131
e transformação da sociedade americana, 46 e programação para crianças, 122-123, 124
excesso de, 141 intento do, 119
idéias como fontes de, 163-166 limitações do, 128, 129, 136, 137
idéias de, na história, 158-163 processo “corrija-à-medida-que-prossegue”,
impacto da biologia na, 36-37 123
relação entre idéias e, 139-144 LSD, 228
tecnologia da, 79, 205, 206, 207, 265, 267,
295 Machlup, Fritz, 31, 147, 172
teoria da, 29, 30, 31, 34, 35, 205 MacPaint, 90
Informação para tomada de decisões (DMI), 280, MacWrite, 86
281 Malas diretas, 283
Information Processing Techniques Office, 51 Máquina da liberdade, 300, 301
Inglaterra, 82 “Máquina preceptora inteligente”, 92
Iniciativa de defesa estratégica, 51, 290 Máquinas inteligentes, 72
Integrated Computer Assisted Manufacturing Máquinas pesadas, 72
(ICAM), 267 Máquinas que pensam (McCorduck), 70
Máquina ultra-inteligente (UIM), 70
Matemática, 168, 178 e memória, 150-153
Mauchly, John, 22 ensino, 144-146
McClintock, Barbara, 39 e originalidade, 156-157
McCorduck, Pamela, 64, 70, 199 espontaneidade do, 155-156
McCulloch, Warren, 108 e transferência de conhecimento a
McLuhan, Marshall, 223, 242 computador, 173
Megatrends (Naisbitt), 42, 43 modelos de processamento de dados do,
Melmed, ArthurS., 106 149
Memória, 150-154, 156-157 processivo, 133, 320
Memória comunitária, 211, 212, 213 reflexões sobre o, 314-329
Mente humana (ver Pensamento humano) relações entre idéias e informação, 141
Michie, Donald, 309 People’s Computer Company, 210
Michigan, Universidade de, 96, 107 Pfeiffer, John, 39, 74
Microcomputador, 208, 214, 221, 230, 231, 232, Piaget, Jean, 119, 122
233 Pins, programa, 282
Microelectronics and Computer Technology Platão, 170
Corporation, 51 PLATO, 113-114
Militares, os Player piano (Vonnegut), 28
e a guerra, 288-296 Poor Law (1833), 239 Previsões, 303
e o abuso da informação, 266, 267, 268, Privacidade, invasão da, 270-279
304-308 “Procedimento efetivo”, 174
Mindstorms (Papert), 119, 123 Processadores de informação e conhecimento
Minnesota Educational Computing Corporation, (KIP), 199, 200
87 Processamento de dados
Minsky, Marvin, 71, 119, 187, 198 análise do, 167-168
MIT, 99 e modelos de pensamento, 149-150, 156
Mitre, 298 natureza evolutiva do, 77, 78
Morris, William, 220 publicidade de, 24
Naisbitt, John, 42, 43, 44, 243, 244, 245 Profissionais da computação para responsabilidade
social, 289, 290
NASA, 51 Programas de computador, 178-184
National Committee on Excellence in Education, Progresso, 77-78
46 Projeto Cambridge, 299-300, 302
National Committee on Industrial Innovation, 83
National Science Foundation, 96 Query-by-example, 309
National Security Agency, 274, 277 Quinta geração, A (Feigenbaum e McCorduck),
National Security Council, 51 198-199
Negroponte, Nicholas, 119
Newell, Alan, 27, 187 Radioamadores, 254, 256 RAND, 298
NEXIS, 246 Reagan, Ronald, 52, 247, 273
Noble, David, 196, 266 RECURSO UM, 210, 211, 212, 213
Nova biologia, 36, 37 Redes, instalação de (Networking), 251-256
impacto da, na cibernética, 38 Regiões quentes, 42, 51, 52
impacto do computador na, 38 Relógios, 72
Robbin, Jonathan, 284-285
Office of Technology Assessment, 46 Roberts, Paul C., 49
O Futurista, 63 Robinnet, Warren, 93
O’Neill, Gerard, 224, 225 Robôs, 65
Opinião, pesquisa de, nas eleições, 279-288 Rocky's boots, 93
Originalidade, 156, 157 Rogers, Everett, 54
Rorschach, teste, 142
Papert, Seymour, 118, 119, 120, 121 Rossman, Michael, 212-213
Pascal, Blaise, 157 R. U. R. (Capek), 73
Pask, Gordon, 75
Pensamento humano, 73-77, 162 Sagan, Carl, 48
complemento do computador ao, 177 Scarola, Robert, 89
e experiência, 150 Schumacher, E. F., 215
e idéias matemáticas, 168-178
SEARCH (Sistema para Análise e Recuperação Turkle, Sherry, 71, 109, 326
Eletrônicas de Histórias Criminais), 274
Servan-Schreiber, Jean-Jacques, 119 Uma teoria matemática da comunicação (Bell), 29
Shannon, Claude, 29, 30 UNIVAC, 22-23, 34-35
Silicon Valley, 214 Universidade Harvard, 87
Simon, Herbert, 27, 187, 297 Universidade de Houston, 98, 100
Simulações, 112, 113, 114, 115, 116 Universidade de Michigan, 96, 107
Sistemas de defesa TRW, 294 Universidades e computadores, 94
Sociedade dos Oportunistas Conservadores (COS), Utilitaristas, 236, 237, 238, 239, 240, 241
48, 51
Sociedade L-5, 224-225 Van Neumann, John, 22
Software, 86, 87, 93, 107, 178-184 Video games, 107, 183
Soleri, Paolo, 223 Vonnegut, Kurt, Jr., 28
Source, The, 252
Watson, James, 36
Tecnologia conversão de alta tecnologia (high Watt, Daniel, 123
tech), 50-52 Weaver, Warren, 32
e ética, publicações sobre, 28-29 Weinberger, Caspar, 292
e política americana, 46, 47 Weizenbaum, Joseph, 88, 197, 308
impacto no trabalho, 54 Wells, H. S., 221, 224
no teatro, 73 Whole Earth Catalog, 216-217
obsessão pela, 78-79 Wiener, Norbert, 25, 26, 27, 264, 265, 266, 297
Tecnologia informacional, 80, 205, 206, 265, 268, Wilson, Charles, 266
295 Window of opportunity (Gingrich), 48
Teoria dos jogos, 34 Wirthlin, Richard, 279, 280, 285
The human use of human beings (Wiener), 25, 28, Wordstar, 86
36 Wordstar 2000, 86
The thinking machine (Pfeiffer), 74 Worldwide Military Command and Control
Terceira onda, A (Toffler), 43 System (WIMEX) (Sistema de Comando e
Three Mile Island, 308 Controle Militar Mundial), 293
Toffler, Alvin, 43, 46, 62-63, 277 Wozniak, Steven, 215, 219-220
Trabalho, 53, 54, 55 Young, G. M., 237
“Transposição”, 39 Yuhara, Hiroo, 203
Trem espacial, 48
Biografia
Um dos grandes pensadores da contracultura,
Theodore Roszak é professor de História e
chefe de Estudos Gerais da Universidade
Estadual da Califórnia. Foi indicado duas
vezes para o National Book Award, e é autor de
The Making of a Counter Culture.

Você também pode gostar