Você está na página 1de 444

A HISTÓRIA DA

MATEMATIZAÇÃO DA
NATUREZA
MILTON VARGAS

São Paulo

2015
1
Edição: Beca Ball Edições Ltda

E-mail: jvendas@editorabeca.com.br
Homepage: www.editorabeca.com.br

Dados Internacionais de Catalogação na Publicação (CIP)


(Câmara Brasileira do Livro, SP, Brasil)

Vargas, Milton
A história da matematização da natureza /
Milton Vargas. -- 1. ed. -- São Paulo : ABGE -
Associação Brasileira de Geologia de Engenharia
e Ambiental : ABMS - Associação Brasileira de
Mecânica dos Solos e Engenharia Geotécnica, 2015.

Bibliografia.
ISBN 978-85-7270-067-2

1. Ciência - Aspectos sociais 2. Ciência -


Filosofia 3. Ciência - História 4. Filosofia da
natureza 5. Matematização I. Título.

15-08055 CDD-509
Índices para catálogo sistemático:
1. Ciência : História 509
2. Ciência e natureza : História 509

2
DIRETORIA ABGE GESTÃO 2014/2015
Presidente: Adalberto Aurélio Azevedo
Vice Presidente: Delfino Luiz Gouveia Gambetti
Diretora Secretária: Alessandra Cristina Corsi
Diretor Secretário Adjunto: Fabrício Araújo Mirandola
Diretor Financeiro: José Luiz Albuquerque Filho
Diretor Financeiro Adjunto: Marcelo Denser
Diretora de Eventos: Kátia Canil
Diretor de Eventos Adjunto: Fernando F. Kertzman
Diretor de Comunicação: Luiz Antonio Pereira de Souza
Diretor de Comunicação Adjunto: Emílio V. Barroso
Diretor de Publicação: Eduardo Soares de Macedo
Diretor de Publicação Adjunto: Cássio Roberto da Silva

Secretaria Executiva
Gerente Executivo: Renivaldo Campos
Av. Profº Almeida Prado, 532 – IPT (Prédio 11) – São Paulo – SP
Telefone: (11) 3767-4361 – Email: abge@abge.org.br
Home Page: www.abge.org.br

DIRETORIA DA ABMS – GESTÃO 2013/2014


Presidente: André Pacheco de Assis
Vice-Presidente: Luciano Jacques de Morais Junior
Secretário Geral: Alessander C. Morales Kormann
Secretário Executivo: Alexandre Duarte Gusmão
Tesoureiro: Artur R. Quaresma Filho
Av. Queiroz filho, 1700 - Torre A, Sala 106 - Vila Hamburguesa
05319-000 - São Paulo, SP - Telefone: (11) 3833-0023 – Email: abms@abms.com.br
www.abms.com.br

3
MILTON VARGAS

Nunca consegui referir-me a ele de outra maneira que não Professor


Milton. Um fluminense que deitou raízes em terras tupiniquins...
  Foi meu professor na Escola Politécnica em São Paulo, patrão, meu con-
sultor pessoal na sua empresa de engenharia e, mais tarde, na minha. Meu
colega e Conselheiro na ABMS, nossa associação de geotecnia. Fez-me
seu amigo e apresentou-me a especiais amigos seus. Teria completado seu
centenário em fevereiro passado. Quase conseguiu...
  Ao Professor Milton devemos a percepção pioneira da visão especial
que hoje se tem de solos residuais formados em ambiente tropical, com
singularidades inexistentes em solos sedimentares dos países frios e tem-
perados, onde a mecânica dos solos clássica foi criada. Aqui geotecnia e
geologia se inter-relacionam de forma mais intricada.
  Na indústria da construção civil pesada, Professor Milton se destacou
por criar um estilo de projeto de barragens de terra uma vez mais especial.
Karl Terzaghi, seu ex-professor em Harvard e criador da clássica mecânica
dos solos, referia-se como Brazilian internal drainage system à combina-
ção de filtros internos de barragens de terra compactadas, dispostos verti-
calmente e ligados a filtro horizontal que descarrega para jusante infiltra-
ções, através do barramento, concepção usada pelo Professor Milton em
várias barragens que projetou.
  Em 1950 tornou-se o primeiro Presidente da Associação Brasileira de
Mecânica dos Solos e Engenharia Geotécnica, ativa sociedade de conhe-
cimento que agrega mais de um milhar de especialistas brasileiros e que
interage com duas dezenas de milhares de especialistas estrangeiros, numa
bem estabelecida e forte rede promotora do avanço e da divulgação do
conhecimento acumulado nesta área. Professor Milton foi um líder e criou
escola na engenharia. Importante também mencionar que participou ativa-
mente, desde o início, da criação da Associação Brasileira de Geologia de
Engenharia e Ambiental, a ABGE.
Como se vê neste livro, a engenharia não foi objeto único de sua visão
crítica. Desde jovem interessou-se pela Filosofia e, em 1951, participou
da fundação do Instituto Brasileiro de Filosofia. Foi professor de Filosofia
da Ciência no IBF e também na Escola Politécnica. Em 1983 tomou parte
na fundação da Sociedade Brasileira de História da Ciência. Na filosofia,
como na engenharia, Professor Milton se destacou não pelo conhecimento
acadêmico formal, mas pela visão especial e simples que tinha das coisas.
  Era pessoa igualmente especial e simples! Sua bonomia prevalecia nas
relações humanas que cultivava, a despeito da firmeza de suas posições.
Encarregado pelo núcleo da ABMS em São Paulo de organizar um evento
comemorativo na USP pelos oitenta anos do Professor Milton, reuni-me
com ele para eleger os nomes das pessoas que ele gostaria de ter à mesa
de comemoração e fui surpreendido por pedido inesperado: “Gostaria que
você trouxesse o Diretor do Colégio de São Bento em São Paulo”, após ter
listado nomes de amigos dele como os de Miguel Reale, Shozo Motoyama
e outros. Percebendo minha surpresa, não pela lembrança à escola que fre-
quentamos em décadas muito distintas, explicou-me: “O Colégio de São
Bento foi muito importante à minha formação. Sou o que sou pelo que
apreendi com eles. O resto foi acessório. Gostaria de escutar o que pen-
sam sobre o ensino hoje em dia”. E assim foi feito em 1994. Quatro anos
mais tarde tive o prazer de voltar a discutir a importância do ensino médio
na formação cultural do indivíduo, em uma tarde que passei junto a ele e
ao Professor Fernando de Almeida, outro São-Bentista como se dizia, em
comemoração organizada no mosteiro beneditino no seu quarto centenário
em terras paulistanas.
Foi um privilégio tê-lo tido como mestre, patrão, consultor, conselheiro,
colega, amigo e modelo.
Difícil de imitar.
 

Arsenio Negro.
  

São Paulo, 7 de Abril de 2015.

6
ÍNDICE

APRESENTAÇÂO / 11

AGRADECIMENTOS / 13

PREFÁCIO / 15

I - SURGIMENTO DAS TÉCNICAS E DAS CIÊNCIAS

a) Introdução.....................................................................................................................25
b) Das técnicas aurorais pré-históricas às técnicas míticas..............................................28
c) As civilizações míticas e suas técnicas.........................................................................32
d) As Matemáticas nas civilizações míticas.....................................................................40

II - OS PRIMÓRDIOS

a)Origem da Teoria...........................................................................................................47
b)Três teorias gregas.........................................................................................................50
c) A Matemática e a Metafísica gregas.............................................................................60

III - A ATUAÇÃO SOBRE A NATUREZA

a) Epistéme helenística e magia egípcia...........................................................................77


b) A techné grega e a ars romana.....................................................................................87

IV - A PRESERVAÇÃO DA TEORIA E DAS ARTES NA IDADE MÉDIA

a) As ciências e as artes medievais...................................................................................99


b) A civilização árabe e os tradutores.............................................................................106
c) Da Teologia como teoria à Filosofia Natural..............................................................112

V - OS PROLEGÔMENOS DA CIÊNCIA MODERNA

a) A ciência do Renascimento.........................................................................................123
b) As navegações ibéricas...............................................................................................124
c) Necessidade e experiência em Leonardo da Vinci.....................................................138

7
d) A magia natural, a Alquimia e a Medicina renascentistas..........................................145
e) A universalidade das leis humanas.............................................................................150

VI - O ESTABELECIMENTO DO MUNDO MODERNO

a) Galileu e o experimentalismo ideal............................................................................159


b) O método, a Matemática e a Física cartesianas..........................................................174
c) O método empírico de Bacon.....................................................................................181
d) A necessidade do método nas ciências.......................................................................186
e) A natureza como máquina e sua matematização........................................................188

VII - A INSTITUIÇÃO DA FÍSICA MATEMÁTICA

a) A Análise Matemática dos fenômenos naturais...........................................................191


b) A gravitação universal................................................................................................195
c) Os Philosophiae Naturalis Principia Mathematica...................................................200
d) A justificação do conhecimento objetivo....................................................................207
e) A Análise Matemática e a Revolução Francesa..........................................................214
f) O rigor da Matemática.................................. .............................................................229

VIII - A REAÇÃO ROMÂNTICA CONTRA O MATEMATICISMO



a) A História Natural.. ...................................................................................................235
b) Goethe e a ciência da natureza.......................................................................................238
c) Schelling e a Naturphilosophie..................................................................................245
d) Romantismo, Idealismo, Matemática e Física............................................................249
e) A ciência da vida e o evolucionismo..........................................................................252

IX - A ANÁLISE MATEMÁTICA DA ENERGIA

a) Introdução..................................................................................................................263
b) O som e a audição......................................................................................................265
c) A visão e a luz.............................................................................................................270
d) Duas teorias da luz.....................................................................................................278
e) A Análise Matemática da luz......................................................................................281
f) O calor.........................................................................................................................286
g) A máquina a vapor......................................................................................................290

8
h) A Análise Matemática do fenômeno do calor.............................................................295
i) A teoria cinética dos gases e a Mecânica Estatística...................................................302
j) Eletricidade e magnetismo..........................................................................................307
k) As equações de Maxwell e as radiações de energia...................................................324
l) A natureza da energia..................................................................................................335

X - A ANÁLISE DA MATÉRIA

a) Introdução...................................................................................................................341
b) A matéria na Alquimia e na Química.........................................................................346
c) A noção de matéria na Química moderna...................................................................354
d) Matematização do espaço, tempo e gravitação..........................................................369
e) Matematização da estrutura da matéria......................................................................382
f) O núcleo atômico........................................................................................................398
g) As ciências dos materiais...........................................................................................408

XI - CONCLUSÕES GERAIS

a) Da Análise Matemática à computação eletrônica......................................................425


b) A complexidade dos fenômenos naturais e o caos.....................................................433
c) Problemas filosóficos da Matemática.........................................................................437
d) A natureza matematizada...........................................................................................442

9
10
APRESENTAÇÃO

A obra que Milton Vargas nos deixou, A História da Matematização da


Natureza, e que agora está sendo publicada, vai muito além do que sugere o
título. Consiste em um relato da evolução do pensamento humano em todas
as suas facetas, explicando como o pensamento e a criatividade conduziram
ao desenvolvimento da humanidade. Além disso, mostra como a Matemática
foi utilizada como um instrumento para o desenvolvimento científico, mas
também indica que, muito antes disso ocorrer, as bases do pensamento foram
fundamentadas na arte e na capacidade de abstração.
Era natural que, em suas aulas de engenharia, Vargas se detivesse às vezes
em comentários sobre o fato de que fenômenos da Natureza e a Matemáti-
ca, vindos de caminhos distintos, se encontrassem tão harmoniosamente, por
exemplo, na Mecânica Racional. Essa questão é formalizada no capítulo VII
da obra, que trata da “concepção do mundo como uma grande máquina – um
relógio universal que funcionava obediente às leis expressas por equações
matemáticas”. A dúvida intrigante já foi objeto de digressões em tantas obras
escritas ao longo do tempo. Afinal, por que o expoente da distância na Lei da
Gravitação Universal é exatamente 2, e não 2,000001? Se assim não fosse, o
universo já não existiria como vemos hoje.
Se, por um lado, aulas de engenharia eram um prato cheio para esses
assuntos, Vargas foi muito além de sua formação de engenheiro ao enxergar
como a mente humana reuniu os ingredientes de criação e desenvolvimento.
A formalização da Matemática e de suas aplicações às leis da Natureza foram
apenas uma decorrência natural da criatividade humana, da capacidade de
observar e agregar. Os fundamentos dessa capacidade apareceram primei-
ramente nas manifestações artísticas. A arte deflagrou a capacidade humana
de pensar e, principalmente, de abstrair. Como decorrência, seu domínio se
transformou em poder. Ao descrever os primórdios da organização das ci-
vilizações, Vargas explica que “o maior poder estava com os sacerdotes e
escribas, conhecedores míticos das artes”.
Vargas converge com outros pensadores ao afirmar que o uso de símbolos
foi o diferencial, o amálgama definitivo do processo de evolução humana.
Chip Walter, autor de Last Ape Standing, já afirmara que o uso de símbolos
ajudou a cimentar o cérebro coletivo. Sendo um brilhante engenheiro, Var-
gas descreve o primeiro momento da humanidade como aquele em que um
hominídeo desenvolve a destreza de fabricar um instrumento com as mãos e,
ao mesmo tempo, cria na mente um símbolo que denote o instrumento a ser

11
fabricado. Infelizmente, Vargas não viveu o suficiente para tomar conheci-
mento de descobertas arqueológicas, no sul do continente africano, de obras
de arte com símbolos desenhados há mais de cem mil anos.
Vargas deixou várias obras de engenharia e de filosofia isoladas. Nesta,
ele reuniu o melhor de seu conhecimento como pensador, historiador e en-
genheiro.

São Paulo, janeiro de 2015

Tarcísio Barreto Celestino

12
AGRADECIMENTOS

A revisão e edição deste livro foram iniciadas devido ao incentivo de Pe-


dro Diego Jensen, Andrea Bartorelli, Murilo Lisboa e Carmen Lucia Jardini
Bilhero.
Agradecemos o empenho da ABGE e da ABMS para viabilização da pu-
blicação, bem como das empresas patrocinadoras, sem o qual esta obra per-
maneceria inédita. E a compreensão pela demora da entrega da revisão final
a Adalberto Aurélio Azevedo e a Luis de Almeida Prado Bacellar e a toda a
diretoria da ABGE e ABMS. E o apoio de Renivaldo Campos.
Agradecemos, também, a colaboração de todos os colegas da Themag
Engenharia que auxiliaram e incentivaram o nosso trabalho de revisão, em
especial, ao Tarcísio Barreto Celestino. Bem como ao Arsenio Negro, e ao
Pedro Wagner Gonçalves pelo Prefácio.
Merecem, ainda, destaque os agradecimentos pelas contribuições à revi-
são do texto a:

Antônio Fernando Ribeiro de Toledo Piza


Carlos Telêmaco van Langendonck
Eduardo Soares de Macedo
Marcelo Rouanet
Marília Junqueira Caldas
Pedro Diego Jensen

Mariana, Cristina, Antonio e Abel Santos Vargas.

13
14
PREFÁCIO

Pedro Wagner Gonçalves

Recebi o gentil convite da Mariana Vargas para ler este livro. À primei-
ra vista, fui surpreendido pela diversidade do índice, algo que me assustou
ainda mais quando ela pediu para preparar este Prefácio.
Os dias se seguiram e a leitura foi avançando. Fui me dando conta que se
tratava de um livro de História da Ciência e fiquei cada vez mais surpreendi-
do pela dimensão, abrangência e profundidade dos temas escolhidos.
Há um fio condutor que conduz o argumento: a identificação e a des-
coberta das múltiplas atribuições matemáticas feitas à natureza. Caminho
que permite compreender desde o uso dos números para variadas tarefas
teóricas e práticas até a formulação teórica que marca o pensamento quan-
titativo em sua trajetória que esclarece o funcionamento da natureza. Isto
possibilitou tratar da instauração do conhecimento teórico e científico no
pensamento ocidental desde os pré-socráticos, os pitagóricos e os médicos
do século V a.C., passando pelo período helenístico e pela Idade Média,
até a Revolução Científica do século XVII e seus principais desdobramen-
tos nas teorias do calor e luz das épocas seguintes. Desta maneira, o texto
percorre cerca de 2.500 anos de cultura que pode ser interpretada como
científica.
A trajetória de crescimento e o aumento de amplitude do pensamento
matemático ao longo da história da cultura humana já garantiria um sen-
tido completo à obra, contudo, ela ultrapassou esses limites e alcançou os
campos de conhecimento nos quais a Matemática permaneceu restrita e
em muitos períodos inexistente. Em outros termos, a obra cobre a história
de campos do conhecimento previsíveis a partir de seu título (o que hoje
identificamos como sendo História da Matemática, da Física e da Enge-
nharia), porém vai além e alcança pontos-chave dos saberes nos quais a
Matemática é mais restrita (as atuais História da Biologia e da Geologia).
Esta abrangência denuncia os propósitos do autor que foram, além de
mostrar a história da matematização da natureza e, de fato, escrever uma
História da Ciência capaz de revelar semelhanças e diferenças entre as
ciências exatas (analíticas, indutivo dedutivas) e contingentes (históricas,
hipotéticas e hermenêuticas).

15
Neste livro, Milton Vargas recuperou um campo temático que pratica-
mente foi obscurecido durante o século XX. A visão da natureza ocupou os
pensadores desde o Renascimento, porém foi perdendo importância à medi-
da que se tornava cada vez mais difícil captar a totalidade da Filosofia. Nas
últimas décadas, o tópico ficou restrito àqueles que se preocupam com o
meio ambiente (p. ex., Cavalari, 2009). As questões relativas à concepção da
natureza e ao modo como a humanidade teoriza, reflete, interpreta e humani-
za o mundo natural permanecem no horizonte dos problemas tratados nesta
obra de Vargas. O assunto que ocupou a mente de naturalistas, filósofos e
pensadores foi ricamente investigado neste livro. No interior do pensamento
filosófico, o assunto foi mais claramente tratado até o século XIX, mas pare-
ce que perdeu o interesse durante o século XX. O problema da natureza e seu
funcionamento são ricamente investigados. Milton Vargas retoma e descre-
ve o modo como a cultura humana olhou e atribuiu significados à natureza.
O assunto deste livro pode ter-se tornado menos frequente nos debates
de naturalistas, filósofos e pensadores, contudo, foi central em algumas
obras de peso elaboradas na interface entre História da Ciência e Filosofia.
Em outros termos, encontramos outros autores que exploram trajetórias
paralelas àquelas presentes nesta obra.
O sintético livro de Paolo Casini é agudo na análise de como o ho-
mem mudou sua concepção de natureza desde os primórdios míticos que
se misturam com a origem da humanidade até as modernas preocupações
ambientais do presente. A abrangente obra de Robert Lenoble fornece os
grandes traços de como a humanidade mudou suas ideias sobre a nature-
za. R. G. Collingwood busca compreender como se transformou a ideia
de Cosmologia e, deste modo, descreve a ideia de natureza ao longo dos
séculos. Milton Vargas percorreu caminho semelhante ao procurar o cami-
nho seguido pelo pensamento matemático (e teórico) desde a Antiguidade
clássica. Esta trajetória que corresponde à História da Ciência revela o
processo cultural de significação da natureza, desde as leis qualitativas dos
grandes pensadores clássicos até os contemporâneos que tratam o mundo
atômico, regular e matemático.
Collingwood (2006), em texto originalmente escrito nos anos 1933-34,
pretendeu aplicar o método filosófico à Cosmologia. Defendeu que, na
história do pensamento europeu, houve três épocas do pensamento cosmo-
lógico, ou seja, três épocas em que a ideia de natureza ocupou o centro do
pensamento e se converteu em prolongada reflexão.
A primeira época correspondeu à Antiguidade clássica grega.
Collingwood (2006) advogou que a ideia que os gregos fizeram da nature-

16
za se apoiava na noção de que a natureza estava saturada pela mente. Os
pensadores gregos consideravam a presença da mente na natureza como
fonte para ordem e regularidade natural – cuja existência torna possível
a ciência da natureza. Viam a natureza como um mundo de corpos em
movimento. Os movimentos, de acordo com as ideias gregas, deviam-se à
vitalidade da alma, mas uma coisa é o movimento em si, outra é a ordem.
Concebiam a mente em todos os assuntos como o elemento governante,
dominador e regulador.
Casini (1975) defende que a natureza é uma espécie de projeção do
pensamento humano (crenças, raciocínios etc.) sobre o mundo natural. Ao
longo da existência da humanidade, distintas projeções e imagens foram
aplicadas à natureza. Há uma tendência de as forças e entidades da nature-
za serem tratadas como sagradas em culturas primitivas e, de algum modo,
mesmo em culturas racionais há permanência dessas projeções primitivas
que, em alguma medida, se mesclam e se modificam, mas coexistem com
formas racionais e teóricas de refletir sobre a natureza.
A característica da mentalidade religiosa primitiva é a heterogeneidade
de formas e conteúdo do sagrado, trata-se de um pensamento que opera
com o fetiche e com tabu segundo Casini (1975). Sexualidade, nascimen-
to, morte, forças elementares do sangue, relações familiares e sociais, fe-
cundidade da natureza, vegetação, animais, aspectos da natureza inorgâ-
nica, montanhas, astros são mana, fetiche, tabu, ou seja, temas de objeto
religioso, atividade de temor, de adoração dirigida a forças supremas. O
mundo que rodeia o homem primitivo é benévolo e hostil, é povoado por
inúmeras forças. Gea e Terra Mãe são os sentidos poéticos que, por ve-
zes, fazem parte do trabalho do geólogo até hoje. Para Casini, Gaya é a
divindade mais antiga dos gregos e aparece sob distintos nomes: Pandora,
Artemis, Cibeles, Demeter, Atenas. Elemento comum dessas projeções é a
simbiose total, emotiva, pré-lógica que une primitivos com a Mãe Nature-
za com uma espécie de cordão umbilical.
O apogeu das lutas pelo domínio político da pólis, de certo modo,
entrou em conflito com especulações dos físicos sobre elementos, devir,
origem e ordem do cosmos. Casini mostra que houve conflito com crenças
tradicionais da religião olímpica, houve mistura com ordem de castas e
passaram por seleção ideológica. Os atenienses condenaram Anaxágoras
ao ostracismo por considerar sua doutrina demasiadamente corporal, suas
explicações muito físicas, suas causas demasiadamente materiais. Mesmo
assim, parcela do pensamento adotou o domínio de leis qualitativas atri-
buídas ao funcionamento da natureza.

17
Como mostrou Casini (1975), a subjetividade do conhecimento e a
contemplação das ideias refutou uma ciência da natureza fundada na ex-
periência que conduz por indução do fenômeno até sua causa. Este movi-
mento foi operado por Sócrates e Platão ao defenderem que causas e fins
pertencem à esfera da realidade transfenomênica e ideal, ou seja, são ob-
jetos do pensamento puro e, de outro lado, a observação do mundo físico
é impura e confusa.
Esta visão da natureza vai adquirir sua maior expressão no timeu. Pla-
tão construiu uma Física apoiado nas ideias sobre a natureza. Seu Demiur-
go imita as ideias perfeitas para construir o mundo físico. As leis qualitati-
vas que regem este mundo platônico acham-se dominadas pela violência,
pelo choque de partículas e pela corrupção da qual nosso mundo não pode
se livrar. Nosso mundo nasceu, mas nunca é.
Lenoble (2002) também reforça a ideia de que a Antiguidade grega
permitiu a emergência do domínio da lei. Neste reino jurídico e mecânico,
Sócrates e Platão conceberam a natureza usando a imagem da violência,
mas mantiveram no horizonte a retórica da ordem e beleza dominadas pela
ideia do bem.
Casini (1975) explorou, ainda, a Astronomia platônica. Trata-se de
uma ciência das relações numéricas puras e reservada a poucos iniciados
porque encerra os mistérios do tempo e da eternidade. Ao contrário do
nosso mundo construído pelo Demiurgo, ela nunca nasce, mas sempre é.
Milton Vargas revela como neste mundo grego foi-se constituindo o
pensamento racional e teórico por meio da compreensão da regularidade
matemática. Entre os gregos, a Geometria em algum momento representou
aquilo que é mágico, mas ao longo dos séculos foi-se tornando o huma-
nismo dos pensadores socráticos, uma dinâmica que ao mesmo tempo se
afasta do curandeiro do templo, mas mantém vínculos no significado mais
profundo representado pela Música e pela própria Matemática. Este livro
mostra a emergência das leis qualitativas, resultado da cuidadosa observa-
ção racional da natureza que marcou o humanismo de pensadores como
Platão e Aristóteles, mas já estava presente nos médicos do século V a.C.
Cornford (1989) foi arguto ao demonstrar que, nesse domínio dos hu-
manistas, sofistas e filósofos que rejeitavam a possibilidade de descobrir
as causas a partir do mundo fenomênico, os médicos gregos precisavam
seguir um caminho empírico. A medicina é uma arte prática, já com sécu-
los de história quando veio a ter aquilo que hoje poderíamos chamar um
fundamento de teoria científica. O médico era o curandeiro, um artífice,

18
um cirurgião que trabalhava com as mãos. Lidava com o doente individual
e tinha sempre diante de si a finalidade prática e imediata: a necessidade
de curar. Sejam quais forem as ideias preconcebidas que possa ter quanto
à natureza, ao corpo humano e à doença, não pode fugir da necessidade
constante de observar sintomas, diagnosticar o mal e tentar descobrir o que
fazer. A sua reputação e proventos dependem do êxito que alcançar não
como teórico, mas como curandeiro.
Milton Vargas foi mais atento para o lado técnico do mundo grego que
muitas vezes não é percebido pelo historiador da ciência ou pelo filósofo, a
bruxaria e o curandeirismo permaneceram importantes e coexistiram com
o pensamento racional em amplos campos da Antiguidade clássica e do
Helenismo que a seguiu. Para ele, a mineração e a metalurgia foram ativi-
dades e artesanato que dependeram de técnicas sagradas. Se de um lado, os
médicos sistematizaram informações sobre as regularidades das doenças e
da arte de manter a saúde – agiram sobre rigoroso pensamento sistemático
e racional, embora algo pré-teórico, como mostra Milton Vargas –, os arte-
sãos que manipulavam metais seguiram tradições e crenças que remontam
a quase 5000 a.C. na região onde hoje está a Síria.
Para Collingwood (2006), a segunda época da Cosmologia correspon-
de aos avanços dos séculos XVI e XVII – embora este autor não use o
termo Revolução Científica, sua análise valoriza a influência de Galileu,
Descartes e Newton. De modo simplificado, Collingwood caracteriza o
período como o domínio do mecanicismo que impregnou os movimentos
da natureza.
Os traços essenciais da concepção de natureza construída nos séculos
XVII e XVIII, para Casini (1975), destruíram as bases da Física qualitativa
e construíram um universo mecânico-corpuscular; implantaram a leitura
direta do livro da natureza para substituir o apriorismo, bem como o prin-
cípio da autoridade e o verbalismo escolástico; a experimentação direta
com as coisas reais fundada em hipóteses de trabalho; anotação minuciosa
de fenômenos e sua repetição, medição, cálculo.
O resultado do movimento que foi de Copérnico a Newton foi estabe-
lecer a ideia de que a natureza é dominada por leis, que estas são racionais,
ou seja, segundo Casini (1975) as leis podem ser reconstruídas pela inteli-
gência humana por meio de métodos matemáticos e experimentais. Desta
maneira, a Revolução Científica do século XVII significou o combate às
tradições mágicas e alquimistas e, ao mesmo tempo, seus protagonistas
acreditaram que esta projeção racional e matemática sobre a natureza era
parte de sua autopurificação, era um passo do avanço da bruxaria.

19
Milton Vargas mostra, em seu livro, a peculiar simbiose de ideias car-
tesianas e baconianas na instauração do pensamento físico e matemático,
resultado da substituição do geocentrismo pelo heliocentrismo. A combi-
nação do método do jurista (Francis Bacon) e do matemático (Descartes)
foi bem-sucedido com Galileu e Newton. A nova Filosofia de Bacon se
apoiou e inverteu o conhecimento científico cristalizado pela escolástica
durante séculos. O conhecimento novo e moderno rejeitou a lógica de-
dutiva preconizada por Descartes para tratar a natureza, mas adotou seus
procedimentos matemáticos. A classificação do conhecimento de Bacon
serviu como referência para as ciências que surgiam a partir da Medicina e
que escapavam da investigação matemática da natureza.
A história do processo de matematização da natureza recebe notável in-
terpretação no capítulo dedicado a Galileu. O cerne do pensamento físico
moderno é mostrado no sofisticado método galileano para observar a natu-
reza: não se olha diretamente para um objeto, mas se descreve um objeto
recriado, descarnado e desprovido de suas qualidades observáveis. Trata-se
do objeto criado pelo pensamento para ser estudado. Em certa medida – nos
termos desta obra – é o objeto abstrato e passível de descrição de seu compor-
tamento quantitativo, entretanto impossível de ser descrito diretamente pelos
sentidos humanos, nem caracterizado em termos de seus sinais característi-
cos. Em outros termos, o pensamento científico moderno recorre à natureza
recriada dentro do laboratório em sua busca platônico-pitagórica da verdade.
O exame cuidadoso dos trabalhos de Galileu revela um ponto estratégi-
co da elaboração do livro de Milton Vargas: descrever as equações de Ga-
lileu ao tratar das leis do movimento e o tratamento dado à Resistência dos
Materiais. Isto aproxima das questões da Mecânica dos Solos: é o lado de
curiosidade e desenvolvimento histórico vinculado às preocupações com
os aspectos práticos, a indagação teórica e o campo aplicado às coisas da
vida. Trata-se de uma concepção de ciência.
Esta concepção de ciência remete à passagem de Joseph Priestley quan-
do discutia seus experimentos sobre eletricidade estática. O naturalista e
pastor do século XVIII claramente percebeu e reivindicou a necessidade
do laboratório ir muito além natureza: para ele, o laboratório não devia ser
a imitação da natureza, mas precisava tornar-se a invenção de uma nova
natureza (mais detalhes, ver Oliosi, 2010). Podemos induzir, a partir de
Vargas, que a pretensão é aproximar o laboratório da ordem e regularida-
de antevistas por Platão somente na esfera celeste, ou seja, o laboratório
tornou-se uma janela de acesso direto ao céu, distante das perturbações do
mundo natural, social e moral.

20
O laboratório opera por meio de redução a poucas variáveis controla-
das e, dessa maneira, conduz o pensamento de modo linear e parametrizá-
vel em termos matemáticos. Isto se opõe à atividade de campo que se volta
para o pensamento divergente, para variáveis dificilmente controláveis e,
dessa maneira, amplia o conhecimento (Frodeman, 2004).
A constatação de Frodeman (2004) sobre diferenças entre atividade
de laboratório e campo é muito clara para aqueles que possuem familia-
ridade com Mecânica dos Solos (como era o caso de Milton Vargas), o
resultado dos ensaios geotécnicos conduz a uma classificação de solos
muito diversa daquela obtida no campo ou diretamente dos testemunhos
de sondagem. Tal dicotomia é elaborada à medida que as principais refe-
rências do pensamento científico aparecem na narrativa histórica exposta
nesta obra. Nos termos do autor, a ciência, desde o século XVII, não é o
mundo tal qual podemos observar, mas é um mundo criado segundo cri-
térios definidos:
De fato, tanto no pensamento de Galileu e Descartes, como no de Bacon, o
conhecimento científico é o de substâncias ou formas, onde todo elemento iden-
tificador das coisas particulares, tais como: cores, odores, gostos e particularida-
des sensíveis são meras aparências subjetivas, destituídas de interesse científico.
Eles poderão, no máximo, serem utilizados para individualizar os objetos da
experiência empírica, sobre os quais está sendo feita a pesquisa, mas, de forma
alguma, estarão presentes nas conclusões gerais, pois essas serão necessaria-
mente generalizações. De qualquer forma, os objetos conhecidos serão sempre
de estofo mental: extensão, forma ou quantidades mensuráveis
Referências a formas, ideias possuem forte nexo com o pensamento
platônico e o mundo perfeito extrassensível ou, como tentamos enfatizar,
criado pela ciência no laboratório.
Praticamente uma dicotomia entre ciência predominantemente de labo-
ratório e de campo serviu para distinguir os campos de conhecimento do
século XIX que seriam parametrizáveis e os não parametrizáveis naquela
época. No centro dessas mudanças conceituais estava a Revolução Fran-
cesa e a Época das Luzes, como Vargas explora ao descrever o movimento
romântico e a ciência construída para refutar o conhecimento mecânico e
matemático dos séculos XVII e XVIII.
A ciência romântica, elaborada contra o conhecimento dominante,
atingiu seus principais resultados nos campos que entrelaçaram Quí-
mica, Eletricidade e Magnetismo. Teorias e experimentos rigidamente
firmados nos estudos empíricos e nas interpretações das tabelas de atra-

21
ção eletivas (que começaram a ser aperfeiçoadas a partir dos resultados
expostos por Étienne François Geoffroy na Academia de Ciências de
Paris, início do século XVIII; mais detalhes sobre o desenvolvimento
destas tabelas encontram-se em Taylor, 2006). Afinidades e polos opos-
tos foram construídos a partir das polaridades presentes em parcela da
filosofia kantiana. Descobertas importantes impulsionaram o conheci-
mento científico dos três campos mencionados e serviram de ponto de
partida para avanços obtidos por André-Marie Ampère. Trata-se de uma
indicação histórica de que a teoria errada pode conduzir a resultados
positivos.
A ciência romântica gerou outro conjunto de elementos que foram des-
critos por Milton Vargas. O reconhecimento do processo, da mudança e da
história da natureza. Nexos entre esta concepção de ciência e de natureza
se vincularam à emergência da Biologia e Geologia modernas entre fins do
século XVIII e nas décadas seguintes. Vargas descreve que esta ideia di-
nâmica de natureza foi parte integrante dos estudos, escritos e descobertas
de Goethe e Schelling.
Collingwood (2006) toma a teoria da evolução da vida como marco da
transição para terceira concepção de natureza. A emergência dos estudos
que passaram a se dedicar ao estudo do mundo vivo (em oposição à Física e
aos estudos da matéria que tratavam dos movimentos ordenados do mundo
morto) marca a ruptura com o mecanicismo do século XVII.
Vargas detalha os passos da emergência das ciências da vida e da Ter-
ra. O detalhamento possibilita identificar a ordem e a regularidade que
foi observada e os modos como esta foi interpretada desde fins do século
XVII até se tornar um objeto de estudo firmemente assentado em dados
empíricos. A vida sob forte influência da dualidade cartesiana tinha na re-
produção um processo quase único de cada ser vivo e, ao mesmo tempo,
Descartes largamente reduziu a vida ao relógio mecânico. O romantismo
alemão tirou a vida deste mecanismo morto e instaurou sua autonomia
diante da Mecânica e dos materiais, como Vargas insiste, a vida se tor-
nou um processo, os estudos de Embriologia revelaram semelhanças de
espécies diferentes sugerindo um ser simples e primitivo original do qual
derivaram todos os organismos.
Seja seguindo o romantismo alemão, seja alcançando a teoria evolutiva
da vida de Darwin e Wallace, houve importante convergência assinalada
por Vargas: o movimento romântico-idealista fundamentou filosoficamen-
te o evolucionismo que veio a dominar as geo e biociências, tornando di-
fícil sua matematização.

22
Os pesquisadores dedicados à ciência, Engenharia, Tecnologia usual-
mente são considerados imunes às influências culturais, sociais e econômi-
cas de sua época. Apesar desta primeira ideia, de fato os cientistas possuem
muitos vínculos e marcas do seu período histórico. Este livro de História
da Ciência é uma evidência desses nexos. O conjunto de problemas e tó-
picos da obra revela uma formação pessoal muito peculiar. Milton Vargas,
Fernando Flávio Marques de Almeida e outros pesquisadores que tiveram
sua juventude na década de 1930 possuem carreiras, trajetórias científicas
e educacionais com muitos traços comuns que ajudam a explicar seu papel
proeminente no cenário nacional.
Os desafios científicos das décadas de 30 e 40 do século XX facilitaram
trabalhos e pesquisas mais polivalentes para cobrir espectros mais amplos
do conhecimento. Isto facilitou relacionar aspectos específicos e especiali-
zados entre si, bem como construir nexos e vínculos algumas vezes pouco
perceptíveis.
Tedesco (2012) narrou como as elites latino-americanas buscaram
adaptar os sistemas educacionais europeus e norte-americano às condições
nacionais. O final do século XIX assistiu à implantação de modelos edu-
cacionais que foram regidos por uma ideologia que advogava a construção
moral e política das nações por meio da educação. Isso conduziu à organi-
zação do ensino secundário e superior orientado para formar as elites que
consolidariam o Estado.
A capacidade de analisar a diversidade de temas presentes nesta obra in-
dica os dois lados, científico e educacional, da formação de Milton Vargas.
Contudo, há algo que é próprio que está ligado à formação em Engenharia
e a curiosidade por compreender a Filosofia e a ciência. Inúmeras passa-
gens resgatam o lado técnico o que é pouco usual nos livros de História da
Ciência. E há, ainda, o esforço voltado para narrar a História da Ciência.
Este modo singular vinculado ao cuidado conceitual e metodológico
que ganha formato nesta e em outras obras do autor não passava desper-
cebido do próprio Milton Vargas. Em seus depoimentos, atribuiu este in-
teresse à sólida formação filosófica obtida no nível secundário, época que
cursou um colégio católico. É importante assinalar que ele fez parte do
núcleo formado na USP, no começo da década de 1980, que originou a
Sociedade Brasileira de História da Ciência. Aquele grupo foi composto
por nomes eminentes, por exemplo, Simão Matias e o próprio Vargas, bem
como pesquisadores novos que se interessavam pela institucionalização
desta área de conhecimento, como, Ana Maria Goldfarb, José Goldfarb e
Marcia Helena Ferraz entre outros.

23
Este lado voltado para a História da Ciência e Filosofia foi o que con-
duziu Vargas a, durante anos, provavelmente desde o início da década de
1980, se debruçar e escrever a história da matematização da ciência.

Referências
CASINI, Paolo. Naturaleza. Barcelona: Editorial Labor, 1977. 166p.
CAVALARI, Rosa M. F. Las concepciones sobre la naturaleza en el ideario educacional
de Brasil durante las decadas de 1920 y 1930. Utopía y Praxis Latioamericana, v.
14, n. 44, p. 53-67, jan.-mar. 2009.
COLLINGWOOD, R. G. Idea de la naturaleza. 2. ed. Tradução e nota preliminar por
Eugenio Ímaz. México: Fundo de Cultura Económica, 2006. 243p.
CORNFORD, F. M. Principium sapientiae: as origens do pensamento filosófico grego. 3.
ed. Lisboa: Fundação Calouste Gulbenkian, 1989. 443p.
FRODEMAN, R. Philosophy in the field. In: FOLTZ, Bruce V., FRODEMAN, Robert
(Ed.). Rethinking nature: essays in environmental philosophy. Bloomington (IN):
Indiana University Press, 2004. p.149-164.
LENOBLE, Robert. História da ideia de natureza. Lisboa: Edições 70, 2002. 367p.
OLIOSI, E. C. Os estudos de Joseph Priestley (1733-1804) sobre a teoria da eletricidade.
Dissertação (Doutorado em História da Ciência). São Paulo: Pontifícia Universidade
Católica.. 2010. 122 p.
PLATÃO. Timeu e Crítias ou A Atlântida. São Paulo: Hemus, 2012.
TAYLOR, G. Unification achieved: William Cullen’s theory of heat and phlogiston as an
example of his philosophical chemistry. The British Journal for History of Science,
v. 39, n .4, p. 477-501, 2006.
TEDESCO, Juan C. Educación y justicia social en América Latina. Buenos Aires: Fondo
de Cultura Económica, Universidad Nacional de San Martín, 2012. 268p.

24
I - SURGIMENTO DAS CIÊNCIAS E DAS TÉCNICAS

a) Introdução
Uma das séries de acontecimentos históricos mais impressionantes foi
a que ocorreu entre os anos 800 a.C.e 200 a.C. Não se trata de guerras
heroicas nem de grandes invasões, nem mesmo de catástrofes destruidoras
ou epidemias alastradoras. São ocorrências de caráter cultural provoca-
das por personagens muito bem identificados física e historicamente, que,
naquela época, surgiram na China, na Índia, na Pérsia, na Palestina e na
Grécia. É um prodigioso movimento espiritual, abrangendo os dois conti-
nentes civilizados de então.
Na China, Confúcio (551 a.C. - 479 a.C.) e Lao-tsé (século VI a.C.);
na Índia, Gautama Buda (563 a.C. - 483 a.C.); na Pérsia, Zoroastro (628
a.C. - 551 a.C.); na Palestina, os profetas, desde Amos (fl. entre 765 a.C. -
750 a.C.) até Isaías (765 a.C. - 681 a.C.) e Jeremias (655 a.C. - 586 a.C.);
na Grécia, os filósofos, desde Tales (639 a.C. - 545 a.C.) e Pitágoras (fl.
500 a.C. - 490 a.C.) até Platão (428 a.C. - 348 a.C.) e Aristóteles (384 a.C.
- 322 a.C.). Esses homens abriram caminhos seguidos por todos aqueles
que edificaram a sabedoria oriental, o misticismo judaico e a teoria grega.
São sabedorias, doutrinas e ideias diferentes entre si, mesmo, em vários
aspectos, conflitantes, mas entre elas há pontos de surpreendente concordân-
cia e significado inaugural. Um deles é que todas elas têm um autor histó-
rico – alguém a quem se atribui tê-las pensado, refletido e divulgado. Dife-
rentemente das lendas, relatos religiosos e epopeias anteriores, cujos autores
são figuras mais ou menos lendárias. Agora conhecem e honram-se, como
seus autores, indivíduos reais inseridos na história. O segundo é que, nelas,
o pensamento dobra-se sobre si mesmo, numa reflexão sobre os problemas
que o próprio pensamento propõe à procura da verdade. Finalmente, esse
pensamento sapiencial, místico ou teórico busca um princípio único do qual
emanam todas as coisas. Daí o surgimento das grandes religiões monoteístas,
da mesma forma que, em relação à teoria, surgem os princípios da lógica. É
sugestivo que a ideia de um deus único e eterno viria corresponder, no que
concerne à razão humana, aos princípios de identidade, não contradição e ter-
ceiro excluído. Além disso, tanto na sabedoria oriental como no pensamento
teórico, necessariamente lógico, os homens dessa época procuram uma rea-
lidade espiritual, porém humana, existente além dos fenômenos sensíveis.

25
Entre os anos 800 a.C. e 200 a.C. irrompeu, pois, no mundo civilizado
de então, aquilo que, em Filosofia, até hoje chama-se “espírito”, ou, de
uma forma restrita na teoria grega, o logos. O homem adquire assim a sua
individualidade, mentalidade e liberdade, as quais fundamentam, até hoje,
a existência humana. Um dos primeiros desses homens “individualizados”
foi Heródoto (484 a. C. - 424 a.C.), que visitou, nessa época, terras do
Egito e da Babilônia e escreveu uma história crítica das origens dessas
civilizações e de como elas tinham sido subjugadas pelos conquistadores
de então. Karl Jaspers chama a essa época do desabrochar do espírito, de
“período axial”, a partir de cuja concepção, ele desenvolve toda uma filo-
sofia da história pela qual tenta compreender a origem e a meta da história
universal1.
A contribuição grega clássica à formação desse espírito humano uni-
versal está na descoberta, no século VI a.C., na costa da Jônia, de uma
maneira peculiar de pensar que se chamou “teoria”. Esta, consiste na capa-
cidade humana de perceber, pelos olhos do espírito, uma realidade única,
coerente consigo mesma e, possivelmente, verdadeira, que subsiste sob a
aparência fugaz e enganadora dos fenômenos. Isto é, perceber que por trás
das aparências cambiantes de uma árvore, verdejante na estação chuvosa e
seca no inverno, resplandecendo ao sol da manhã e ensombrecida à noite,
há um ser vegetal único e coerente consigo mesmo, sobre o qual é possí-
vel raciocinar logicamente. Dessa sabedoria teórica (epistéme theoretike)
é que nascem as ciências e a Filosofia ocidentais.
Há, na verdade, uma grande diferença entre a epistéme theoretike e as
sabedorias chinesa, indiana ou persa e, também, entre essas e as místicas
judaica ou persa. A teoria parece ser uma forma de pensar típica do oci-
dente, embora universal no sentido em que ela pode ser aprendida por toda
a humanidade. Surgiu, naquela época, na Grécia, porém, somente a partir
do século XVII começou a expandir-se por todo o mundo civilizado. Ela
supõe o pensamento lógico, porquanto vê (em grego, theorein quer dizer:
“ver, contemplar”), nas aparências de coisas e eventos, aquilo que os torna
únicos, não contraditórios e exclusivamente verdadeiros ou falsos – não
havendo uma terceira possibilidade entre sua eventual verdade ou falsi-
dade. Pelo contrário, nas sabedorias orientais e nas místicas não existem
essas exigências lógicas, a não ser por aporte da cultura helenística que,
com as conquistas de Alexandre, o Grande, veio a influenciar o pensamen-
to oriental. Há quem sustente mesmo a tese de que, como a lógica é uma
teoria baseada na estrutura da língua grega clássica, não poderia haver
1 JASPERS, Karl. Origen y Meta de la Historia. Revista de Occidente, Madrid: [s. ed.],
1950.

26
lógica a não ser em sabedorias expressas em línguas cujas estruturas fos-
sem semelhantes à dela. O que encontra um inexplicável desmentido na
existência da ciência teórica de origem grega, expressa em árabe, durante
a Idade Média, ou na evidência de uma ciência moderna, atualmente ex-
pressa em japonês.
A epistéme theoretike tinha como objeto, por um lado e primordial-
mente, a compreensão da natureza a partir de um princípio único: a arché
do qual tudo provinha e tudo a ele retornava. A natureza assim vista teori-
camente era a physis e os tratados filosóficos tinham, quase todos eles, o
subtítulo peri physei, inclusive o timeu, de Platão, embora tenha sido Pla-
tão quem primeiro desviou o interesse da Filosofia grega, da natureza, para
o próprio homem. Mas havia também, ao lado da Filosofia, um conheci-
mento teórico sobre as harmonias e proporções perfeitas dos números e fi-
guras geométricas, expresso pela Matemática, especialmente a Geometria.
Apesar de que só tardiamente, no período helenístico, depois do período
axial, fossem essas proporções utilizadas para explicar fenômenos físicos.
Havia, no pensamento grego, uma tendência – que veio a chamar-se pita-
gorismo – a entender os números como princípio único da realidade física.
Daí a origem do fenômeno que se tentará, neste livro, historiar e estudar:
a matematização da natureza – o qual, acredita-se inexoravelmente depen-
dente do pensamento teórico.
Sem dúvida foi dessa epistéme theoretike peri physei que surgiram
as ciências da natureza, expressas matematicamente. Elas expandiram-se
por todo o mundo, a partir do século XVII, como universalmente válidas
baseando-se no dito galileano: “o livro da natureza foi escrito, por Deus,
em caracteres matemáticos”. Porém, para o estabelecimento de tais ciên-
cias como se apresentam hoje, foi necessário que na Grécia do século VI
a.C. tivesse aparecido, também dentro do contexto do período axial, uma
peculiar forma de técnica que em grego chamou-se techné e em latim, ars.
Baseavam-se essas técnicas não num conhecimento contemplativo das
coisas e eventos, mas num saber como fazê-las, controlá-las e utilizá-las.
Eram expressas por meio de ensinamentos de mestres a aprendizes e, em-
bora não fossem necessariamente teóricos, exigiam uma certa logicidade.
Tais eram, por exemplo, os ensinamentos dos tratados sobre Medicina de
Hipócrates (460-377 a.C.) ou sobre Arquitetura, de Vitruvius (séc. I a.C.).
Foi a junção tardia das teorias com as techné que deu à ciência moderna o
seu caráter ativo de agente transformador da realidade, caráter esse com-
plementado pela ideia de natureza cuja arché são os números e as figuras
geométricas.

27
Contudo, tanto a epistéme theoretike como as technés não surgiram
do nada. Puderam aparecer porque, antes do surgimento do pensamento
reflexivo e unitário, descoberto universalmente no período axial, já havia
atividades humanas que puderam servir-lhes de base. O saber teórico gre-
go edificou-se sobre conhecimentos de protociências, como a Matemática
e a Astronomia das civilizações míticas, anteriores ao período axial. Essas
se tinham edificado lentamente ao longo de milênios, principalmente nas
civilizações egípcia e assírio-babilônica. Por outro lado, as protociências
baseavam-se tanto nas atividades técnicas das civilizações míticas como
nas técnicas pré-históricas. É de se notar aqui que ambas – técnicas e pro-
tociências – são intimamente relacionadas com as origens da humanidade
e, portanto, indelevelmente ligadas às formas simbólicas primevas da hu-
manidade: magia, mitos e ritos primevos.

b) Das técnicas aurorais pré-históricas às técnicas míticas


Na aurora da humanidade surgiu a técnica. Poder-se-ia imaginar um
primeiro momento da humanidade, que talvez tivesse durado milênios, em
que surgem concomitantemente, num hominídeo, a destreza manual de
fabricar um instrumento e, na mente do fabricante, um símbolo que denote
o instrumento a ser fabricado. Pois é inconcebível um homem que lascasse
a pedra, sem ter em mente a intenção de fabricar algo para servir para algu-
ma coisa. É possível que um animal pré-humano lascasse acidentalmente
a pedra e, com a pedra lascada, instintivamente quebrasse algo ou ferisse
alguém. Mas, o homem só aparece quando, entre sua mente e o instrumen-
to, interpõe-se um símbolo que lhe permita projetar e valorizar o objeto
que fabrica.
Com efeito, baseando-se nos estudos biológicos de Johannes von
Uexküll acerca do mundo próprio de cada animal, Ernst Cassirer propôs
um critério para diferenciar o mundo humano do dos outros animais2. Se-
gundo Cassirer, a circunstância do homem não é somente um alargamen-
to da do animal. É também qualitativamente diferente porque o homem
descobre um novo método de adaptação ao seu meio. Todo organismo é
integralmente adaptado ao seu meio ambiente, de acordo com sua estrutura
anatômica. Cada animal possui sistemas receptores e reagentes próprios
sem os quais não pode sobreviver. No homem, e somente no homem, en-
tre esses dois sistemas interpõe-se um terceiro: o sistema simbólico. Isto
transforma a totalidade da vida humana, retardando a resposta aos estímu-
los exteriores pelo complexo sistema do pensamento, obrigando a viver-se
num universo simbólico. Uma forma de organização desse universo é a
2 CASSIRER, Ernst. An Essay on Man. New Haven: Yale University Press, 1944.

28
linguagem, pela qual a experiência humana pode ser toda reunida numa
rede de significações. Assim, as reações animais são radicalmente diferen-
tes das respostas humanas. Não há dúvida que os animais reagem a sinais
que são componentes do mundo físico, mas não percebem os símbolos que
compõem o mundo humano da cultura. Ao contrário dos sinais – que se re-
lacionam de uma maneira fixa com aquilo que indicam –, os símbolos são
versáteis e podem mudar de significado segundo as circunstâncias. Além
de denotarem as coisas, podem criar ou ampliar realidades, abrindo assim
a possibilidade da cultura. Ao mesmo tempo, o símbolo permite reconhe-
cer algo como particular, numa pluralidade de coisas – o que é o princípio
do conhecimento.
Em suma, o momento em que o pré-homem descobriu que poderia fa-
bricar um instrumento, foi o mesmo em que aprendeu que aquele objeto
tinha um nome. Nesse momento nasce a humanidade e, com ela, a técnica,
a linguagem e a cultura.
O Professor Bernardino Bagolini, da Universidade de Trento, descreve
brilhantemente esse momento em que, desde cerca de um milhar de anos
até o estabelecimento da cultura paleolítica, deu-se o surgimento da téc-
nica lítica. Esse momento tem seu início na acidentalidade da experiência,
mas atinge sua intencionalidade com o aprimoramento do gesto, envolven-
do a relação entre matéria-prima e inteligência operatório-técnica, ligada
ao surgimento da linguagem e da organização social. Tudo isso, segundo
Bagolini, pode ser reconhecido através da pesquisa de como se desenvol-
veu a técnica do lascamento de pedras3.
Outra conquista técnica do Paleolítico foi o domínio do fogo. Sabe-se
que o Homem de Pequim, que viveu há cerca de 400 mil anos, já utilizava
o fogo. As populações paleolíticas na Europa sobreviveram durante quatro
épocas sucessivas, em que as geleiras árticas expandiram-se até quase o
Mediterrâneo. Essa sobrevivência só pode ser explicada com a utilização
do fogo como meio de aquecimento e iluminação e com o uso de vesti-
mentas de peles de animais, escalpeladas com o auxílio de facas líticas,
obtidas pela técnica de lascamento por pressão, de pedras de sílex. Depois
da última glaciação, há cerca de 15 mil anos, o fogo já era usado para
cozer ou assar carnes e para a iluminação e aquecimento. Além de tudo,
havia o caráter sagrado do fogo, pois sua origem estava nos meteoritos
que vinham do céu. É de se supor que o fogo associava-se ao ferro dos
meteoritos como matéria ao mesmo tempo benéfica e aterrorizante. Daí
o caráter mágico de ambos. Os Homo sapiens dessa época já se vestiam
3 BAGOLINI, Bernardino. Os significados do Estudo das Tecnologias Líticas
Pré-Históricas. Revista da Sociedade Brasileira de História da Ciência, n. 4, 1989.

29
com roupas de couro, constituídas de peles costuradas entre si. Para isso
já tinham inventado as agulhas e os fios de couro ou fibras vegetais. Mas
não conheciam nada de agricultura. Era um caçador armado de lanças com
pontas de pedra lascada, mas também um grande artista, exímio decorador
das paredes de suas cavernas e escultor de pequenas estátuas, representan-
do os animais que caçava.
Aí tem origem a religião, com os rituais de propiciação da caça feitos
no interior de cavernas profundas, e de sepultamento dos mortos, cujos
cadáveres eram pintados com o vermelho do ocre.
Há cerca de dez mil anos, nas costas de mares ou lagos europeus, apa-
receram comunidades sob a proteção de um chefe, que já tinham abando-
nado a vida em pequenos grupos dos caçadores paleolíticos. Os grandes
animais dos períodos glaciais tinham desaparecido e a caça restringia-se
aos veados e javalis. Tais comunidades representam o Mesolítico, quando
os homens passam a ser coletores de raízes, castanhas ou conchas e pes-
cadores. Preparam os alimentos, cozendo-os ou assando-os. Criam uma
indústria de micrólitos: pequenas peças de sílex usadas como joias, anzóis,
agulhas e pontas de flechas ou lanças. Tinham inventado o arco e a flecha,
as canoas e as cabanas de troncos de árvore dispostos em forma de cones,
recobertas de couro, ou em estacas dispostas circularmente e recobertas
de palha. Já tinham domesticado cachorros e teciam redes de pescar com
cordas de fibras vegetais.
Nessa época, estava ocorrendo, na Mesopotâmia, a grande revolução
do Neolítico. O homem aprendeu a cultivar a terra e a domesticar animais,
embora nada se saiba de como nasceu a agricultura e a criação do gado,
mas, com isso, o homem passou do estado nômade do Paleolítico para o
sedentário Neolítico. Não se sabe, porém, se isso foi a causa ou o efeito da
agricultura. Esses homens aprenderam a construir casas de adobe, dispos-
tas em conjuntos que, mais tarde, vieram a constituir as cidades. Herdaram
dos seus antepassados paleo e mesolíticos, a fabricação de instrumentos de
pedra, já agora polidos e fabricados em série, constituindo um artesanato
semelhante ao atual. Esses instrumentos permitem trabalhar a madeira e,
com ela, fabricar utensílios domésticos, como o pilão para fazer farinha
dos grãos cultivados e gamelas para recolhê-los. A cerâmica, a cestaria e
a tecelagem, também se desenvolvem na fabricação de utilidades domés-
ticas. É a época em que se inventam o vinho e a cerveja. Note-se que toda
essa técnica gira em torno da vida doméstica, daí a predominância das mu-
lheres. Estabelece-se o matriarcado, ilustrado pelas estatuetas das deusas
femininas, com a figura das grandes mães de seios e nádegas exageradas

30
– como símbolos de fertilidade. A abundância de estatuetas de mulheres,
com cabeleiras elaboradamente penteadas, é outro sinal desse matriarca-
do. Os rituais de propiciação da primavera, com sua simbologia sexual,
mostram não só o caráter sagrado do cultivo do solo, como sua conexão
estreita com a fecundidade humana presidida pelas mulheres.
Por volta do sexto milênio antes da nossa era, o comércio de instru-
mentos e alimentos entre as comunidades neolíticas intensifica-se e, com
isso, a rápida difusão da cultura neolítica atinge a Europa há cerca de cinco
mil anos, e as planícies do norte da China, há cerca de 4.500 anos.
O arado, em forma de fálus (pois o cultivo da terra tinha sido assimila-
do à fecundação das fêmeas pelos machos), puxado por bois domesticados
só aparece no final do Neolítico, quando suas comunidades já tomam for-
ma de cidades. É nessa época, também, que se começa a empregar troncos
roliços para transportar cargas, rolando-as sobre os troncos. Provavelmen-
te é daí que surge a ideia de cilindros rolantes cortados dos troncos que
irão dar origem às rodas. Curiosamente, pode-se imaginar que, da rolagem
desses troncos e cilindros sobre o solo, nasce a ideia de preparar caminhos
adequados à sua rolagem. É a origem das estradas.
Com o domínio mágico do fogo, pela invenção dos fornos e a utili-
zação do carvão de madeira, e com o maior conhecimento empírico dos
materiais que ocorrem na superfície da terra, desenvolvem-se indústrias.
A argila é um desses materiais: quando molhada, adquire plasticidade e,
quando cozida em fornos, adquire uma rigidez toda especial. Além disso,
no cozimento é possível decorar as peças com óxidos de diferentes cores.
Assim, nasce a arte da cerâmica – que identifica, por suas formas e dife-
rentes decorações, as diversas culturas. Também de argila seca ao sol ou
cozida em fornos, fabricam-se tijolos para a construção de edifícios. O
gesso e os calcários são também materiais do solo que, tratados pelo fogo,
constituem excelentes aglomerantes ou revestimentos dos tijolos, quando
utilizados como materiais de construção de edifícios. O vidro provavel-
mente foi descoberto quando, sob uma fogueira, observou-se a vitrificação
de areias em ocasional mistura com carbonatos. O achado do cobre natural
foi provavelmente o início da utilização dos metais – ao descobrir-se que
se poderia fundi-lo e moldá-lo a golpes de malho. Só mais tarde é que se
aprendeu a utilizar também os minerais de cobre – os quais deviam ser
fundidos para se chegar ao óxido e depois desoxidados pelo carvão de
madeira. Nasce então a mineração e a forjaria.
Outra invenção do final do Neolítico são os barcos à vela de junco – te-
cidos como se fossem enormes cestos – e impermeabilizados com betume.

31
Tais barcos foram utilizados na navegação fluvial tanto do Tigre-Eufrates
como do Nilo. Também, adaptaram-se velas às antigas canoas mesolíticas
feitas de troncos ou cascas de árvores.

c) As civilizações míticas e suas técnicas


Há cerca de seis mil anos, as comunidades neolíticas ao sul da Meso-
potâmia aglutinaram-se para formar a primeira civilização de que se tem
notícia: a Suméria. Na Europa e no Oriente ainda permanecia o Neolítico.
Somente meio milênio depois é que surgiram as primeiras cidades dos
vales do Nilo e do Indo. Enquanto que a primeira civilização chinesa apa-
rece somente há cerca de quatro mil anos nas planícies do rio Amarelo. Na
mesma época, surge a civilização egeia, com Creta e Micenas. Essas serão
chamadas de civilizações míticas.
Na Suméria, aparece a escrita e, com ela, a História, há cerca de 5.500
anos. Os sumérios tomaram posse das planícies próximas do Golfo Pérsi-
co, drenaram os pântanos, controlaram as enchentes e estabeleceram uma
agricultura permanente. Daí, portanto, ocorreu a transição das sociedades
neolíticas agrárias simples para organizações sociais complexas, onde há
escrita, mitos e leis. O mais antigo escrito sumeriano é um tablete de barro
com cinco mil anos de idade. Trata-se de lista de materiais armazenados
e tamanhos de lotes de terra, portanto, já contém números. Já se mediam
terras e pesavam-se, em balanças semelhantes às atuais, objetos e merca-
dorias. Desenvolveram uma indústria de metais, de cerâmica e de tecidos.
A grande descoberta sumeriana, além da escrita, foi a roda, utilizada
em carruagens militares. Era de madeira com eixo fixo. A carruagem era
atrelada, por jugos elementares, a asnos de espécie asiática, hoje quase
extintos.
Uma das principais cidades sumerianas era Ur, com magníficos tem-
plos, atingindo mais de dez metros acima do nível da cidade. As áreas
sagradas atingiam cerca de dois acres e eram cercadas por um muro ex-
terno, porém, com áreas reclusas dos templos, limitadas por outro muro
interno. O templo, seus muros e edifícios anexos eram construídos em
alvenaria de tijolos revestida com argamassa de cal. A técnica construtiva
foi herdada dos tempos neolíticos. No recinto externo do templo havia as
oficinas metalúrgicas de ouro, prata e cobre, pois os forjadores de metais
não se diferenciavam muito dos sacerdotes e os metais eram considerados
dádivas dos deuses. Ouro e prata para as joias e objetos decorativos, cobre
para pontas de lança fundidas em moldes de barro, em fornos de carvão
de madeira.

32
As civilizações dos grandes impérios da Idade do Bronze, já conhece-
dores da escrita, são chamadas de míticas porque sua origem religiosa e
social é estabelecida por mitos; isto é, relatos de ações de deuses, persona-
gens semidivinos e heróis civilizadores e legisladores. São estabelecidos
rituais compulsórios para todo atuar humano tanto no trato com os deuses
e nas guerras, como na vida cotidiana.
O caráter estático das civilizações míticas só é perturbado periodica-
mente por invasões de bárbaros, por exemplo, a dos hicsos no Egito, a
dos hititas na Babilônia e a dos hunos na China. Tais invasões conturbam
a ordem mítica. Geralmente os invasores são assimilados e nova ordem é
retomada: uma nova seiva é injetada, mas a mesma civilização continua.
Outras vezes, são totalmente destruídas por um invasor bárbaro poderoso.
As civilizações pré-colombianas do México e do Peru são também míticas,
mas foram destruídas por um invasor alheio a seus mitos.
É curioso que, apesar desse estado de torpor, em que tudo parece re-
petir-se sem reflexão sobre o próprio acontecer, surge, em cada uma de-
las, portentosas artes, cada uma exibindo estilo próprio. Herdam técnicas
neolíticas, não muito diferentes das outras civilizações, e as ritualizam,
atribuindo suas origens aos deuses e aos heróis através de mitos. A Arqui-
tetura e a Medicina também têm suas origens atribuídas à atuação e aos en-
sinamentos dos deuses e heróis civilizadores. Ambas são exercidas tendo
em vista o momento preciso, determinado pela Astrologia, das cerimônias
de propiciação, dos preceitos ritualísticos e da atuação mágica. Mantêm-se
assim estacionárias, como desde seu início em épocas neolíticas.
É importante assinalar que essas civilizações aparecem em vales ao
longo de grandes rios, onde as colheitas eram abundantes. Portanto, é de
se concluir que, apesar de suas atividades protoindustriais, a agricultura é a
base de sua sustentação. Os antigos ritos de fertilidade ainda permanecem,
a contagem de tempo segue o ritmo das estações e há, ainda, nítidos sinais
do matriarcado neolítico.
A própria manutenção ritualística das atividades religiosas e sociais
pressupõe a divisão do trabalho em castas ou classes. Na base dessa estru-
tura, está a multidão dos servos e escravos, simples fornecedores de força
muscular. Acima desses, estão aqueles capazes de conduzir obras, executar
tarefas, curar doenças e fazer a guerra. São detentores de saberes técnicos
que lhes são transmitidos de geração em geração. São conhecedores dos
ritos mágicos de como construir e fabricar utensílios, por isso participam
do poder. Mas o maior poder está com os sacerdotes e escribas, conhece-
dores dos segredos míticos das artes, das técnicas e da organização social

33
e religiosa. Acima deles, só os reis, descendentes dos deuses, cujo poder
era total sobre todos os seus súditos.
É verdade que toda ação, nas civilizações míticas, é fixada pelo ritual
inquestionável. Mas é natural que surjam exigências novas em diferentes
eventualidades, além de dúvidas sobre o comportamento humano na vida
cotidiana. Vem daí a necessidade da legislação da justiça, das regras para o
exercício da Arquitetura, da Medicina e do comércio. O mais antigo exem-
plo de tais legislações é o código do rei babilônico Hamurabi (c. 1900
a.C.). Provavelmente, dessa necessidade de controle e administração é que
se originam as receitas de como resolver problemas de Contabilidade e de
Astrologia. Daí o aparecimento, no Egito, na Babilônia, na Índia e na Chi-
na, das protociências: a da Matemática e da Astrologia, desenvolvidas pe-
los sacerdotes e escribas a partir de conhecimentos, de regras de contagem
e de cenas do céu que lhes foram transmitidos desde tempos imemoriais.
Assim, por exemplo, afirma-se que estudos antropológicos dos rituais pa-
leolíticos, sugerem a origem da contagem na necessidade de ordenar a
entrada dos participantes na cena mítica.
Entre as atividades mais veneradas, estavam as dos mineradores e for-
jadores de metais, pois os minérios eram considerados gérmens da terra e,
os metais, dádivas divinas. Assim, a metalurgia do ouro, da prata, do cobre
e do bronze era considerada atividade sagrada. A obtenção do ferro, a partir
dos seus óxidos naturais: a magnetita e a hematita, é tardia, mas deveria ser
conhecida desde o Neolítico como se depreende das lendas e das tradições
dos povos primitivos remanescentes. Tanto a mineração como a metalur-
gia eram atividades mítico-mágicas exercidas por iniciados, conhecedores
de segredos e praticadas segundo rituais. Tanto a abertura de minas como a
construção dos fornos deviam ser feitas em tempos propícios, por homens
devidamente purificados e segundo o ritual prescrito pelos mitos.
A indústria de armas e instrumentos de ferro é atribuída aos hititas,
há cerca de três mil anos, portanto, já no último milênio das civilizações
míticas. Com efeito, a obtenção do ferro a partir dos seus óxidos minerais
exige temperaturas muito mais elevadas que as do bronze e, portanto, aper-
feiçoamentos dos fornos a carvão de madeira, adaptando-lhes inclusive
sopradores de ar. A origem pretérita do ferro, como já se disse, estava nos
meteoritos, considerados dádivas do céu. Muito depois, encontrou-se para
eles, também, uma origem telúrica nos minérios. Essa dupla proveniência
exacerba seu caráter de material sagrado, e essa sacralidade é transferida
tanto para os mineradores, que o extraem da terra, como para os forneiros
que os extraem dos minerais. São ambas atividades secretas, mágicas e mí-

34
ticas de origem divina, como muito bem mostrou Mircea Eliade4 basean-
do-se no estudo não só das tradições e lendas dos povos primitivos ainda
existentes, como também em tabletes e papiros encontrados nas ruínas das
civilizações míticas. Daí poder conjeturar-se ser essa uma das origens do
grande corpo sapiencial que se chamou posteriormente de alquimia.
No vale do Nilo, onde os períodos das enchentes eram regulares, a in-
fluência dessa periodicidade certa sobre a civilização egípcia é nítida. As
cheias do Nilo são anunciadas pela ascensão helíaca da estrela Sirius, que
ocorre a cada 365 dias. Daí o calendário egípcio de 12 meses de 30 dias e
mais cinco dias de festas anuais. O que resulta na regularidade da contagem
do tempo e, portanto, na confiança numa coincidência significativa entre
eventos celestes e terrestres – o que é a base da Astrologia. Essa contagem
secular do tempo, simultânea com a regularidade da semeadura e da colheita
agrícola, foi fundamental tanto para a organização mítica egípcia como para
o aprendizado e a utilização das protociências da Matemática e da Astrono-
mia. A primeira, para a organização e o controle do trabalho agrícola, indus-
trial e comercial; a Aritmética, para contabilizar estoques, e a Geometria,
para medir terras e construções. A segunda, para contar o tempo e prever
o futuro no planejamento, em bases adivinhatórias, da vida tanto cotidiana
como da ação dirigente nas grandes obras comunitárias – incluindo, entre
elas, os templos e as pirâmides – que, embora construídas por trabalho escra-
vo, eram planejadas e dirigidas por elites conhecedoras dessas protociências.
A civilização egípcia foi instaurada há cerca de cinco mil anos, pelo
herói civilizador Menés e durou, quase sem nenhuma transformação im-
portante, por cerca de três mil anos. Isto confirma o caráter estático, já
mencionado, das civilizações míticas.
Os egípcios foram os primeiros a construir suas obras com blocos de
pedra, cortados por instrumentos de cobre nas pedreiras distantes, em di-
mensões precisas, pesando até mais de dez toneladas. Esses blocos eram la-
vrados com bolas de diorito duro, para adaptarem-se perfeitamente uns aos
outros. A pirâmide de Quéops, segundo Heródoto5, que a visitou, empregou
cerca de 100 mil escravos, os quais eram obrigados a trabalhar durante um
trimestre e demorou dez anos para ser construída. Os blocos eram trazidos
das pedreiras em barcos e depois arrastados em rampas, por meio de rolos,
sucessivamente recolocados até o local de seu posicionamento nas pirâmi-
des. Havia um trabalho de projeto e direção da construção, baseado em cál-
culos matemáticos, feito pelos sacerdotes e um trabalho de gerenciamento
e controle de obra feito por arquitetos e anotado por escribas.
4 ELIADE, Mircea. Forgerons et Alchimistes. Paris: Champs/Flammarion, 1977.
5 HERÓDOTO. Los Nueve Libros de la História. Buenos Aires: J. Gil, 1947

35
A navegação do Nilo era feita em barcos a remo, com velas quadradas,
com castelo de popa e remos traseiros de direção, pois não havia leme.
Subiam o rio com o vento do Mediterrâneo e desciam com a correnteza
ajudada pelos remos. Havia ainda canoas a remo feitas com ramos de plá-
tanos e papiros das margens do rio e impermeabilizadas com betume. Há
notícias da navegação egípcia pelo Mar Vermelho até Punt, no atual Zam-
beze, e da expedição sob o faraó Nekao, circum-navegando a África entre
609 a.C. e 593 a.C.
A civilização mítica egípcia foi enfraquecida já em 1370 a.C. pela re-
volução monoteísta de Akhenaton, pela invasão hitita em 1286 a.C., e des-
truída pela dominação assíria entre 802 a.C. e 612 a.C. Já no período axial,
caiu sob o poder dos persas que tinham subjugado a Assíria.
A civilização babilônica resultou da reunião da Suméria com o povo
semita da Acádia, como resultado dos conflitos que os envolveram entre
2700 a.C. e 1800 a.C. A Babilônia estabeleceu-se no vale do Tigre-Eufra-
tes, fundada por Hamurabi, no segundo milênio antes de Cristo. Semelhan-
te ao Egito, era uma civilização mítica, cujos monarcas tinham atributos
divinos e contava com uma classe de sacerdotes detentores de poderes
mágicos e conhecimentos protocientíficos.
Abaixo da casta dos sacerdotes, dos escribas e dos arquitetos, esta-
vam os ofícios de forneiros, carpinteiros, artífices de armas e joalheiros
que eram hereditários. Suas técnicas, transmitidas de pais para filhos
em segredo, eram sempre obedientes ao ritual mítico e à propiciação
astrológica.
Os edifícios, palácios e templos da Babilônia, inclusive as ruínas da
famosa Torre de Babel, que teriam sido visitadas por Heródoto, eram de ti-
jolos cerâmicos. Da mesma forma o eram os tão falados jardins suspensos
da Babilônia. A alvenaria de tijolos das torres era reforçada com esteiras
de cana. Os tijolos eram de barro, amassados por escravos, colocados em
moldes de madeira e cozidos, mas havia também tijolos secos ao sol usa-
dos nas casas populares.
Com a invasão dos hititas, cerca do ano 1600 a.C., a civilização ba-
bilônica absorveu nova seiva. A Assíria, que era uma de suas províncias,
dominou toda a região. No final do século XII a.C., Tiglath-Pileser cap-
turou a Babilônia e estabeleceu o império assírio, mas o caráter geral da
civilização babilônica foi conservado até sua destruição pelos reis persas
já no período axial – quando Zarathustra (c. 600 a.C.) já tinha fundado uma
religião em bases espirituais e não míticas.

36
No vale do Indo floresceu, entre 2500 a.C. e 1800 a.C., também uma
civilização mítica, nas cidades de Mohenjo-Daro e Harappa, muito seme-
lhante à da Mesopotâmia. Suas construções eram de alvenaria de tijolos
cozidos, entre as quais há ausência de templos monumentais, mas sobres-
sai a presença de um sistema de canais para esgotos e drenagem pluviais
e de cheias. Tudo indica que a organização social e a distribuição do tra-
balho, desde os sacerdotes e escribas até os escravos – provavelmente de
raça negra – era semelhante à da Babilônia. Estava na Idade do Bronze e
suas joias e objetos de arte de ouro, prata e cobre mostram um nível de
maestria de seus artesãos não inferior aos mesopotâmios. A produção agrí-
cola e industrial era controlada por uma administração mítica. Carros de
rodas maciças e grandes barcaças eram utilizados no transporte terrestre e
fluvial. Provavelmente navegaram também no Oceano Índico, pois as ma-
térias-primas da sua indústria deviam ser importadas, talvez, da Suméria.
Pelo achado nas ruínas, de balanças, pesos, padrões e réguas para me-
dir comprimentos, é possível supor que a civilização do vale do Indo já ti-
nha conhecimentos de Aritmética. Foram encontradas plaquetas gravadas
com centenas de signos diferentes, aparentemente em escrita ainda não
decifrada.
Por volta do final do segundo milênio antes de Cristo, tiveram início
invasões de povos bárbaros arianos que destruíram a civilização do Indo.
Depois disso, os arianos expandiram-se pela planície indo-gangética até
atingir o vale do Ganges. Não deixaram monumentos nem objetos de arte,
mas, contribuíram com a soberba literatura dos Vedas e dos Upanishads.
Por volta do ano 1200 a.C., já tendo dominado os povos locais, introduzi-
ram o sistema de castas. É a época vedanta que se prolonga até o período
axial, quando aparece Gautama Buda.
Uma das mais novas civilizações míticas floresceu nas planícies do rio
Amarelo, no norte da China, entre os anos 1700 a.C. e 1100 a.C. A ela cor-
responde a chamada Dinastia Shang da história da China. Como as outras,
ela sucedeu uma série de comunidades neolíticas espalhadas pela planície
ao sul da atual Pequim até o rio Huai.
Essas comunidades unificaram-se criando uma civilização semelhante
às do Egito e da Babilônia, contudo diferem dessas por não terem sido
completamente destruídas, como o foram aquelas últimas. Muitas de suas
características persistem ainda nas civilizações chinesa e japonesa.
As cidades Shang eram governadas por uma elite, mais de guerreiros
que de sacerdotes, porém não faltavam os escribas e os adivinhos, que

37
se ocupavam da gerência e do controle, tanto da administração como da
produção artesanal. Dispunham, esses, de protociência com uma Aritmé-
tica próxima de uma Numerologia e de uma Astronomia próxima de uma
Astrologia. Dispunham de um calendário, muito utilizado para prever as
estações de semeaduras e colheitas agrícolas, baseado num ano de 360 dias
com 12 meses de 30 dias, porém, intercala-se um mês adicional periodica-
mente para ajustar o ano sideral. Havia uma classe de artesãos que tinha,
como missão, o exercício das manufaturas. Finalmente, nas cidades havia
a multidão de servos e, nos campos em torno, os camponeses que viviam
em situações neolíticas.
Conhece-se sua escritura, pois foi achada, em forma de escapulários,
gravada em pedaços de ossos e carapaças de tartarugas. São caracteres chi-
neses arcaicos e constituem-se como perguntas a serem respondidas pela
interpretação de rachaduras que apareciam nos ossos quando submetidos
ao calor. Nesses escritos, encontram-se centenas de símbolos numéricos
diferentes – o que fez supor a existência de uma Protoaritmética.
Sua indústria mais peculiar era a da produção, fiação e tecelagem da
seda. Em seguida, vinha a metalurgia do bronze para armas, móveis, ob-
jetos domésticos e instrumentos de música. Havia também objetos de arte
talhados em mármore, jade ou marfim. Evidentemente, toda essa indústria
era suportada pela agricultura, principalmente do arroz, na fértil planície.
A construção de edifícios e templos shangs não deixou testemunhas,
talvez pela fragilidade dos materiais utilizados: madeira e tecidos. Perdu-
ram, entretanto, os monumentais túmulos reais enterrados no solo, facil-
mente escavável em cortes profundos e estáveis. No fundo da escavação
enterrava-se o túmulo, em forma de câmara de madeira, que guardava o
cadáver real, juntamente com uma quantidade enorme de oferendas – in-
clusive cachorros e guardas assassinados – para defendê-lo dos espíritos
malignos. Depois, tudo era reenterrado com solo apiloado, deixando-se
entradas nos pontos cardeais. Cada funeral era acompanhado como, aliás,
em todas as civilizações míticas, de execuções em massa de escravos, pri-
sioneiros e mulheres que tinham ligação com o morto.
Por volta de 1000 a.C., o último monarca – sacerdote supremo Shang
– foi derrotado por um personagem de características míticas, Wu-Wang,
o qual fundou uma nova dinastia: a dinastia Chow, mas o império foi per-
dendo sua força até que, algum tempo depois, foi invadido pelos bárbaros
hunos. A civilização mítica chinesa dividiu-se então em milhares de pe-
quenas comunidades dominadas por alguns poucos senhores de guerra. A
partir daí, a desordem estabeleceu-se.

38
Contam-se ainda como civilizações tipicamente míticas, as do mar
Egeu, correspondentes aos povos minóicos da ilha de Creta, e aos aqueus
de Micenas, no continente. Diz-se que tais civilizações pré-gregas são ti-
picamente míticas porque delas justamente trata a mitologia grega, a mais
conhecida e mais comentada filosoficamente. O surgimento das primeiras
cidades cretenses – a partir de agricultores e criadores neolíticos – dá-se
por volta de 2400 a.C. Os reis-sacerdotes cretenses, conotados pelo mítico
rei-touro Minos, construíram palácios suntuosos dos quais o mais conhe-
cido é o de Cnossos, com seu labirinto tão conhecido no mito grego de
Ariadne e Teseu. A arte e as técnicas são de alto e notório nível. Sua econo-
mia baseava-se no quase absoluto monopólio da navegação no mar Egeu e
no comércio do azeite e da cerâmica. Tinham duas escrituras: a linear A – a
qual não foi ainda decifrada – e a linear B que é um grego arcaico.
Sua destruição foi brusca e misteriosa há cerca de 3.400 anos, quando
seus palácios foram inexplicavelmente arrasados. Daí as hipóteses de um
ataque devastador por parte dos micênicos ou, o que é mais provável, um
terrível terremoto.
Há cerca de 3.600 anos, os aqueus edificaram uma poderosa cidade-
fortaleza, em Micenas. Eles eram descendentes de povos indo-europeus
brancos que invadiram a Grécia, vindos do sudeste europeu. Entre 1400
a.C. e 1200 a.C., os micênicos dominaram quase toda a Grécia e tentaram
expandir-se até as costas da Ásia Menor – daí a Guerra de Tróia. Mas, por
volta do ano 1000 a.C., começaram a decair e foram destruídos pelos in-
vasores dóricos. Durante cerca de 200 anos, a Grécia sofreu uma Idade de
Trevas da qual se sabe muito pouco, porém, são dessa época as duas epo-
peias: a ilíada e a odisseia, que eram declamadas oralmente. Estabelece-
-se então o período axial, com a civilização grega clássica.
A transição da época mítica para a clássica grega não foi por ruptura
total e recomeço a partir do nada. Embora o aparecimento das noções de
physis e de kosmos, através dos filósofos – aqueles que se dedicavam in-
teiramente ao conhecimento – tenha sido uma novidade absoluta, essas
noções radicam-se na mitologia pré-helênica, como bem mostrou Eudoro
de Souza6. Na opinião deste, a Teogonia de Hesíodo tem como argumen-
to: “como vive o mundo a morte dos deuses, sem que os deuses deixem de
viver no mundo”.
Com efeito, a epistéme theoretike demonstrara pela razão que, com as
ideias de physis e de kosmos, não se poderia mais admitir a existência dos
deuses mitológicos. No entanto os mitos gregos passaram a ser aquilo que
6 SOUZA, Eudoro de. Dionísio em Creta. São Paulo: Ed. Duas Cidades, 1973.

39
dava sentido à maneira de ser grega. Foi como se a filosofia “apenas alte-
rasse o modo de existência dos deuses”.
Na realidade, os filósofos pré-socráticos descreveram uma natureza
que, além de não admitir a presença dos deuses antigos, supunha a existên-
cia de um princípio único, não contraditório e verdadeiro, que a tornasse
inteligível. Ora, esse princípio é muito próximo da noção clássica grega
de divindade (tó theon), portanto, não se pode admitir a opinião de que os
primeiros filósofos tenham sido materialistas. Pelo contrário, eles foram os
primeiros religiosos no sentido atual do termo.
O que aconteceu na Grécia, entre os anos 800 a.C. e 400 a.C., foi um
processo de transformação da mitologia em teoria, através de um raciocí-
nio lógico, porém apoiado em crenças anteriores. Pois foi essa nova ma-
neira de pensar, chamada “teoria”, que possibilitou o processo da matema-
tização da natureza que se pretende analisar a seguir.

d) As Matemáticas nas civilizações míticas


A origem das Matemáticas e da Astrologia perde-se na noite dos tem-
pos. Aparece já nos povos mais primitivos, na contagem das coisas pelos
dedos das mãos e pés e na marcação do tempo pela sucessão de dias e
noites, pela posição de agrupamentos de estrelas no céu e pela ascensão e
declínio de estrelas no horizonte, relacionados com fenômenos naturais,
como as estações do ano e as épocas de plantar e colher. Nas civilizações
míticas, elas atingem importância e desenvolvimento considerável, como
artes de contagem e de medidas.
A Matemática e a Astronomia egípcia e babilônica tinham um caráter
adivinhatório, não só na contagem do tempo como na determinação de
destinos humanos e programação governamental a partir das cenas do céu
em momentos oportunos, justamente como evolução daquelas crenças
antiguíssimas. Mas eram também utilizadas pelos escribas que contro-
lavam a produção agrícola, a construção de pirâmides e zigurats dimen-
sionados numericamente e executados de acordo com as configurações
astrológicas.
Assim, a Matemática e a Astrologia eram como que um instrumento
de caráter mítico dessas civilizações. Não tinham nem o caráter contem-
plativo das ciências gregas, nem o meramente operativo das modernas.
Nesse sentido, podem ser consideradas como técnicas, porém, vieram a
prenunciar as bases do processo histórico que se está propondo chamar
de matematização da natureza, pois a contagem do tempo, previsão de

40
acontecimentos, dimensionamento de construções e inventário de bens, já
traziam uma dimensão numérica à natureza.
Sabe-se que, no Egito, em 3000 a.C., já existiam símbolos numéricos.
Na Mesopotâmia, na mesma época, os números já eram agrupados num
sistema sexagesimal. Encontram-se ainda tabelas de divisão e multiplica-
ção gravadas em tabletes de barro mesopotâmicos ou escritas em papiros
egípcios de pouco depois dessa época. Há evidências de que os números
no Egito e na Mesopotâmia já eram utilizados operativamente nessa época,
provavelmente através de receitas muito próximas de fórmulas mágicas,
em cálculos para fins de inventários, medições de terra, arquitetura e pre-
visões astrológicas.
Heródoto conta que a Geometria teria tido origem no Egito, com o
propósito de medir as terras, em sua recuperação após as cheias do Nilo.
Conta que isso era feito por servidores que esticavam cordas para medi-
-las. Os cálculos das áreas eram, então, feitos segundo receitas. Assim, a
Geometria egípcia seria, na realidade, uma Aritmética aplicada7.
O mais famoso documento matemático egípcio é o papiro de rhind,
cuja cópia conhecida foi escrita durante o domínio dos hicsos (c. 1700 a.C.).
Inicia prometendo “um estudo completo e integral de todas as coisas, uma
visão intensa de tudo que existe, o conhecimento de todos os segredos...” ,
mas não mostra senão receitas de como efetuar as quatro operações aritmé-
ticas com números inteiros e frações e como aplicá-las ao cálculo de vários
problemas práticos. Provavelmente era um livro destinado ao aprendizado
dos escribas – a quem cabia a solução de tais problemas.
Um exemplo dessas receitas é o seguinte: “uma quantidade e a sua
quarta parte, juntas dão 15”. A solução é: “calcule a partir de 4 e tome uma
sua quarta parte, isto é: l, juntas, elas formam 5. Então divida 15 por 5, que
são 3. Finalmente multiplique 4 por 3, o que dá 12”. A quantidade cujo
cálculo é proposto será, portanto, 12, cuja quarta parte é 3 e que somadas
dão 15, porém sua justificação não é dada no papiro.
São, portanto, receitas de como realizar uma operação sem a preocu-
pação de explicar por quê. Embora se possa encontrar no texto, de vez em
quando, algo que se possam admitir como proveniente de conhecimen-
tos básicos, fazendo suspeitar de uma teoria prévia já perdida, isso não
é provável. Toda Matemática egípcia, como também a babilônica, pode
perfeitamente ser entendida como conhecimentos técnicos adquiridos por
habilidades, intuições e acasos, adquiridos, transmitidos e aperfeiçoados
7 WAERDEN, B. L. van der. Science Awakening – Egyptian, Babylonian and Greek
Mathematics. Nova York: J. Wiley & Sons, 1967.

41
de geração em geração, por longos períodos de tempo. Seriam essas ma-
temáticas resultado de experiência, entendendo-se a palavra “experiência”
em seu mais largo sentido. Assim, tratar-se-ia de uma arte ou técnica do
cálculo e das aplicações dessa aos problemas práticos, e não de teoria ma-
temática.
Entre os anos 1600 a.C. e 1000 a.C., aparece, no Egito, a aplicação dos
cálculos numéricos a uma Protoastronomia, a partir do problema de pre-
ver o momento da ascensão hélica da estrela Sirius – a qual, desde muito
tempo, sabia-se anunciar as cheias do Nilo. Nessa correlação entre um fato
celeste e um terrestre, provavelmente, está a origem da Astrologia. Porém,
é de se salientar que a astrologia egípcia não atingiu o desenvolvimento
que ocorreu na babilônica.
Na Babilônia, o sistema sexagesimal utilizado foi herdado dos anteces-
sores sumérios da mesma forma que a escrita cuneiforme. Os números até
60 eram gravados, com estilete, em tabletes de barro, como símbolos de-
cimais, de maneira semelhante aos símbolos decimais atuais. Os múltiplos
de 60 eram indicados pelos mesmos símbolos dos números até 60, porém,
colocados em posição frontal. Esse sistema foi o responsável pelo avanço
da Aritmética babilônica.
Tabletes de escrita cuneiforme contendo tabelas de cálculo existiam
desde os tempos sumérios, porém, só na primeira dinastia babilônica, por
volta do ano 1700 a.C., com Hamurabi, é que florescem a Aritmética e a
Geometria babilônicas. É nessa época, também, que se iniciam as obser-
vações da posição de planetas para fins astrológicos. Os primeiros cálculos
e observações da ascensão hélica das estrelas são do ano 1500 a.C., po-
rém, as observações astronômicas só se estabelecem definitivamente com
Nabucodonosor, em 750 a.C. Porém, a Astrologia baseada no cálculo da
posição dos planetas, em relação ao Zodíaco, só se torna precisa na época
de fundação do Império Persa, por Ciro. Daí, então, é que, paulatinamen-
te, a Astrologia com suas tabelas lunares e planetárias se desenvolve. Isto
requer um aprimorado conhecimento das Matemáticas, contudo, essa Ma-
temática babilônica, da mesma forma que a egípcia, mantém o caráter de
arte de calcular, expressa em receitas de como resolver os problemas, sem
a preocupação de comprovar como fazê-lo.
No caso da China, não há datação precisa dos manuscritos matemáti-
cos, mas é provável que já nessa época houvesse um sistema de contagem
para inventário de bens, mensuração de terras, taxação e, também, mar-
cação do tempo pela posição de estrelas no céu.Embora exista um antigo
manuscrito chinês – o chon pei suan ching – ao qual se atribua a idade

42
do ano 1000 a.C., o que se conhece de positivo sobre a antiga Matemática
chinesa data, provavelmente, do ano 300 a.C., a mesma época em que os
gregos desenvolviam sua Geometria, em bases teóricas. Entretanto, não
há, na Matemática chinesa, qualquer tentativa de teorização, embora cer-
tos autores encontrem pontos de semelhança com a Matemática grega. O
mais conhecido livro dessa época é o chiu chang suan shu, nove capítu-
los sobre a arte Matemática, no qual são resolvidos centenas de problemas
de contagem e mensuração sem qualquer interesse sobre a comprovação
teórica ou ordenação lógica.
Havia dois sistemas numéricos, ambos decimais. O primeiro era em
ideogramas simbolizando os nove dígitos e também as dezenas, centenas
e milhares. Esses ideogramas eram usados nos textos escritos e, assim, a
matemática foi incorporada à sapiência chinesa. Porém, para a contagem
prática, utilizavam-se barras e travessões, simbolizando os dígitos e os
múltiplos de dez. Esses símbolos eram representados objetivamente por
barras de bambu colocadas sobre tábuas e dispostas de tal maneira a per-
mitir os cálculos. Tais aparelhos de contagem são ainda hoje utilizados na
China e no Japão, onde têm o conhecido nome de soroban.
Com o advento das sabedorias taoístas e confucionistas nos séculos VI
a.C. e V a.C., as Matemáticas chinesas adquiriram um certo aprimoramen-
to sapiencial, porém não chegaram a atingir um caráter teórico.
Sabia-se, então, calcular frações, assimilando numerador e denomi-
nador aos símbolos dos opostos yin e yang. Conheciam-se regras para
operações de raízes quadradas e cúbicas. Tinha-se conhecimento de pro-
priedades dos triângulos, tais como as do teorema de Pitágoras, obtidas
por diagramas gráficos. Interessava-se vivamente pelo cálculo da relação
entre o perímetro da circunferência e seu diâmetro (o nosso número pi –π),
chegando-se a estabelecer a relação 355/113. Contudo, o interesse dos chi-
neses restringia-se ao cálculo, sem preocupação alguma com a compara-
ção teórica.
Nada se sabe sobre as Matemáticas da civilização do vale do Indo, em-
bora inscrições ainda não decifradas e aparelhos de medidas encontrados
nas minas de Mohenjo-Daro e Harappa indiquem a existência de sistemas
numéricos para contagem, medidas e inventários, semelhantes aos da Me-
sopotâmia.
Com a invasão dos arianos, estabelecimento dos tempos védicos e ex-
pansão pelo vale do Ganges, começam a aparecer, nos textos védicos, as
atividades matemáticas na antiga civilização hindu, cujo aspecto de arte de

43
contagem e mensuração é semelhante a das civilizações míticas. Entretan-
to, os mais antigos textos matemáticos estão nos sulvasutras (regras ri-
tualísticas das cordas). As cordas (sulva) são empregadas, como no Egito,
como medidas na construção de altares e traçados de templos, rememoran-
do a origem da Geometria egípcia. Os sulvasutras são, provavelmente, da
metade do primeiro milênio antes de Cristo, portanto, contemporâneos da
Geometria grega. Porém, neles não há preocupação teórica. São somente
regras ritualísticas, pois a solução de problemas matemáticos era um ritual
nas civilizações míticas.
A partir de meados do primeiro milênio antes de Cristo não se pode
mais falar de uma cultura mítica na Índia. Ela toma uma forma nitida-
mente sapiencial. Talvez os últimos livros matemáticos cuja autoria seja
atribuída a um Deus: Surya – o deus do Sol – sejam os siddhantas, sis-
tema de Astronomia datado do segundo século da nossa era. Neles já se
percebe a influência alexandrina da Astronomia de Ptolomeu, embora seja
constituído por simples regras em versos, sem explicação ou provas da ve-
racidade das conclusões. Daí em diante, a Matemática hindu começa a ter
autores individualizados, relacionados com os conhecimentos helenísticos
de Astronomia e Trigonometria. Desenvolve-se espetacularmente, porém
guarda sua característica de preocupar-se mais com o cálculo que com
as demonstrações e provas. Com a expansão árabe, a Matemática hindu
progride sob sua influência. Porém, é de se lembrar que contribuiu para a
Matemática universal com o sistema numérico posicional de base dez, isto
é, o nosso sistema de nove dígitos e mais o zero, adquirindo cada dígito um
valor de múltiplo de dez pela sua posição à esquerda.
É de se lembrar, por fim, que as culturas míticas chegaram até muito
próximo dos nossos dias na América. Incrivelmente, os “testemunhos” de
civilizações desse tipo chegaram até bem próximo do nosso tempo. No
caso das civilizações ameríndias do México e do Peru, essas só foram des-
truídas no século XVI pelo simples contato com as possibilidades da ação
individual reflexiva dos conquistadores espanhóis. Pela sua proximidade,
embora tenham sido destruídas, muitos dos traços próprios das civiliza-
ções míticas podem ser estudados historicamente. Por exemplo, o controle
econômico e social pela contagem numérica. Para isso, os maias tinham
desenvolvido um elaborado sistema numérico posicional de base 20. Os
incas utilizavam os quipus – cordas às quais eram amarrados cordões se-
cundários e, a esses, outros cordões terciários. Nesses cordões havia nós
representando unidades, dezenas e centenas. As cordas tinham diferentes
cores para designar diferentes atividades: contagem de estoques, tributos,
terras, produtividade econômica, cerimônias, guerra e paz. Esses quipus

44
eram guardados em arquivos, não só de contabilidade, mas também de
relatos históricos, não só pela casta dominante em Cusco, como também
por caciques de aldeias e chefes de famílias importantes. Um estudo apro-
fundado desses quipus pode lançar luz sobre a função da contabilidade
numérica nas civilizações míticas.
Em suma, nas civilizações míticas anteriores ou ignorantes da inven-
ção, pelos gregos, da maneira de pensar que se chamou teoria, as Mate-
máticas eram artes ou técnicas de contar ou medir tidas como revelações
de deuses ou heróis míticos. Não tinham o caráter teórico de uma visão,
pelos olhos do espírito, de uma realidade única e não contraditória além
das aparências enganosas dos fenômenos, portanto, não se pode, através
delas, conceber, ainda, um processo de matematização da natureza. Porém,
principalmente as Matemáticas egípcia e babilônica serviram de base à
Geometria teórica grega, pela qual esse processo se iniciou.

45
46
II - OS PRIMÓRDIOS

a) Origem da teoria
Surgiu, pela primeira vez na História, aos gregos no século VI a.C., a
ideia de que, por detrás da mutabilidade das coisas visíveis, havia algo de
perene, imutável e, portanto, inteligível. Portanto, a ideia da possibilidade
de compreender intelectualmente o mundo, é de origem grega. Por sua
vez, essa ideia baseia-se primordialmente, segundo Eudoro de Souza8, em
uma crença antiquíssima que, através das origens linguísticas, está na base
de toda civilização indo-europeia: é a crença de que a verdade, o saber e
a luz estão indelevelmente ligados. Basta lembrarmo-nos do significado
último do verbo “esclarecer” para que isso se torne “claro” isto é, deixe de
ser obscuro ou encoberto para tornar-se conhecido. A palavra grega eidos
(figura ou aspecto) e o verbo eidonai (ter visto) mostram a origem da pala-
vra “ideia”. Por outro lado, “teoria” do verbo grego theoren (contemplar),
confirma essa ligação. Lembremo-nos, ainda, que a palavra grega para ver-
dade é aletheia, isto é: não oculto, não escondido. Assim, “verdade” para
o grego é um “tornar visível de algo, um trazer para a luz, um descobrir”.
Ali está a origem do que se chama, hoje, teoria.
Por outro lado, também era uma crença grega que haveria, acima da
vontade dos homens e dos deuses, uma determinação nos acontecimentos
que os tornava totalmente fora dos desígnios de ambos. Era esse destino
implacável a moira. Daí a atitude grega de pura contemplação diante da
natureza e da história. Era como se fosse proibido aos homens atuar sobre
o mundo. Decorre disso, o caráter contemplativo da teoria grega em con-
traste com o que nós hoje chamamos de teoria – a qual é eminentemente,
não só um meio de conhecer, mas também um meio de atuar e transformar
o mundo.
Portanto, teoria era, embora não o seja mais, somente uma operação do
espírito pela qual algo real e permanente se torna visível. Algo é trazido
de detrás do véu de obscuridade em que estava para tornar-se patente e
verdadeiro. Agora, teoria tem uma nítida conotação com atuação sobre a
realidade.
Quando Tales de Mileto, no século VI a.C., tendo conhecido, em suas
viagens, as regras e receitas da agrimensura egípcia, visualizou por meio
8 SOUZA, Eudoro. Filosofia e Filologia: aula inaugural de cursos da Faculdade de
Filosofia, Ciências e Letras de São Bento. São Paulo, mar. 1954.

47
delas a “teoria” dos triângulos semelhantes, descobriu a “ordem” a que
eles obedeciam e, pela primeira vez, fez teoria. Tornou assim possível aos
sábios “ver” a realidade ordenada da proporcionalidade existente entre
os lados de todo e qualquer triângulo semelhante, independentemente da
maior ou menor perfeição com que fossem traçados.
Com Tales, inicia-se a série dos que primeiro fizeram teoria: os filóso-
fos pré-socráticos9. Tales, Anaximandro, Anaxímenes e Heráclito de Mi-
leto10 floresceram entre os anos 600 a.C. e 500 a.C. Procurando algo de
inteligível, oculto na constante mutabilidade da geração, na corrupção e
na morte das coisas, conceberam, esses filósofos, a natureza como geração
constante a partir de um primeiro e único princípio e origem, a que chama-
ram de arché – local para onde tudo retornava e tinha de novo a origem. A
natureza, assim entendida, é a Physis, e sua teoria, como a chama até hoje,
é a Física. Por isso Tales e seus conterrâneos da Jônia foram chamados
physiologoi. Para Tales, tudo se tornaria compreensível através da teoria
de que todas as coisas eram geradas pela água, mas para Anaximandro, a
arché não poderia ser uma coisa, mas algo de ilimitado e indiferenciado
– o apeíron. O único fragmento que existe de sua obra diz: “Naquilo em
que as coisas existentes têm sua origem – (o apeíron) – nisso mesmo elas
voltam para a destruição, segundo a necessidade, pois se fazem justiça e se
dão reparação umas às outras, na ordem do tempo”. Portanto, para ele não
há diferença entre a ordem humana da justiça e das reparações e a ordem
natural das causas e efeitos.
Anaxímenes e Heráclito punham, como primeiro princípio, respecti-
vamente, ar e fogo, porque, aparentemente, os milésios, que propunham
a origem das coisas como algo físico, foram tidos, por um erro histórico,
como materialistas. Erro grosseiro, pois que se lhes imputou doutrina ainda
não possível em seu tempo. Pelo contrário, Werner Jaeger11 mostrou terem
sido esses filósofos os que primeiro fizeram teologia, isto é, uma aproxi-
mação, através do pensamento racional (logos) da ideia de Deus, pois que,
ao fazerem teoria, transliteravam as figuras da mitologia personalizadas
nas forças físicas da natureza, em princípio único e eterno. Por exemplo,
no relato de Hesíodo, primeiro teve origem Caos e, então, Oceanus se uniu
a Tétis originando o Cosmos. Está-se em plena linguagem mítica, na qual a
realidade é explicada de uma forma concreta em que a fecundação da mu-
9 FREEMAN, Kathleen. Ancilla to the Presocratic Philosophers. Oxford: Basil Black-
well, 1952. (A complete translation of the Fragments in Diels. Fragmente der Vor-
sokratiker).
10 Mileto era uma cidade jônica localizada na atual costa turca do mar Egeu.
11 JAEGER, Werner. La Teología de los Primeros Filósofos Griegos. México: Fondo de
Cultura Económica, 1952.

48
lher pelo homem é a única forma de geração. Com a Physica dos milésios
a realidade é explicada agora de uma forma abstrata recorrendo-se a um
primeiro princípio, a arché. Aparece, portanto, em contraposição à ideia
dos violentos e prevaricadores deuses antigos, a de algo único, perene,
ilimitado, de origem e fim de todas as coisas, uma via de compreensão da
ideia atual de Deus. É, entretanto, necessário notar que a ideia de geração
(muito próxima de fecundação) permanece.
No final do século V a.C. as colônias jônicas da Ásia Menor revolta-
ram-se contra o domínio que sobre elas pretendiam os persas. Disso resul-
taram as invasões persas à Grécia, sob Dario e Xerxes. Daí a imigração
para as colônias jônicas do sul da Itália. Entre os imigrantes havia três
filósofos: Parmênides, Pitágoras e Empédocles, os quais floresceram entre
530 a.C. e 450 a.C., e que continuam na busca por uma teoria para a natu-
reza. Procuravam uma Physica pela qual se pudesse compreender a gêne-
se, a transformação e a corrupção das coisas do mundo, segundo o logos.
Entretanto, perceberam que seria necessário recorrer a algo de diferente
da natureza para compreendê-la. Haveria dois caminhos. O primeiro era o
de mera opinião (doxa) sobre as aparências cambiantes e enganadoras das
coisas do mundo. Esse seria um caminho falso. O outro seria o da desco-
berta daquilo que era perene sob as aparências do mundo – o caminho da
verdade (aletheia) que só poderia ser trilhado pelo pensamento racional
(logos). Parmênides conta, em seu poema, como lhe foi revelada a verdade
de tudo que tem ser. Em primeiro lugar, essa verdade só pode ser atingida
pelo pensamento e nunca pelos sentidos – pois que, “pensar e ser são a
mesma coisa”. Em segundo lugar, o Ser – “aquilo que confere ser a tudo
que é” – será necessariamente único e idêntico a si mesmo. Assim pensan-
do, criou a metafísica, teoria daquilo que é radicalmente real. Mas, note-se
que, nesse momento, apareceu também a Lógica, pois que o Ser parme-
nídico é definido pelos princípios da identidade, de não contradição e do
terceiro excluído – os quais se constituíram como os princípios a partir
dos quais foi organizada a teoria que até hoje se chama de Lógica. É fácil
compreender que esse Ser-único, idêntico a si mesmo e eterno – está em
consonância com o Deus único, vislumbrado na poesia de um Xenófanes,
sob a inspiração dos physiologoi de Mileto.
É nesse momento que, no âmbito do pensamento teórico, como se verá
adiante, aparece pela primeira vez, com Pitágoras, a tendência de matema-
tizar a natureza. Ainda não no sentido de torná-la calculável e analisável
matematicamente, mas no de insistir que a própria natureza é número. O
que é real – isto é: aquilo que é abarcável pela mente como inteligível – é
essencialmente harmonia de proporções geométricas e aritméticas. Não é

49
difícil compreender a importância desse tipo de pensamento para a orga-
nização de uma ciência da natureza matematizada. De fato, foi o reapare-
cimento do pitagorismo, no pensamento de um Kepler e de um Galileu,
que deu origem à ciência moderna, baseada na matematização da natureza.
Pitágoras formou uma comunidade de iniciados que se ligavam entre
si por uma norma de vida correta a austera na preservação dos segredos
da Matemática, os quais eram os próprios segredos da natureza, que só a
eles tinham sido revelados. Disso nasceu uma verdadeira seita: a dos pita-
góricos – cujo caráter religioso era muito próximo do orfismo. Zalmoxis,
escravo de Pitágoras, era original da Trácia – a terra de Orfeu –, era um
daqueles homens sagrados das regiões asiáticas – hoje chamados “xamãs”
–, capazes de, em transe ou durante o sono, desprender suas almas dos
corpos e viajar por regiões estranhas, onde entravam em contato com os
segredos da existência. O próprio Pitágoras, provavelmente, tornou-se um
xamã, adaptando as crenças trácias à sua filosofia dos entes matemáticos.
A religião popular da Grécia de então, o orfismo dos seguidores do deus
trácio Dionísio, baseava-se na crença de uma alma imortal aprisionada ao
corpo e que dele se libertava, ou para gozar da eterna contemplação da
perfeição perene, ou para, de novo, aprisionar-se em outro corpo até que
tivesse cumprido uma vida justa e correta. Adiante, se procurará mostrar
como o orfismo influenciou a descoberta da maneira teórica de pensar na
Grécia clássica.

b) Três teorias gregas


Os dois pontos culminantes da teoria grega, como Metafísicas, só fo-
ram atingidas no século IV a.C. Estão eles, sucessivamente: na revelação
do mundo das ideias como realidade última, e na visualização da natureza
como Physis, sob a ordem de um movimento logicamente organizado. A
teorização desses dois tópicos foi consubstanciada nos diálogos, de Pla-
tão, e na física, de Aristóteles. Como reação tanto ao platonismo quanto
ao aristotelismo, consubstanciou-se, no século III a.C., uma terceira teoria
grega sobre a natureza: o atomismo. Foi essa última que dominou a con-
cepção de realidade da ciência moderna.
Platão (428 a.C. - 348 a.C.) nasceu durante a guerra do Peloponeso
e viveu sob o regime dos Tiranos de Atenas. Era um daqueles espíritos
que, sem serem matemáticos, pensam matematicamente. Porém é fora de
dúvida que conhecesse perfeitamente as Matemáticas do seu tempo. Por
outro lado, tinha em sua mocidade sofrida a influência de Crátilo, sofista
que afirmava que: como todas as coisas estavam em perpétua mudança,

50
nenhum enunciado sobre nada poderia ser verdade e nem havia mesmo
sentido em enunciá-lo. Seria preferível calar e nada dizer. Entretanto, os
geômetras traçavam círculos ou triângulos na areia e sobre eles discutiam.
As verdades a que chegavam não diziam respeito à imperfeição daqueles
traços, mas, sim, a uma realidade imperecível que ali tomava forma. A ma-
téria mostrava-se, nesse sentido, informe, porém “participava” (methexis)
das formas. Sofrera, ainda, Platão, a influência de Pitágoras, para quem,
pelos números é que estaria construída toda a realidade, em harmoniosas
proporções matemáticas.
Seguindo a influência pitagórica, Platão não poderia deixar de se ter
inspirado na perfeição e harmonia das figuras geométricas para elaborar
sua teoria das ideias. Eram as ideias, por assim dizer, formas generaliza-
das: formas que tanto poderiam ser das coisas como das virtudes humanas.
Eram perenes e perfeitas como as propriedades das figuras geométricas e,
portanto, eminentemente inteligíveis. Por outro lado, os fenômenos apare-
ciam sempre encobertos em confusão – nunca eram integralmente, eram
sempre parcialmente, como uma pessoa cuja natureza é a de estar dor-
mindo ou desperta, e se nos apresenta sempre parcialmente, ora de uma
maneira, ora de outra. Enquanto as propriedades das figuras geométricas
são sempre em bloco, as aparências não são senão sonhos da realidade
fundamental que são as ideias.
Compreenda-se, entretanto, que as ideias, para Platão, tinham uma
existência real. Elas existiam realmente no mundo das ideias: nos topos
uranos, para onde as almas humanas iriam após a morte, segundo sua re-
ligião órfica, quando suficientemente purificadas pela sabedoria. Seriam
elas capazes, então, de suportar a luz da verdade. Platão, em seu diálogo
phedon, que trata da imortalidade da alma, mostra-se um adepto da reli-
gião de Dionísio e dos mistérios órficos. Como Pitágoras, era um órfico
que acreditava na alma como algo totalmente separado e independente do
corpo. Ela liberta-se do corpo (soma, isto é, “prisão” da alma) ao morrer.
No mundo das ideias a alma, encontrando-se frente a frente com a reali-
dade última, conhece a verdade. Ao reencarnar-se a alma numa criança, o
processo do conhecimento faz-se pela lembrança das ideias e reconheci-
mento despertados na mente das crianças pela aparência das coisas que se
lhes vão apresentando durante a vida. Conhecer é rememorar as ideias das
quais as aparências participam.
Portanto, para Platão, as coisas do mundo visível acham-se modeladas
segundo formas preexistentes e aproximam-se dessas por participação,
o mais possível. Há uma Alma do Mundo que se mistura à sua totalidade

51
e mediante a qual o mundo “participa”, por seu pensamento, das formas
eternas e imutáveis dos topos uranos. Entretanto, há aspectos “indignos”
neste mundo das aparências, mostrando não ser ele uma cópia exata do
inteligível e eterno.
É errado afirmar que a teoria platônica não seja propícia ao conheci-
mento da natureza: pois que, por ela, o inteligível estaria fora do mundo.
Pelo contrário, era urgente à filosofia grega, desde os seus primórdios jôni-
cos e também ao platonismo, a compreensão da physis. Daí Platão, como
todos os filósofos anteriores, terem escrito uma Física, pois o seu timeu
tem como subtítulo exatamente peri physei12. Esse diálogo seria, portanto,
aquele em que se apresenta uma teoria da natureza – uma Física – a partir
da Metafísica do Realismo das Ideias.
A importância do timeu no desenvolvimento da ciência não pode ser
subestimada não só por ter sido o único livro de Platão conhecido na baixa
Idade Média, constituindo a fonte principal do platonismo da época, como
também, por mostrar a origem de uma doutrina que domina larga parte do
pensamento científico moderno. Isto é, a de que a natureza é constituída
segundo um modelo preestabelecido, isto é, uma forma predominantemen-
te matemática. Além disso, o timeu foi a fonte de toda Cosmologia me-
dieval e talvez o único livro que, no ocidente, durante 500 anos depois da
queda de Roma, tratava da natureza.
O timeu inicia com uma referência a um diálogo anterior que bem
pode ser a república de Platão. Segue-se a narrativa do desastre da Atlân-
tida. Esse tema leva, daí por diante, o personagem Timeu, falando quase
em monólogo, a tratar da Physis. Evidentemente, no pensar platônico, o
mundo sensível deve ter sido criado com um modelo ideal. Tal modelo
é o que sempre foi: porém o mundo sensível “vem sendo”, nascendo e
corrompendo-se incessantemente. Há um deus criador – o Demiurgo –
que construiu o mundo temporal e cambiante de acordo com um modelo
eterno e imutável pressuposto a ele. A natureza é um organismo com mo-
vimento espontâneo, portanto dotado de alma (psyché) e portanto vivo,
pois que psyché, em grego, significa ao mesmo tempo movimento e vida.
O modelo do mundo é único, real, inteligível e formal, portanto, não está
no espaço nem no tempo. O espaço seria como que o lugar da própria
matéria com que é feita a natureza e o tempo constitui a imagem móvel
da eternidade.
12 PLATÃO. Timée. Critias. Paris: Societé d’Édition Les Belles Lettres, 1970. (Edi-
ção bilíngue francês/grego). Timeo. Tradução de Francisco de P. Samaranch. Buenos
Aires: Biblioteca de Iniciacion Filosofica no 84, 1963.

52
O Demiurgo criou inicialmente a Alma do Mundo, feita de uma mistura
de formas puras imperecíveis com o que é perecível, segundo proporções
harmônicas. Depois, construiu o cosmo que, por razões de perfeição, é es-
férico e finito, tendo no centro a Terra e, em torno dela, girando em órbitas
esféricas, a Lua, o Sol e os planetas. A Alma do Mundo é inerente a todo o
cosmo inclusive identificando-se com as esferas celestes. O mundo sublunar
é constituído pelos quatro elementos: terra, no centro; fogo, no céu; e, entre
eles, água e ar. As formas dos elementos são figuras geométricas limitadas
por faces triangulares ou resolvíveis em triângulos. O tetraedro é a figura
elementar do fogo; o octaedro, do ar; o icosaedro, da água; e o cubo, da terra.
Acreditava, Platão, que essas figuras eram redutíveis umas às outras e que
isso corresponderia à geração e à corrupção de todas as coisas existentes no
mundo, sempre umas transformando-se em outras. Assim, a atitude platônica
em relação à physis era a de considerá-la como “construída” por um deus
demiurgo (operário) segundo um modelo preestabelecido de natureza mate-
mática que, de alguma forma, se impunha ao próprio Demiurgo.
As aparências sensíveis da matéria seriam puras ilusões dos sentidos.
O que era real seriam as formas geométricas correspondentes aos quatro
elementos e suas combinações. É curioso notar como tal ideia platônica
de realidade aproxima-se das da Física atual, em que a estrutura atômica
da matéria foi reduzida a equações matemáticas e o espaço, geometrizado
pela teoria da relatividade. É esse o processo de matematização da nature-
za cuja história está-se aqui pretendendo desenvolver.
A partir dessas ideias, Platão desenvolve, no timeu, as bases de um
tratado de Física, Química e Mineralogia, subordinando a elas, uma série
de conhecimentos de sua época sobre a natureza.
Depois disso, o timeu passa a explicar o homem, sua alma e seu corpo.
A alma é o princípio da vida, pois tudo aquilo que vive tem alma. Entretan-
to, a alma é abordada sob um ponto de vista pedagógico e moral e nunca,
psicológico – no sentido moderno da palavra. Por outro lado, as sensações
são tratadas fisiologicamente, sem recorrer ao conceito da alma. A alma
pode ser considerada, primeiramente, como um princípio imortal do ani-
mal mortal e, como tal, participa da Alma do Mundo. Há, ainda, três almas
inferiores localizadas no corpo e com funções específicas.
As almas e o corpo unem-se, pois participam das mesmas essências
misturadas em proporções diferentes. O intelecto, por exemplo, é partici-
pado em máxima intensidade pela alma e nada pelo corpo. Desta forma, o
intelecto está no corpo como em uma prisão. As três almas inferiores, en-
tretanto unem-se totalmente ao corpo, enraizando-se na medula. Os corpos

53
são constituídos à base dos quatro elementos e daí seguem as bases de um
tratado de Anatomia e Fisiologia. A descrição anatômica é feita principal-
mente para descrever a inserção das almas menores ao corpo e a fisiologia
gira, toda ela, em torno da nutrição e da respiração. Tudo entretanto, de
forma muito inferior ao conhecimento médico que já havia na época.
Quanto ao conhecimento da natureza, Platão, no Livro VI da repúbli-
ca diz que há duas regiões da realidade. Uma é a região das coisas cog-
noscíveis pela mente, outra, a das coisas que se conhecem pela vista. Na
primeira, além das ideias e ideais, como beleza, bondade e justiça, estão
também as imagens do pensamento e as formas geométricas conhecidas.
O conhecimento da natureza, segundo as imagens do pensamento, faz-se
pela dianoia, da qual o pensamento matemático é a expressão máxima. É
possível formarem-se opiniões sobre os objetos da natureza por meio da
visão direta, mas isso não se constituirá nunca como ciência.
Assim, como mostrou Collingwood13, em sua obra a ideia da natu-
reza, a palavra “Physis” evoluiu desde os pré-socráticos, adquirindo vá-
rios sentidos: primeiro, o de origem; segundo, o daquilo de onde as coisas
se desenvolvem; terceiro, de fonte de todo movimento ou transformação,
conceito do qual Platão mais se aproxima, que define a forma das coisas
materiais ou a forma em geral das coisas, cuja expressão mais autêntica
seria a Matemática.
Por outro lado, para Aristóteles, a ideia mais completa da Physis14 era
a das formas das coisas que se movem e se transformam casualmente. A
natureza é, portanto dotada de animação quase, como para nós, o que é um
animal. A física de Aristóteles é, assim, antes de mais nada, uma teoria do
movimento organizado.
Para instituir a sua Física, Aristóteles constrói, em primeiro lugar, uma
teoria metafísica pela qual, antes de qualquer coisa, contrapondo-se a Pla-
tão, afirma que as ideias não são separadas das coisas. Elas somente exis-
tem enquanto relacionadas às coisas das quais são ideias. O que realmente
existe por si são os entes individuais, aquilo que faz com que esses entes
realmente representem o que são. O ser desses entes é a sua substância
(ousia), a qual é a única unidade ou identidade que suporta todas as outras
características do ente. O ente tem, segundo Aristóteles, três elementos:
sua substância, sua essência e os seus acidentes. E aqui a Metafísica aristo-
13 COLLINGWOOD, R. G. The Idea of Nature. Oxford: Clarendon Press, 1945.
14 ARISTÓTELES. Physique. Tradução de Henri Carteron. Paris: Societé d’Edition
“Les Belles Lettres”, 1961. (Ed. bilíngue em grego e francês. Collection des Uni-
versités de France). Edição em grego e inglês: ARISTOTLE. Physics. The Loeb
Classical Library; William Heinemann; Harvard University Press, 1969.

54
télica une-se integralmente à sua Lógica, pois que, numa proposição sobre
um ente qualquer, a substância é o sujeito da proposição, a essência é o
predicado (o que se diz da substância) necessário para que a substância
permaneça sendo o que realmente é, e, finalmente, acidentes são os pre-
dicados não necessários. A realidade radical é, assim, a substância, como
individualidade e totalidade do ente em seus característicos essenciais e
acidentais, sobre ela se radicam outras realidades: os indivíduos, homens,
coisas e tudo que se constitui indivisível em si e separado de todo outro.
Pode-se referir ao ente de várias maneiras diferentes, segundo Aris-
tóteles, uma das quais – que mais importa aqui – é que ele pode ser dito
como “potência”, isto é, como poder, ser. Mas, também, pode ser dito
como “ato”, isto é, como ser atual. O homem é um ser em ato, cujo ser em
potência foi a criança.
A partir dos princípios dessa Metafísica, foi construída a Física aristotéli-
ca. Tal Física não é, porém, como a nossa, uma busca indutiva das leis gerais
da natureza, é uma análise a priori das transformações e movimentos que se
produzem nas fases e das causas que originam esses movimentos. Parte da
ideia que a natureza é constituída por substâncias mutáveis e perecíveis, as
quais têm, como ingredientes, três princípios: a matéria (hylé), a forma (mor-
phe) e a privação da forma. Aquilo de que são feitas as coisas da natureza é
a matéria, que adquire forma no momento em que a coisa é definida. Assim
a matéria é algo sobre a qual nada podemos dizer, algo de muito pouco ma-
terial para nós, modernos. E a forma é aquilo que dá um sentido final, um
telus, às coisas naturais. Geneticamente, à matéria informe se junta a forma
para originar uma substância. A dialética de matéria e forma faz surgir inevi-
tavelmente a privação de forma como um ingrediente necessário da physis.
Mas, a Física é a teoria do movimento, entendida essa palavra não só
como troca de lugar, mas também como transformação, que é sempre a
atualização daquilo que é potente: a passagem da potência para o ato. Para
garantir essa transformação, entretanto, é necessário um elemento cons-
tante, para estabelecer a ligação entre o início e o fim, para que o processo
permaneça o mesmo. Esse elemento é a matéria. Entretanto, o processo é
controlado constantemente pela forma final a ser atingida e toda transfor-
mação começa com a ausência de algo que é adquirido no processo.
Assim, as coisas da natureza têm uma psiché, isto é, um anelo, e dese-
jos, embora não possam conhecer o que desejam. A forma é o objeto des-
ses desejos. Segundo Aristóteles, “a forma não é em si mesma movimento,
mas é a causa e o fim do movimento”. Portanto, em toda coisa natural há
um anelo de encarnar uma forma ausente na sua própria matéria.

55
Mas toda a transformação na natureza é uma continuidade de causas e
efeitos, nada sendo possível se originar de nada. As causas dos fenômenos
naturais são de quatro tipos. Duas intrínsecas ao ente: a material, isto é, a
matéria com que é feita a coisa, e a formal, isto é, a forma da coisa acaba-
da. Duas outras são extrínsecas: a eficiente, que está na própria operação
do processo, e a final que seria o projeto ou a ideia da coisa.
Nas nossas ciências modernas, só prevalecem os conceitos de causas
eficientes e finais. Nas ciências físicas atuais, somente a causa eficiente
está presente. Nas ciências biológicas é possível interpretar a natureza em
termos das causas finais, quando se explica, por exemplo, a existência dos
organismos pelas suas finalidades na natureza, ou dos órgãos pelas suas
funções.
Além dessa transformação de substância, há as transformações de lu-
gar: o movimento, o qual é também uma atualização do que é potente. Um
móvel numa determinada posição estará nela em ato e, em potência, em
todas as posições sucessivas de sua trajetória. Ele se dá no espaço que é o
conjunto dos vários lugares em que esteve. A medida desse movimento é
o tempo. Há os movimentos naturais: como o da pedra que cai ou do fogo
que sobe, e os artificiais, forçados contra a tendência natural dos elemen-
tos, pois todas as coisas na natureza, constituídas pelos quatro elementos –
a terra, o fogo, o ar e a água –, têm seus lugares próprios e anelam por eles
quando fora deles. A terra estará no centro; a água, numa segunda esfera;
depois o ar; e o fogo, na quarta esfera. Cada corpo move-se para seu lugar
natural tanto mais rapidamente quanto maior for a quantidade do elemento
presente. Assim, os graves cairiam para a terra com velocidade tanto maior
quanto maior fosse o seu peso.
Acima dessas esferas havia a da Lua, que separava o mundo sublunar
da physis, perecível e cambiante, do das esferas dos astros, constituídos
por substâncias primeiras e eternas, os quais, se movendo, davam origem
aos movimentos terrenos. Entretanto, eles mesmos eram movidos pela es-
fera das estrelas fixas, a qual, por sua vez, recebia movimento de motor-
-imóvel – causa primeira de todo movimento, mas que não era, por nada,
movido. Entretanto, as leis da Física só tinham valor abaixo da esfera da
Lua – o mundo sublunar –, acima, só valeriam leis divinas, das quais os
homens não participavam.
Devido à sua natureza perfeita e eterna, o mundo supralunar deveria
ser esférico e seu movimento, uniforme em torno do centro. Entretanto,
seria finito e limitado pela esfera das estrelas fixas. Entre essa e a da Lua,
haveria as esferas dos cinco planetas e do Sol.

56
Mas os fenômenos não concordavam com esse modelo. Os planetas
tinham movimentos complexos, às vezes até retrógrados, e seu brilho au-
mentava e diminuía, sugerindo distâncias variáveis em relação ao centro.
Contudo, a verdade teria de ser a da teoria. O próprio Platão sugere que
caberia aos matemáticos “salvar os fenômenos” (sozein ta fainomena) ten-
tando conjugar os movimentos de forma que as órbitas aparentes resultas-
sem na conjugação de movimentos uniformes circulares, isto é, perfeitos.
Aristóteles – não na sua física, mas no seu trabalho sobre os céus
– adota a teoria geométrica de Eudoxo, pela qual se conseguiria decom-
por os movimentos aparentes do Sol e da Lua em movimentos tríplices
de esferas homocêntricas, rodando em movimentos uniformes, tendo fi-
xos em suas superfícies os polos das esferas menores. Analogamente, o
movimento de cada um dos planetas poderia ser decomposto em várias
esferas. Havia também que considerar esferas concêntricas reativas, as
quais permitiriam que somente o movimento da esfera externa, de cada
sistema, fosse transmitido à esfera consecutiva. Assim, o universo de
Aristóteles seria constituído por 59 esferas concêntricas girando em mo-
vimentos uniformes.
Esse compromisso entre a verdade dos princípios da filosofia e a visão
direta dos fenômenos é de extrema importância para a compreensão do
processo que se está perseguindo: o processo de matematização da nature-
za. Quem o estudou mais profundamente foi Pierre Duhem15. Ele mostra
como toda a evolução da Física desde Platão até Galileu girou em torno
dessa questão, a qual aqui se interpreta como um processo inexorável de
matematização da natureza.
Não se quer dizer, com isso, de forma alguma, que se poderia atribuir
aos gregos uma intenção idealista de organizar a natureza a partir do pen-
samento. O próprio Platão quando afirmava a construção do mundo pelo
Demiurgo, a partir de um modelo eterno, não se referia a um modelo men-
tal, pois, para ele, as ideias eram existentes como tais nos topos uranos.
Pelo contrário, para os gregos, o mundo era algo de solidamente fundado
sobre si mesmo, sua firmeza não dependia dos homens e, nem mesmo, dos
deuses.
A physis era como que um ser animado (no sentido de que deve ter
anima, isto é, movimento autônomo) que se compunha de órgãos diversos,
todos eles a se movimentar para atingir um fim ou lugar último. Desse ser
15 DUHEM, Pierre. Sozein ta phainomena: Essai sur la notion de théorie physique de
Platon à Galilée. Annales de Philosophie Chrétienne (ser 4)79/156-1908. Tradução
de Roberto de Andrade Martins. Cadernos de História e Filosofia da Ciência, supl.
3/1984.

57
animado, o homem era um dos órgãos, vivia também dotado de movimen-
to autônomo, como parte do organismo total. Toda natureza, physis ou
natura era aquilo que tivera uma origem, uma matriz comum, participando
de uma só fonte e, portanto, sendo sempre aquilo que fora na origem. O
mundo era um kosmos certo e eterno. Dessa certeza do mundo, decorria
a certeza nos deuses, como os fundadores da maneira de ser natural na
ordem mitológica e, posteriormente, de um deus único, primeiro motor-
-imóvel, na ordem filosófica.
Tal certeza cristalizou, entretanto, a Física aristotélica. Por cerca de
dois mil anos foi ela aceita sem contestação, principalmente depois de São
Tomás de Aquino, revertendo em cristã a Filosofia aristotélica, emprestan-
do novo vigor à sua Física. Mas não suportou o aparecimento da ciência
moderna por volta de 1600.
Em 306 a.C., apareceu em Atenas, em reação tanto contra a Acade-
mia como contra o Liceu, uma terceira escola: a do Jardim de Epicuro
(341-270 a.C.). As éticas tanto de Platão como de Aristóteles baseavam-se
no primado dos deveres dos cidadãos em relação à polis (cidade-estado-
-religião) idealmente estruturada na prepotência dos mais aptos e propu-
nham os filósofos como os mais aptos para o governo. Epicuro propunha
a felicidade, ou melhor, a alegria individual, como o maior dos bens a ser
preservado. Essa felicidade-alegria, em primeiro lugar, era para todos e
não só para os mais qualificados; em segundo lugar, não se constituía em
licenciosidade ou apatia, mas numa hedoné cujo modelo máximo seria o
estado de contemplação da perfeição da verdade. Nem todo prazer seria
aceito, pois muitos deles levariam à dor e nem toda dor seria rejeitada, pois
algumas delas levariam a uma maior perfeição. Com essa ideia os homens
deveriam abster-se dos negócios de Estado e dedicar-se diretamente ao
bem do próximo. Em suma, abandonar a política e abrir-se à amizade.
Pois bem, Epicuro foi o divulgador e o preservador de uma outra teoria
pré-socrática sobre a natureza que teve incalculável importância na forma-
ção da ciência moderna: o atomismo. É a teoria de que a physis é constituí-
da tão somente por átomos e vazios que, colidindo, se juntam e se separam,
permitindo as transformações da natureza. Tal teoria remonta a Leucipo e
Demócrito, que viveram em Abdera (próximo de Estagira, a terra de Aris-
tóteles) no século V a.C. Quase tudo que se conhece de Leucipo é através
de Demócrito e, no entanto, quase todas as obras de Demócrito perderam-
-se. Sua doutrina é somente conhecida através de Aristóteles, Teofrasto e
Epicuro. O romano Trasilo, no século I a.C. reuniu várias obras escritas
em Abdera durante o tempo de Demócrito, ordenando-as de acordo com o

58
assunto, sob o nome de tetralogias. Reuniu também um grupo de mono-
grafias sob o título causas e outro, sobre vários assuntos, cuja autenticida-
de é suspeita. De tudo isso restam os fragmentos que aparecem na obra de
Diels(9). Há, ainda, um grande número de aforismos provavelmente autên-
ticos, e um grupo de obras sobre magia, sem dúvida, forjado. Dois desses
fragmentos autênticos sobre a natureza dizem o seguinte:
Nada aparece por acaso, mas tudo provêm da razão e por necessidade (essa é a
única frase subsistente de Leucipo).
O doce existe por convenção, o amargo por convenção, a cor por convenção,
(só) átomos e vazios existem em realidade... Não sabemos nada exatamente da
realidade, mas (somente) na medida em que ela se transforma de acordo com
condições materiais, e a constituição das coisas que fluem sobre (o corpo) e se
chocam com ele.
O que é bem pouco para se estabelecer uma teoria. Porém através de
Aristóteles e Teofrasto sabe-se que o atomismo democritiano consistia em
admitir que o que há de eterno e inteligível por trás das aparências do mun-
do são os átomos – de substância perfeita, imutável e eterna: partículas
indivisíveis tão pequenas que são invisíveis – diferindo entre si somente
pela sua forma e peso e constantemente movendo-se no vazio. Combi-
nando-se entre si, essas partículas formariam os mundos visíveis. Esses
átomos eram mantidos em vibração, o que permitia a contínua transforma-
ção da natureza, pois que haveria variações nas combinações dos átomos.
Portanto, persistia a ideia grega de um mundo do ser incriado, eterno e
inteligível, como substância do mundo sensível do vir a ser, em contínua
transformação.
Epicuro tornou seu o atomismo de Demócrito, introduzindo nele uma
ideia de liberdade. Para Epicuro, os átomos são dotados de um movimento
linear no vácuo, porém vibratório nos compostos. É esse movimento que
determina a sua junção na formação dos compostos, porém, eles são capa-
zes de desviar-se ligeiramente em qualquer ponto do espaço ou do tempo
e, assim, por acaso, modificar as coisas. São, portanto, dotados de certa
liberdade.
No início há, portanto, somente átomos e vazios. Em certa região do
vazio – não necessariamente numa única –, inicia-se a conjunção dos áto-
mos a partir de um ligeiro movimento espontâneo de alguns deles. For-
ma-se ali, então, um vórtice e, aparecendo os quatros elementos simples,
forma-se o mundo. A combinação vertiginosa desses, em torno do mais
pesado: a terra inicia o movimento de geração e corrupção. Aparecem as-

59
sim as coisas e os homens. Impregnando tudo, há a alma – o princípio de
animação – constituída de átomos mais finos e sutis. É essa alma que man-
tém a matéria viva. No caso dos homens, a morte é a definitiva separação
da alma e do corpo. Toda a transformação, corrupção e morte da physis é
processo de combinação e separação de átomos que, em si, são eternos. Os
homens, porém – e somente eles –, são capazes de convencionar, entre si,
uma série de opiniões sobre as coisas, assim fazendo despontar as aparên-
cias enganadoras do mundo sensível: doce e o amargo, a cor e o tato.
Esse mundo é determinado pelo inexorável movimento dos átomos,
porém sujeito às pequenas transformações esporádicas nele introduzidas
por sua liberdade Os homens devem viver da mesma forma: exercendo
sua liberdade individual no sentido de preservarem sua hedoné. Tanto o
prazer quanto a dor são aparências enganadoras. É necessário defender-se
de ambos, mantendo, nos espaços vazios entre os vários mundos, a serena
contemplação hedonista própria dos deuses que vivem em perene contem-
plação da perfeição eterna.
Esses são exemplos das teorias sobre a natureza (peri physei) que se
sucederam, na Grécia, entre os séculos VI a.C. e IV a.C. Nelas, desde a ori-
gem mitológica até a epistéme theoretike, na qual toda a realidade, incluin-
do o mundo e os deuses, se revela como um movimento ordenado, não vai
mais do que um trânsito contínuo e coerente. A descoberta da teoria, mais
do que os seus engenhosos achados, é o verdadeiro legado grego para a
constituição da nossa ciência. E note-se que essa descoberta, em grande
parte, provém de uma subcultura popular: a religião órfica. Note-se ainda
que, paralelamente ao desenvolvimento da teoria, surgiu a tragédia grega
cujos principais iniciadores – Ésquilo (525 a.C. - 456 a.C.) e Sófocles (495
a.C. - 406 a.C.) – também viveram sob influência órfica. Aliás, teatro e
teoria são duas palavras de mesma raiz, ambas derivadas do verbo theoreo
(“contemplar”).

c) A Matemática e a Metafísica gregas


Não me parece faltar sentido à pergunta: se a Filosofia teve origem
na Grécia do século VI a.C., porque, simultaneamente e no mesmo lugar,
gerada pelos mesmos homens, nasceu a Matemática, como ciência? Seria
o pensamento filosófico uma condição de possibilidade da teoria matemá-
tica? Ou seria, inversamente, o pensamento matemático fundamental para
todo filosofar?
A Matemática grega não era operativa no sentido de, necessariamente,
estarem os gregos preocupados com a sua aplicação nos cálculos práticos

60
– pelo menos no grau em que o eram a egípcia e mesopotâmica – e muito
menos, no grau da matemática moderna. Entretanto, como a moderna,
já se constituía como teoria. Isto é, não era estudada a partir de receitas
aplicáveis a casos particulares, mas era constituída por proposições que se
poderiam demonstrar logicamente. E aqui encontraríamos a novidade co-
mum à Matemática e à Filosofia jônicas, a de se instituírem como saberes
teóricos. Ora, os objetos matemáticos, as figuras geométricas e os números
eram coisas do mundo que satisfaziam mais proximamente aos requisitos
da forma teórica de pensar. Foram eles, portanto, que propiciaram aos gre-
gos, mais imediatamente, a experiência daquela realidade eterna e imutá-
vel na qual os filósofos apoiavam seu pensamento.
É verdade que os primeiros conhecimentos de matemática foram tra-
zidos aos gregos por Tales de Mileto, do Egito, e que ele os utilizou, ope-
rativamente, no cálculo das alturas de torres a partir de suas sombras e no
das distâncias de navios à costa. Entretanto, foi o próprio Tales que deu à
Geometria o caráter de teoria, descobrindo as relações imutáveis e perenes
que há entre os lados de todo e qualquer triângulo semelhante e, não só,
de alguns poucos triângulos particulares. Não se tratava mais de calcular
o lado ou a altura deste ou daquele triângulo, mas de descobrir-se, entre
todos os triângulos semelhantes, uma relação perene e exata. Da mesma
forma, Tales descobriu que o diâmetro bissecta o círculo, seja qual for o
seu tamanho e orientação do diâmetro traçado. Eis o momento de nasci-
mento da teoria, esta maravilhosa criação da mente ocidental.
A sedução dessa descoberta, sobre a mente grega, foi tal que, não mais
que 50 anos após, a Matemática já não era só uma teoria dos números e
figuras geométricas, mas uma teoria da realidade, pois Pitágoras (582 a.C.
- 500 a.C.) e os pitagóricos tinham percebido que os números participavam
do caráter de perfeição e perenidade da arché. Infelizmente, quase tudo
que conhecemos da Matemática pitagórica nos veio através de neopita-
góricos helenistas tardios, como Nicomachus, que viveu por volta do ano
100 de nossa era, ou do famoso Jâmblico, que escreveu vida e obra de
pitágoras, entre o ano 300 e 350 d.C., ou ainda, Plutarco (45-120 d.C.) e
Syrianus, da Academia Platônica de Atenas, e do último dos neoplatôni-
cos, Proclus, nascido em Constantinopla, aluno de Olympiodorus, em Ale-
xandria. Por volta do ano 450 da nossa era, emprestou Proclus, de novo,
um tardio e derradeiro brilho à Academia. A ele se deve um rápido sumário
da matemática grega, de Tales à Euclides, na sua introdução e comentários
aos elementos de euclides. Ali, diz ele de Pitágoras, referindo-se à Ma-
temática:

61
[...] transformou essa ciência numa forma livre de educação, estudando-a a partir
dos seus primeiros princípios e visando estudar as suas proposições, sem repre-
sentações concretas, por meio de puro pensamento lógico. Descobriu também a
teoria dos irracionais e a construção dos sólidos cósmicos16.
Desta forma, como as primeiras fontes de que dispomos são mui-
to posteriores às obras finais e conclusivas da Geometria grega, é bem
difícil poder, através delas, discernir a verdadeira figura daquela Mate-
mática ainda emergente da metodologia anterior. Entretanto, podemos
vislumbrar a sua atmosfera, se nos lembrarmos que se diz ter Pitágoras
uma das coxas de ouro, que os rios o saudavam quando eram, por ele,
vadeados, que o número quatro era de tal forma sagrado que nenhum
pitagórico deixaria de curvar-se, em reverência, ao vê-lo e que, natu-
ralmente, toda aula ou discussão matemática era secreta e pronunciada
para discípulos sentados em círculo em torno do mestre – o qual real-
mente tinha todas as características de um iniciador em mistérios. E as-
sim compreenderemos que não estamos envolvidos numa atmosfera da
pura e seca afirmação de que a soma dos ângulos de um triângulo é igual
a dois ângulos retos, ou de que a soma dos quadrados dos catetos de um
triângulo retângulo é igual ao quadrado da hipotenusa. A atmosfera da
Matemática pitagórica seria a da teoria e de mais alguma coisa que não
foi contada por Proclus.
Pitágoras deixou sua ilha natal, Samos, perto do ano 530 a.C. e re-
fugiou-se em Crotona, na Magna Grécia. Lá, fundou uma ordem reli-
giosa de matemáticos baseada na crença da separação nítida entre corpo
e alma e na reencarnação. Fazia parte de sua doutrina que a essência
de tudo que existia eram os números, pois participavam da perfeição
e perenidade da arché, eram a verdadeira essência do real. E a prova
disso era que a oitava, a quinta e a quarta nota da lira eram produzidas
por cordas cujos comprimentos estavam, entre si, respectivamente como
1 : 2, 2 : 3 e 3 : 4. Portanto, o mundo real – aquele ao qual pertenciam
as almas imortais –, e não o ilusório mundo das aparências, era pura
harmonia numérica e musical. Daí a harmonia das esferas celestes e
a necessidade de que o número dos astros totalizassem dez, o número
perfeito, pois dez era igual à soma dos quatro primeiros números, era
a divina tetraktys diante da qual era necessário curvar-se em adoração.
Como o número de astros mais a Terra e a esfera das estrelas eram nove,
concluíram, por coerência, que existiria uma anti-Terra constantemente
oculta atrás do Sol. Eis aí, toscamente traçada, uma teoria da realidade
radical, isto é, uma Metafísica.
16 WAERDEN, B. L. van der. Op. cit.(7)

62
Há uma tradição que diz ter sido o pitagorismo iniciado por Euforbo,
o Frígio. Segundo o próprio Pitágoras, Euforbo foi uma de suas encarna-
ções prévias. Historicamente, Euforbo foi o primeiro a traçar triângulos
escalenos inscritos em círculos. Assim, dar-se-ia uma origem não grega ao
pitagorismo. Sabe-se que um dos escravos-alunos de Pitágoras, Zalmoxis,
era trácio, fiel à velha crença asiática de que a alma era prisioneira do cor-
po, mas que se podia dele separar e viajar por regiões distantes e, mesmo,
para os infernos. É o que hoje chamamos de xamanismo – doutrina de
certas regiões asiáticas pela qual certos homens, os xamãs, são dotados do
privilégio de saber o segredo da libertação da alma e de a poder adquirir
mesmo em vida.
É possível, portanto, que o pitagorismo tenha tido origem em terras
distantes, próximas da Ásia, e que seus iniciadores tenham evoluído de
religiosos, poetas e mágicos dotados da capacidade de “ver” o futuro e
a perfeição eterna, e com livre trânsito para os países distantes, além de
poderem estar presentes, simultaneamente em lugares distintos. Ora, tudo
isso é paralelo às aventuras de Orfeu, que também era originário da Trácia,
e à religião de Dionísio, também um deus estrangeiro.
A unidade entre o orfismo e o pitagorismo é muito incerta. Não há,
porém uma oposição nítida entre as duas. Como diz E. R. Dodds17: “no xa-
manismo siberiano, a experiência das vidas passadas não era uma fonte de
culpa, mas um investimento de poder”. No orfismo, ao contrário, pregava-
-se a purgação das culpas pela transmigração das almas (como, aliás, o
fazia também o pitagorismo). Por isso é que a primeira doutrina era mais
condizente com a mentalidade grega que a segunda: são apenas sugestões
abertas. Parece-nos, entretanto, muito natural, psicologicamente, a passa-
gem do sentimento de poder para o de culpa, pois que são contrários. De
qualquer forma, tanto o xamanismo como o orfismo são bastante afins à
crença jônica de uma physis perfeita e eterna subjacente às aparências do
mundo e, por aí, ligam-se à doutrina platônica do realismo das ideias.
De qualquer forma, a teoria matemática grega surgiu do contexto pita-
górico e, dentro do problema que estamos procurando esclarecer, propore-
mos a ideia de que o contato com as crenças dos xamãs e órficos desper-
taram, na mente grega, a possibilidade do pensamento teórico e, com isso,
duas teorias surgiram: a dos números e a da realidade física. Além disso,
o caminho da Geometria à Metafísica foi o caminho grego, que vai da ex-
periência sensível à compreensão intelectual. Essa foi a via da experiência
dos entes matemáticos à dianoia da Geometria e, em seguida, à noética da
17 DODDS, E. R. The Greekes and the Irrational. Boston: Beacon Press, Beacon Hill,
1957.

63
Metafísica. Em outras palavras: a teoria aparece na Grécia como conjuga-
ção de uma experiência matemática haurida da Mesopotâmia e do Egito,
com a crença asiática do xamanismo, através das religiões de mistérios,
sob a atmosfera propiciadora da crença grega na physis. A teoria toma
corpo, de início, na Geometria e na Metafísica – as quais, portanto, estão
unidas pela base.
Nos números, encontram-se perfeições harmoniosas que são as pró-
prias características da arché: a origem, a fonte e o fim de tudo que é real.
Entretanto, a teoria sofreu, ainda dentro do pitagorismo, tremenda crise,
quando foram descobertas as grandezas incomensuráveis. Foi quando se
verificou que, por exemplo, a relação entre a diagonal e um lado de um
quadrado não poderia ser nem um número par nem ímpar. Eram os núme-
ros irracionais que apareciam. E a isso se chegava pela própria análise das
conclusões do teorema de Pitágoras. Pode-se aqui conjeturar que tal resul-
tado teria lançado a dúvida, entre os próprios pitagóricos, não só sobre as
provas particulares dos vários teoremas, mas, também, sobre a totalidade
da doutrina. Essa teria sido a verdadeira crise. Atesta isso o que se conta
do discípulo Hippasus, o qual, por ter revelado o segredo, foi banido pela
comunidade, erigindo-se uma tumba em sua memória, como se tivesse
morrido.
Durante os 50 anos áureos do meio do século V a.C., trabalham os
matemáticos em Atenas, com um novo ímpeto, pelo qual não só se procu-
rava restabelecer a harmonia das proporções como, também, completar o
sistema lógico da Geometria. A Geometria dessa época, já era constituída
por um número bastante grande de teoremas, descrevendo, cada um deles,
propriedades exatas das figuras planas ou sólidas, e demonstrando suas
verdades. Entretanto esses teoremas mantinham-se independentes entre si.
Era, portanto uma ciência das figuras planas e dos sólidos perfeitos e
não um contexto teórico de proposições que se desenvolvessem uma das
outras. Cada figura geométrica tinha as suas propriedades, porém, não es-
tava claro que as noções mais simples contivessem potencialmente as mais
complexas. Entretanto, ao lado da investigação intensiva para restabelecer
a harmonia perdida das proporções, vinha surgindo um esforço de incorpo-
rar a Geometria num sistema lógico postulacional dedutivo. Foi então que
apareceu o primeiro livro sistemático de Geometria. São os elementos,
de Hipócrates de Chios, o qual viveu em Atenas entre 450 a.C. e 430 a.C.
Infelizmente, este livro perdeu-se para nós. George Sarton18 diz:

18 SARTON, G. A History of Science. Nova York: Science Editions John Wiley &
Sons, 1965.

64
[...] se Hipócrates de Chios, realmente escreveu o primeiro tratado de Geome-
tria – o que não só é provável, mas também, plausível – foi obrigado a organi-
zar as deduções, e então, poderemos acreditar na afirmação de Proclus, que ele
inventou o método da dedução geométrica (apagoge), isto é, a passagem de um
teorema ao seguinte – a solução de cada um requerendo a solução do anterior.
Veja-se, entretanto, um fato interessante: os pitagóricos estavam prin-
cipalmente preocupados com as proporções, o que os levava a basear suas
ideias geométricas em números. Agora, na investigação ateniense, passa-
-se totalmente para os problemas das figuras e sólidos geométricos, ora,
os números são elementos discretos entre si, mas os pontos e as linhas são
elementos contínuos e capazes de serem divididos ao infinito. Daí a série
de problemas de continuidade que preocuparam, na época, os eleáticos e
cuja solução é fundamental para o estabelecimento de sistemas lógicos
dedutivos. Portanto, é possível afirmar que, no século V a.C., em Atenas,
foi laboriosamente construída uma ponte que possibilitava a passagem de
uma teoria sumária das proporções harmoniosas para a teoria postulacio-
nal dedutiva das matemáticas.
Pelo início do século IV a.C. é bem provável que a estrutura dedutiva
da Matemática já estivesse quase completa. Um argumento a favor disso é
dado por Sir Thomas L. Heath19. Há um fragmento de Archytas, um pictó-
rico, general das forças de Siracusa entre 400 a.C. e 360 a.C., preservado
por Boëtius, provando a não existência de uma média geométrica entre
dois números que estejam na relação (n+1):n. Como esta prova pressupõe
vários teoremas correspondentes a proposições dos elementos de Eucli-
des, Sir Thomas Heath conclui que:
[...] numa data pelo menos tão remota como a de Archytas, existiria um tratado
qualquer sobre os elementos da Aritmética, semelhante aos elementos de Eucli-
des e contendo muitas proposições, depois incorporadas por Euclides aos seus
livros aritméticos.
De fato, um inventário do que já se conhecia, naquela época, mostra
que a substância da maioria dos livros que compõe o trabalho euclidiano
já estava estabelecida.
A perda do poder político e militar de Atenas e do desaparecimento
de sua democracia não constituiu uma derrocada do seu prestígio cultu-
ral. Pelo contrário, o século IV a.C. – o século dos 30 tiranos – é o século
do desenvolvimento máximo da Filosofia grega na Atenas de Platão e
Aristóteles.
19 HEATH, Thomas L. A Manual of Greek Mathematics. Nova York: Dover Publica-
tion, 1963.

65
A época que agora abordamos inicia-se com a morte de Sócrates em
399 a.C. Mas, comecemos com Eudoxo, um discípulo do siracusano Ar-
chytas, que viveu em Atenas, desde 375 a.C. até sua morte em 355 a.C.,
com viagens a Cnidos, sua terra natal, e ao Egito. É seu o método da exaus-
tão, pelo qual a solução dos problemas é obtida pela divisão contínua de
elementos, como o da área do círculo, a qual pode ser obtida inscrevendo-
-se nele polinômios regulares cujo número de lados é continuamente do-
brado. É uma resposta matemática ao problema de Zenão. Não é neces-
sário admitir a existência do infinitamente pequeno, basta, para os fins do
matemático, dividir uma grandeza tantas vezes quanto se julga necessário
a fim de resolver o problema.
Só então, no século IV a.C., foi superada a crise pitagórica dos irracio-
nais. É de Eudoxo a autoria de uma teoria das proporções, aliás, incluída no
Livro V dos elementos de Euclides, aplicável igualmente à Geometria, à
Aritmética e, também, à Música. É essa a teoria das proporções, aplicável
aos irracionais, que parte de uma definição de proporcionalidade válida até
os nossos dias e revitalizada na Matemática moderna. Restabeleceu-se, en-
tão, a harmoniosa proporcionalidade do cosmo. Mas já estamos na época de
Platão (428-348 a.C.). Isto tornou possível, aos alunos da Academia (fun-
dada em 387 a.C.), sentir novamente a perfeição dos entes matemáticos.
Proclus descreveu esse tempo, em seu sumário, da seguinte maneira:
No seu tempo [de Platão] viveram também Leodamas de Thasos, Archytas de
Tarento e Teaetetus de Atenas, os quais aumentaram o número de teoremas e
os organizaram num sistema mais científico. Mais moços que Leodamas, eram
Neoclides e seu discípulo Leon, que adicionaram muito ao que já era conhecido.
Assim Leon pode desenvolver “elementos”, mais completos, sob o ponto de vis-
ta do número de proposições já demonstradas, e lhe foi possível formular restri-
ções a possibilidades ou impossibilidades de resolução de um dado problema.(12)
E acrescenta: “Platão ensinou-lhe o método analítico, o que o possibi-
litou a muito descobrir em Geometria”.
É notório que a experiência de traçar figuras geométricas na areia, e o
acostumar-se a “ver”, não os toscos triângulos lá figurados, mas, sim, os
triângulos ideais cujas propriedades eram exatas e perenes, poderia cons-
tituir-se como um prolegômeno à teoria platônica do realismo das ideias.
Por isso, não podia entrar na Academia quem não soubesse Geometria.
Aliás, há a célebre passagem de Menon, em que Sócrates ilustra a sua
teoria de que aprender é recordar-se das verdades que a alma já contemplou
na sua existência extraterrena. Para isso demonstrar, conduziu um escravo

66
ignorante a “ver” como o quadrado de área dupla de um quadrado qual-
quer, é aquele cujo lado é igual à diagonal do primeiro. Pode-se vislumbrar
nisso a ideia que Platão tinha da Matemática. Isto é, a de um saber cujas
verdades podiam ser mostradas e não, necessariamente, demonstradas.
Após o relato do mito da caverna, no final do Livro VI da república,
há uma passagem que, entretanto, parece indicar uma atmosfera de transi-
ção que haveria na Geometria, de uma visão teórica das proporções a um
sistema postulacional. Diz Sócrates:
Suponhamos que uma linha cortada em dois segmentos que representem, em
proporção, o mundo das coisas visíveis e o das coisas pensadas. Corte-se, agora,
cada um dos dois segmentos na mesma proporção. As seções do segmento cor-
respondente às coisas visíveis diferirão entre si em clareza e nitidez. A primeira
corresponderá às imagens, e entendo por imagem, em primeiro lugar, os sonhos
e, depois, os reflexos das coisas na água e nas superfícies polidas dos espelhos.
A segunda seção é das próprias coisas que produzem essas imagens: isto é, os
animais em torno de nós, as árvores e plantas e toda espécie de coisas manufa-
turadas.
Considere-se, agora, o outro segmento, o qual corresponde às coisas pensadas.
Na primeira parte, para pensar, a alma é compelida a usar como imagens, as
formas – imitadas pelas coisas compreendidas na segunda seção do primeiro
segmento – e que são supostamente existentes. A alma chega, então, às suas
conclusões a partir de hipóteses, sem passar por um primeiro princípio. No que
corresponde à segunda seção desse último segmento, o pensamento procede a
partir de uma hipótese a um primeiro princípio livre de hipóteses. Já não mais
utiliza figuras, como o fez na primeira seção, porém pensa com as ideias e tão
somente por meio delas.(12)
E Platão continua, passando da divisão proporcional de segmentos, ao
processo dedutivo:
Suponho que saibamos que os estudantes de geometria e aritmética começam
por admitir como conhecidos o par e o ímpar, as figuras geométricas usuais, as
três espécies de ângulos e as coisas relacionadas a eles, em cada campo de es-
tudo. Formam com essas noções hipóteses e postulados e julgam desnecessário
dar maior atenção disso a si e aos outros, para que se tornem mais claras. Depois,
partindo dessas, procedem em estágios lógicos sucessivos até chegarem ao ob-
jeto que desejam conhecer.
Então, sabe que eles usam as figuras visíveis e dão aulas sobre elas, mas não
estão pensando exatamente nas figuras que veem, mas nas ideias delas. De um
quadrado em si é que eles falam a de um diâmetro em si, não daqueles que foram

67
traçados na areia. É assim: as próprias coisas que modelam ou traçam, as quais
têm símbolo e podem projetar imagens na água, são usadas como imagens, mas
o que eles procuram ver são as ideias, as quais somente podem ser vistas pela
mente.
A segunda seção do segundo segmento – o das coisas pensadas – refere-se ao
processo de argumentação obtido pelo poder da dialética, que trata de hipóteses,
não como início, mas literalmente como hipóteses, isto é, passos e plataformas
de assalto das quais podemos nos lançar às regiões livres de hipóteses e atingir
o princípio de tudo e, por fim, tirar o prazer das conclusões sem ajuda de nada
que pertença aos sentidos, mas, somente com as próprias ideias, passando pelas
ideias e terminando com ideias.(12)
Aí está, explicitamente, com as próprias palavras de Platão, como a
Matemática, que é um conhecimento dedutivo de imagens – uma dianoia
– difere do conhecimento intuitivo – noiético – das ideias, as quais são
a própria realidade. E, entretanto, usando a Matemática, Platão aprendeu
algo, ao referir-se às próprias figuras e não aos seus traçados. Isto o condu-
ziu à compreensão de como abordar a realidade das ideias. Desta forma, a
teoria platônica das ideias, como entidades reais, perfeitas e eternas exis-
tentes numa região do além – o topos uranos – é atingida pela experiência
geométrica.
Julián Marías20 muito bem explica a diferença entre o saber matemáti-
co e o filosófico quando nos diz: “A ciência das geometrias, a dos que se
movem na primeira zona do mundo inteligível é a dianoia, a inteligência
discursiva, e não o noûs que é o mundo do saber acerca das ideias”. E do
mesmo modo que os objetos matemáticos são algo intermediário entre a
realidade sensível e as ideias, a dianoia é intermediária entre a opinião e
o noûs.
Entretanto, é nossa pretensão mostrar aqui que, quando a Filosofia
grega descobriu os objetos matemáticos, esses já tinham atingido formas
elaboradíssimas e refinadas, e que a Filosofia, como tal, pouco contribuiu
para um seu maior conhecimento. Mas, pelo contrário, o trato com os ob-
jetos matemáticos constitui-se, para os filósofos gregos, como fonte de
inspiração e caminho para a Metafísica. Aliás, a discussão que consta do
fim do Livro I da metafísica, de Aristóteles21, é a respeito da concepção de
Platão, isto é, de que existem entidades intermediáveis entre ideias e coisas
– os entes matemáticos. Por outra, a distinção entre ideias e números não
é encontrada nos diálogos. Isto pode indicar trânsito do pensamento de
20 MARÍAS, J. El Descubrimiento de los Objetos Matemáticos en la Filosofia Griega.
In: Ensayos de Teoría. Barcelona: Barna, 1954.
21 ARISTOTLE. Metaphysics. Cambridge: Harvard University Press, 1968.

68
Platão, do número, considerando esse pitagoricamente como realidade ra-
dical até a ideia, considerando essa platonicamente, como real metafísico.
E, assim, trair-se-ia a influência da experiência matemática na elaboração
da metafísica platônica.
Portanto, se em Pitágoras a perfeição harmoniosa dos números era a
própria realidade, em Platão há um trânsito dessa perfeição e harmonia
numérica para a teoria do realismo das ideias. Só depois disso é que a Filo-
sofia platônica rebateu num movimento reflexo sobre os objetos matemá-
ticos, esclarecendo-os como entes dotados de propriedades toda especiais
– intermediários entre os sensíveis e as ideias. Ela veio mostrar, então,
que realmente o triângulo não era prejudicado, em sua perfeição, pelo seu
tosco traçado.
Aristóteles entrou para a Academia em 367 a.C., mas, provavelmente,
só foi discípulo de Platão nos primeiros anos. Nessa época, Platão já tinha
60 anos, enquanto que Aristóteles era rapaz de 17, de forma que não seria
de se esperar uma relação completa entre os dois. Já dissemos que, por esse
tempo, a ideia de que a Geometria poderia ser inteiramente construída a
partir de noções simples e de postulados e que, de teorema em teorema, ela
poderia ser edificada até as conclusões mais complexas, já estava em vigor.
Entretanto, isso não deveria ter-se apresentado a Platão como algo de mais
importante do que a perenidade indelével dos objetos da matemática. No
entanto, é nosso propósito tentar mostrar como a consciência desse fato
foi importantíssima para Aristóteles e para a edificação de sua Metafísica.
Nessa época, provavelmente, o tratado de Geometria em uso na Aca-
demia eram os elementos, de Theudios, perdidos inteiramente para nós.
Certamente, Aristóteles teria estudado esse tratado. Diz Sarton (18) citando
Proclus: “Theudios de Magnesia distingue-se em Matemática e em outros
ramos da Filosofia; ele organizou magnificamente os elementos e tornou
mais geral a muitos teoremas”, a isso, Sarton acrescenta:
Essa afirmação é muito significativa apesar de sua concisão. Revela a existência
de um livro que poderia ter sido chamado de tratado de geometria (ou ele-
mentos) em uso na Academia. Entre os matemáticos daquele tempo, alguns es-
tavam interessados na descoberta, outros, na síntese e nas conclusões lógicas, os
primeiros eram como que aventureiros e conquistadores, os últimos, colonizado-
res. Tanto quanto se pode compreender do relato lacônico de Proclus, a tarefa de
Theudios era a de colocar o conhecimento geométrico já obtido pelos primeiros,
numa ordem lógica tão bela e consistente quanto fosse possível. Theudios foi o
precursor de Euclides e tornou fácil o feito desse último.

69
Talvez houvesse sido, então, que o jovem Aristóteles tivesse tido, pela
primeira vez, a vivência da possibilidade que as ideias pudessem ser com-
preendidas como contendo, potencialmente, outras, da mesma forma que
os postulados continham em si, potencialmente, toda a Geometria. O de-
senvolvimento lógico da Geometria mostrava que os entes geométricos
eram gerados dos princípios, um a um de forma análoga à geração dos
entes vivos, os quais estão potencialmente em seus geradores. Isto teria
sido extremamente conatural à mente naturalista de Aristóteles.
Evidentemente, Aristóteles não contribuiu em nada para o conheci-
mento da Geometria como sistema postulacional, porém, não é possível
que ele não tivesse aprendido, com os seus companheiros da Academia, os
segredos dos métodos analíticos e, com esse aprendizado, sido inspirado
na organização da sua doutrina do ser. Sarton afirma que a parte mais ad-
mirável dos livros de Euclides é a da escolha dos postulados, e acrescen-
ta textualmente: “Aristóteles foi, sem dúvida, o mestre de Euclides nesse
assunto: ele devota muita atenção aos princípios matemáticos, mostra a
inevitabilidade dos postulados e a necessidade de reduzi-los a um míni-
mo”. É de Aristóteles a ideia de que um postulado é uma proposição que
não pode ser provada nem negada, mas que, no entanto, é obrigatória para
que se prove ou negue as proposições seguintes. Tudo isso mostra a preo-
cupação de Aristóteles com os sistemas postulacionais. Ora, é nossa tese
que a experiência do jovem Aristóteles, com esse tipo de Geometria foi o
prolegômeno para a sua Metafísica.
Não se quer, de forma alguma, sugerir que a Geometria, como sistema
postulacional, induza, ou dela se deduza a Metafísica de Aristóteles, mas
quer-se conjeturar que a experiência e o trato com as figuras da Geometria,
num sistema lógico, ter-lhe-ia inspirado a noção de forma pura. Considere-
-se, por exemplo, um cubo, sobre o qual pode pensar e concluir raciocínios.
Mas, onde estaria o cubo? De uma certa forma ele não existia enquanto
pensado como puro cubo, no entanto, se se emprestasse à matéria a forma
de um dado de madeira, lá surgiria ele, existente como o dado. Compreen-
dia Aristóteles que os objetos matemáticos não existiam separadamente das
coisas, porquanto havia, no homem, um poder de abstração mediante o
qual, ao considerar uma coisa, lhe era possível isolar um seu aspecto. E esse
aspecto adquiria uma certa realidade, adquiria um certo modo de ser. Por-
que não só as coisas tinham ser, os objetos matemáticos, entendidos como
abstrações de certos aspectos das coisas, também o tinham, embora não do
mesmo modo que as coisas. O ser se diz de várias maneiras. Essas teriam
sido as meditações do jovem Aristóteles a partir do trato com os objetos da
matemática, e elas seriam as precursoras de sua doutrina metafísica.

70
E ainda mais, que o ente, como o número ou a figura geométrica, não é
unívoco, mas análogo. Do ponto de vista concreto, pode-se dizer: aqui está
um triângulo. Mas, como tal, ele é apenas inteligível, porquanto apenas
como triângulo não poderia estar entre os sensíveis. Uma bola é um ente
sensível, mas a Geometria retém só uma sua propriedade: a da esfericida-
de. A esfera está em potência na bola. O cubo não está no dado atualmente,
mas, potencialmente.
Mas o sistema geométrico postulacional, todo deduzido a partir de no-
ções primeiras indefiníveis, como ponto, reta, plano e espaço, e de somen-
te alguns poucos postulados, era também algo que provocava o espanto.
Todo um mundo, toda uma realidade retirada logicamente – como que ge-
rada pela força criadora do espírito – de uma parca forma inicial. Tudo isso
sugere a potencialidade dessas poucas formas que se vão explicitando na
atualidade dos teoremas em outras formas, as quais, por sua vez, contêm
em si outras potencialidades a serem explicitadas sucessivamente.
Posto em movimento assim, um espírito poderoso como o de Aristó-
teles, inspirado pelo trato com aquele maravilhoso sistema que era a Geo-
metria grega, não é de se espantar que esse tenha gerado, nos moldes da
Geometria postulacional, a Metafísica da matéria e da forma, da potência
e do ato.
É evidente que a Metafísica de Aristóteles, como teoria do ser enquan-
to ser, parte da análise da função da cópula “é” nas proposições denotati-
vas. O “é” indica, no predicado, a natureza essencial do sujeito. Aristóteles
catalogou, então, os tipos de predicação em dez categorias diferentes, po-
rém, somente a primeira, a categoria de substância, pode corresponder a
um ente cuja existência seja independente de outro qualquer. É evidente,
portanto, que a substância é aquilo que confere ser. Será, portanto, ela o
objetivo de sua teoria metafísica. Aliás, ele próprio diz que a Metafísica é
o “inquérito sobre as causas, os princípios e os elementos das substâncias”
(Livro VIII). Na terminologia de Ortega y Gasset, dizer-se-ia, portanto,
que a substância é a realidade radical para Aristóteles.
No Livro VIII da metafísica, parece estar indicado que o conceito de
substância foi sugerido a Aristóteles a partir do de número. Daí a discussão
que ali se faz entre as analogias entre os dois conceitos.
Como quando qualquer elemento que compõe um número é subtraído ou adicio-
nado, não se tem mais o mesmo número, por pequena que seja a subtração ou
adição, assim nem a definição nem a essência (que é a substância) continuará a
existir se algo for subtraído ou adicionado a ela.(21)

71
E também: “como um número não admite variação de graus, não o
admite também a substância no sentido de forma”. Finalmente, o número
é uma unidade a partir de uma pluralidade, como o é a substância.
Desta maneira, da mesma forma que os entes matemáticos foram, para
Platão, a sugestão sensível do que seriam as ideias, também o foram, para
Aristóteles, do que seriam as substâncias, pelo menos no sentido de for-
mas.
No Livro IX, é discutida a outra maneira de se dizer o ser, isto é, como
atualidade e como potencialidade. A potencialidade é a propriedade do ser
de atuar como fonte de transformação em outra coisa ou na mesma coisa
enquanto outra, como a semente germinada é em potência a planta. Pelo
contrário, a atualidade significa a presença da coisa que é aqui e agora. É
fora de dúvida que essa análise do ser vem do trato da dedução geométri-
ca, pois que no próprio Livro IX o exemplo da Geometria é trazido para
ilustrar a teoria. Ali se diz: “As construções geométricas, também, são des-
cobertas por atualização, porque é pela divisão que nós as descobrimos. Se
a divisão já tivesse sido feita, elas seriam óbvias, mas como é a divisão, lá
estão somente potencialmente”. É evidente que as construções potenciais
são descobertas por serem atualizadas.
Entretanto, uma vez edificada uma teoria Metafísica, ela rebate sobre
as ciências particulares – neste caso, a Geometria - – para esclarecer-lhe
os princípios e dar sentido ao todo. A doutrina aristotélica dos objetos ma-
temáticos – como é exposta no final do Livro XII de sua metafísica – é
uma explicação de sua doutrina da analogia do ente. A abstração atua so-
bre o objeto geométrico, mediante a sua peculiar thesis (posição), e o põe
em separado, substantiva-o e faz dele objeto de consideração. E, assim, o
eidos platônico evolui em morphe aristotélica. Da mesma forma, diante de
um objeto singular, a Aritmética retém só o que considera como unidade
individual: põe (thesis) o um como número.
Dir-se-á que Julián Marías mostra muito bem, em seu trabalho citado,
como a Filosofia grega deu sentido aos objetos matemáticos, interpretando-
-os à luz das teorias mais amplas: as Metafísicas. Aqui nos propusemos a
percorrer de novo o caminho, tão natural aos gregos, para chegar a tal. Isto
é, a subida dos sensíveis até as regiões eternas do conhecimento noético.
O livro que chegou até nós, documentando a forma postulacional da
Geometria, é o de Euclides, posterior a Aristóteles. Porém, já foi dito que
os elementos não são um livro original, mas uma ordenação dedutiva lógi-
ca de algo já existente. Não sabemos até que grau os diversos elementos,

72
aperfeiçoando-se de mão em mão, teriam chegado a uma forma postula-
cional perfeita, mas, sem dúvida, nos anos que se seguiram até Aristóteles,
a Matemática adquiriu cada vez mais seu caráter postulacional. A prova é
a existência do tratado de Theudios, citado por Proclus, e que, sem dúvida,
era o tratado de Geometria em uso na Academia, no tempo de Aristóteles.
Assim, é plausível que Aristóteles se tenha entusiasmado com esse caráter
novo da Matemática, isto é, o de um saber que parte de princípios e pos-
tulados simples e desdobra-se em teoremas, num sistema completo – todo
ele contido, em potência, nos seus princípios.
Na sua Geometria, Euclides22, a partir de 23 definições, entre as quais
se encontram as três noções fundamentais da Geometria – ponto, reta e
superfície –, as nove noções comuns sobre grandezas e os cinco postulados
(proposições fundamentais primeiras), demonstra os vários teoremas da
Geometria. Postulou como verdadeiras as cinco proposições fundamentais
que enunciam relações entre as noções comuns e deduziu as outras segun-
do regras lógicas.
Essa é a forma que se chama, hoje, de sistema dedutivo postulacio-
nal. Entretanto, há uma diferença fundamental. No sistema de Euclides, os
postulados são tidos como verdades evidentes por si mesmas, assim como
as definições, nos sistemas dedutivos modernos, os postulados são substi-
tuídos por axiomas que podem ser simplesmente aceitos por conveniência
ou convenção.
Elementos de geometria, de Euclides (330 a.C. - 270 a.C.), de fato é o
maior best-seller da história. Toda a humanidade aprendeu Geometria neles
e, até hoje, os tratados de Geometria elementar não são mais que adapta-
ções, mais ou menos fiéis, do original euclidiano. Sabe-se que Euclides
foi um dos primeiros mestres do Museu de Alexandria, porém, de acordo
com Proclus, foi ele discípulo da Academia Platônica. De fato, nada pode
estar mais de acordo com a teoria platônica das ideias que os elementos,
de Euclides, compilação que foi dos de Hipócrates ou dos de Theudios, to-
dos eles pertencentes à Academia, cujos tratados teriam sido, sem dúvida,
livros de texto dos discípulos de Platão. Assim sendo, é propositadamente
que incluímos aqui a geometria como obra da Academia e não do Museu
de Alexandria, para onde Euclides se transferiu em sua velhice.
Os elementos são divididos em 13 livros, cujos conteúdos são os se-
guintes:

22 EUCLIDES. Elementos de Geometria. In: Científicos Griegos. Madri: Aguilar,


1970.

73
• Livros I e III: Geometria plana, incluindo-se, no Livro I, as três
noções fundamentais e as cinco noções comuns com as quais são
construídos os cinco postulados. Desses, o quinto, o célebre postu-
lado das paralelas, serviu para definir as várias Geometrias: eucli-
dianas e não euclidianas.
• No Livro II, há o que se poderia chamar de uma Álgebra geométri-
ca, mas nada de semelhante a uma Geometria analítica.
• O Livro III trata dos círculos e, o Livro IV, dos polígonos regula-
res.No Livro V é representada a teoria das proporções aplicáveis
às grandezas incomensuráveis, a qual salvou a harmonia perdida
pelos pitagóricos, e, no Livro VI, faz-se a aplicação dessa teoria à
Geometria plana.
• Os Livros VII a X não tratam mais de Geometria, mas, sim, de Arit-
mética, isto é, de números primos ou primos entre si, múltiplos, pro-
gressões e dos tópicos que ainda hoje aparecem na Aritmética ele-
mentar.No Livro X, Euclides trata das chamadas linhas irracionais,
isto é, linhas cujos parâmetros são incomensuráveis entre si.Os Li-
vros restantes, XI e XIII, tratam de Geometria sólida e da aplicação
do método da exaustão à medida de círculos, esferas e pirâmides.
Em 348 a.C. morreu Platão, porém a sua Academia teve a incrível e
prolongada duração de 900 anos, pois só desapareceu com a queda do
Império Romano. Aristóteles morreu em 322, um ano após a morte de seu
antigo aluno, Alexandre Magno. O seu Liceu continuou com seu amigo
Teofrasto (372 a.C. - 287 a.C.) e, depois, com Estratão, que morreu em
270 a.C., porém foi perdendo importância até esvair-se. No século I a.C.,
Andrônico de Rodes recolheu as já esquecidas e quase perdidas obras de
Aristóteles e, com isso, despertou novo interesse no aristotelismo – o qual
sobreviveu muito após o desaparecimento do Liceu. A Andrônico se deve
o título metafísica à Filosofia Primeira de Aristóteles, então sem título,
cujos volumes foram classificados, depois (meta) da Física.
Theon de Alexandria (século IV d.C.) reescreveu a obra de Euclides e
seu manuscrito foi a base de todos os textos, quer em grego quer em tra-
dução, publicados até o nosso século. As primeiras traduções foram para
o árabe, em cerca de 800 d.C. A primeira tradução latina foi feita do árabe
por Adelardo de Bath, por volta de 1120. A primeira tradução direta do gre-
go foi feita por Bartolomeu Zamberti, em 1505. A melhor tradução atual é
para o inglês, por T. L. Heath, the thirteen books of euclid’s elements,
com introdução e comentários, publicada em Cambridge, em 1908.

74
Assim, o conhecimento teórico da natureza surge indelevelmente liga-
do às matemáticas gregas – especialmente a Geometria – sob a égide de
uma “visão” do espírito. Por isso não é de se estranhar que o processo do
conhecimento científico ocidental tenha-se desenvolvido paralelamente à
evolução das Matemáticas. Com a ideia de “salvar os fenômenos”, como
se verá adiante, paulatinamente as teorias vão deixando de ser simples
formas de contemplação das proporções harmoniosas dos números e fi-
guras geométricas, para passar a ser um instrumento de conhecimento da
natureza. Mas, para tanto, a própria natureza teve de se amoldar a tal tipo
de conhecimento, isto é, matematizar-se.
Em suma: a física platônica, como expressa no timeu, é pitagórica e se
constitui como dianoia, porque envolve ideias de formas geométricas e de
proporções harmoniosas. Mas a Física aristotélica é considerada, de certa
forma, avessa às matematizações. Aristóteles não empregou Matemática,
mas utilizou, como instrumento da procura da verdade, a Lógica. Por outro
lado, pode-se defender que sua Metafísica, da realidade como potência e
ato, corresponde à forma postulacional da Geometria euclidiana.
Essa aproximação entre a Metafísica e a Matemática gregas, aqui su-
gerida, enfatiza a tese, aqui defendida, de que o aparecimento da maneira
teórica de pensar, na Grécia, durante o século VI a.C., foi que permitiu
o processo de matematização da natureza que se está tentando historiar.
Isto é, a compreensão dos entes matemáticos como modelos da realidade
última permitiria exprimir os fenômenos naturais em números, figuras e
fórmulas matemáticas, contudo, os atomistas gregos não tentaram mate-
matizar a natureza. Para eles, a natureza seria constituída tão somente por
corpúsculos indivisíveis e vazios desprovidos de qualidades sensoriais e
somente identificáveis por suas formas, pesos e movimento. Entretanto,
quando o atomismo foi retomado pela ciência moderna, tais formas, pesos
e movimentos foram quantificados como dimensões, massas e velocida-
des, o que veio a servir de base para uma total e completa matematização
da Física.

75
76
III) A ATUAÇÃO SOBRE A NATUREZA

a) Epistéme helenística e magia egípcia


Na época em que Euclides escrevia seus elementos, o centro de gra-
vidade da cultura helênica passava de Atenas para Alexandria. Alexandre
Magno (353 a.C. - 323 a.C.), que teve como preceptor Aristóteles, foi acla-
mado, aos 21 anos de idade, no Congresso Pan-Helênico de Corinto, co-
mandante de um grande exército e, nessa qualidade, conquistou quase todo
o mundo conhecido: a ecumene, como se chamava. Em 331 a.C., Alexandre
conquistou o Egito e fundou Alexandria no delta do Nilo. Morreu com ape-
nas 30 anos de idade. Quando Ptolomeu Soter (323 a.C. - 285 a.C.), sagra-
do faraó do Egito em 305 a.C., filho de um general de Alexandre, fundou
o Museu em Alexandria, iniciou-se o que veio a se chamar de Escola de
Alexandria.
Euclides, que deixara a Academia de Platão por cerca do ano 290 a.C.,
foi um dos que pertenceram a essa Escola. Era também, do Museu, Aris-
tarco de Samos (310 a.C. - 230 a.C.), que, observando o ângulo entre o
Sol e a Lua – quando essa aparece durante o dia, na fase de meia-lua – e
considerando que os diâmetros aparentes de ambos os astros são pratica-
mente iguais, avaliou a distância relativa entre a Terra e a Lua e a Terra e o
Sol. Assim, o Sol, achando-se muito distante tanto da Terra como da Lua,
parecia de diâmetro semelhante ao da Lua porque era muito maior do que
aquela. Tudo isso levou Aristarco de Samos a concluir que não seria lógico
que a Terra fosse o centro do Universo, mas sim, o Sol. O heliocentrismo,
entretanto, era difícil de ser compreendido pelos gregos, em vista da obser-
vação das estrelas fixas que giravam, evidentemente em 24 horas, em torno
da Terra. Por outro lado, se a Terra não estivesse no centro perceber-se-ia
o efeito de sua excentricidade no movimento das estrelas.
Havia ainda, em Alexandria, Eratóstenes (276 a.C. - 195 a.C.), que
mediu, com precisão espantosa, o raio da Terra pela observação do com-
primento da sombra de uma haste em Alexandria enquanto o Sol estava a
pino em Assuan. Pela sombra, calculou que, nesse momento, o ângulo da
distância zenital do Sol, em Alexandria, era igual à 50ª parte da circunfe-
rência terrestre. Sabia ele, pelo tempo de percurso das caravanas entre as
duas cidades, que a distância entre elas era de cinco mil estádios. Portanto,
o comprimento do meridiano terrestre era de 250 mil estádios. Acertou
com precisão incrível, dada a precariedade das medidas que fez.

77
Arquimedes de Siracusa (287 a.C. - 212 a.C.) não pertenceu direta-
mente à Escola de Alexandria, mas lá estudou e mantinha com ela contato
estreito não só por visitas esporádicas, como também por ter sido amigo de
Eratóstenes. Foi ele o precursor da Física, como a entendemos hoje, pois
foi o iniciador do estudo do movimento como simples mudança de lugar e
não como transformação física.
Um dos primeiros tratados de Arquimedes é sobre uma teoria das má-
quinas simples – alavancas, planos inclinados, parafusos, manivelas e polias
– as quais já vinham sendo utilizadas na técnica, desde épocas remotas, po-
rém, sem se saber por que funcionavam eficientemente. Trata-se do tratado
sobre o equilíbrio dos planos, no qual Arquimedes, partindo de postula-
dos sobre a noção de centro de gravidade, demonstra à maneira geométrica,
uma série de proposições pelas quais explica-se como as máquinas simples
tornam possível multiplicar uma pequena força a fim de efetuar trabalhos
portentosos. Note-se que Arquimedes considera tais máquinas sob seu as-
pecto ideal. Não se preocupava com sua matéria e detalhes construtivos,
nem com seus pesos próprios ou como as forças que lhe são aplicadas e
nem mesmo em que consistia fisicamente o ponto de apoio (fulcro). Suas
máquinas exprimiam-se em relações matemáticas, tal como se faz na atual
Mecânica Racional. Não se tratava, portanto, de uma aplicação da ciência à
solução de problema da técnica, mas, pelo contrário, do desenvolvimento de
teoria científica inspirado em questões técnicas. Isto, curiosamente, aproxi-
ma Arquimedes dos métodos modernos de um Galileu.
Da mesma forma, em seu tratado sobre o equilíbrio dos corpos flu-
tuantes, enuncia o até hoje válido Princípio de Arquimedes, dando início
à Hidrostática como parte da Mecânica Racional. No Livro I deste trata-
do, Arquimedes, estudando o equilíbrio dos corpos submersos, adota um
ponto de vista aristotélico, pois supõe os pesos convergindo para o centro
da Terra. Portanto, as superfícies dos líquidos formariam esferas que pode-
riam ser divididas em setores cônicos, cujas bases fossem a superfície do
líquido e, o vértice, o centro da Terra. Contudo, no Livro II, ele abandona
essas ideias e prossegue suas investigações admitindo os pesos dirigidos
segundo paralelas verticais, como o que se faz modernamente. De qual-
quer forma, nesse tratado Arquimedes reafirma o seu método de estabele-
cer leis estáticas e hidrostáticas de forma inteiramente matemática. Aliás,
um dos trabalhos mais conhecidos de Arquimedes é uma carta a seu amigo
Eratóstenes expondo, com vários exemplos, o seu método de demonstrar
teoremas geométricos a partir de proposições envolvendo noções mecâni-
cas, como a de centro de gravidade23.
23 ARQUIMEDES. El Método. Madri: Alianza Editorial, 1980.

78
Além da enorme criatividade, estabelecendo a Estática a partir da Geo-
metria e demonstrando inúmeros teoremas da Geometria, por ele formu-
lados, Arquimedes contribuiu também de forma genial para a Aritmética,
desenvolvendo a noção de número e de enumeração. Mostrou a capacida-
de do sistema numérico de enumerar qualquer quantidade por maior que
fosse. Mostrou que seria possível contar o número de grãos de areia que
poderiam encher todo o volume da Terra e, mais ainda, que poderia enu-
merar grandezas inclusive da magnitude do universo. Daí o sugestivo títu-
lo do tratado arquimediano sobre números, o contador da areia, no qual
ele mostra como é possível representar, por número, qualquer grandeza ou
dimensão por maior que fosse.
Pertenceu também, ao Museu de Alexandria, o grande matemático
Apolônio (262 a.C. - 190 a.C.), que por volta do ano 200 a.C. mudou-se
para Pérgamo. Foi lá que ele compôs seu tratado sob as cônicas, no qual
ele define e estuda as propriedades das curvas que até hoje se chamam
parábolas, elipses e hipérboles.
O Museu de Alexandria trouxe, ao campo da cultura, uma novidade:
a especialização. Seus membros são conhecedores profundos de aspectos
particulares da realidade: astrônomos, matemáticos, médicos, ao lado de
filósofos e poetas. Todos sob estipêndio do governo egípcio – como dir-
-se-ia hoje.
Completando o quadro, os administradores da Escola, que eram sacer-
dotes egípcios, continuavam a tradição de magia da religião egípcia, com
seus cultos esotéricos, seus mistérios e, principalmente, a preocupação de
poder atuar magicamente sobre a realidade. Não se estava mais no domí-
nio da lei inflexível da moira, superior aos desígnios dos homens e dos
deuses, mas, no dos mistérios egípcios, no qual era possível o atuar mági-
co e propiciatório dos homens sobre o mundo, inclusive o poder mágico
de “fabricar” deuses, isto é, dotar ídolos de atributos mágicos Provavel-
mente essa atmosfera mágica influenciava a muitos sábios de Alexandria,
afastando-os dos contemplativos atenienses e lançando-os em direções da
completa atuação, visando a transformação da realidade.
É essa, sem dúvida, a origem da alquimia ocidental que se praticava
então em Alexandria e que, dali, se estendeu por todo o ocidente, quer atra-
vés da tradição helenística quer, mais tarde, através dos árabes. Tratava-se
de receitas reveladas por personagens divinos (como o deus dos escribas
Thoth, identificado com o seu correspondente grego Hermes) a certos elei-
tos que deveriam manter secretos os conhecimentos recebidos. Portanto,
confundiam-se as ideias de atuação sobre a natureza, transformando os

79
metais “vis” no metal “nobre”: o ouro, com a obtenção de uma perfeição
interna, a qual permitisse a eleição dos deuses e a revelação dos segredos
da natureza. Ambas essas atuações, imersas na atmosfera de segredo pró-
pria aos mistérios dominante no Museu, lá estavam presentes.
Da mesma forma, a astrologia era praticada em Alexandria com a in-
tenção de domínio sobre a natureza por parte daqueles a quem Thoth reve-
lara os segredos. Os mais antigos documentos mágicos, tanto de alquimia
como de astrologia, e que datam de meados do século II a.C., fazem parte
do que se chama hoje a “literatura hermética”.
Esses escritos constituem, na realidade, o enquadramento das cren-
ças egípcias na cultura helenística. Eles trouxeram, portanto, para a teo-
ria grega, um elemento estranho a ela e comum às práticas mágicas: a
atuação sobre o mundo com a intenção de modificar os acontecimentos.
Estranhamente ao espírito grego, esses escritos se apresentaram não como
resultado de observação, mas como revelação divina de segredos da natu-
reza. Constituem-se, portanto, como ciência oculta, na expressão moderna.
Pressupunham, enfim, uma proximidade entre aqueles que a praticavam e
as divindades, proximidade essa que era conseguida através de conduta
ascética.
Às antigas receitas mágicas de astrologia, alquimia e matemática vieram
se acrescentar, entre os anos 100 e 300 d.C., uma coleção de diálogos entre
deuses do Egito sob forma helenizada: Hermes (Thoth), Asclépio (Imhotep),
Amon, Isis e Hórus e, também, o intelecto grego (Noûs), como intermediá-
rio entre a realidade absoluta e a alma humana. Nesses diálogos, pouco há de
egípcio e muito de Filosofia grega, posta sob uma forma diferente e promís-
cua. O primeiro deles, o poimandres, se inicia com as seguintes reflexões do
seu estranho autor, um personagem lendário, Hermes Trismegisto:
Um dia, quando começava a refletir sobre os seres, e meu pensamento plana-
va sobre as alturas, enquanto que meus sentidos corporais se embotavam [...]
apresentou-se a mim um ser de tamanho imenso [...] que me chamou pelo nome
e disse: “O que queres entender e ver e, pelo pensamento, aprender e conhecer?”
E eu disse: “Mas tu, quem és tu?” E ele: “Eu sou Poimandres, o Noûs da sobe-
ranidade absoluta. Sei o que tu queres e estou contigo por toda a parte.” E eu
disse: “Quero ser instruído sobre os seres, compreender sua natureza, conhecer
Deus. Oh!”, disse, “como desejo entender.” Ele me respondeu: “Guarda bem no
teu intelecto tudo que queres aprender e eu te instruirei24.”

24 TRISMÉGISTE, Hermès. Poimandres Traités (II-XVIII). Asclépius. Fragments


Extraits de Stobée (I-XXII). Fragments Divers. 4 vol. Paris: Société d’Édition Les
Belles Lettres, 1945. (Edição bilíngue em francês e grego).

80
Nesse tom, Poimandres revela a criação do mundo pela separação ra-
dical da luz e das sombras. O mundo luminoso é o das potências inumerá-
veis e o das sombras é o dos elementos: fogo e ar, água e terra, postos em
movimento pelo logos querendo imitar o mundo arquétipo das luzes. Deus
é o Noûs-pai, e ao Noûs-demiurgo cabe criar as sete esferas celestes, cada
uma delas sede de um dos governadores do destino. O logos, em conjunto
com o Noûs-demiurgo, põe em movimento as esferas celestes e, desse mo-
vimento, surge a natureza.
O homem arquétipo é criado pelo Noûs-pai à sua imagem e semelhan-
ça. Dessa forma, ele, homem, deseja também criar. Para isso, penetra nas
esferas do Noûs-demiurgo e, partindo-as, precipita-se sobre a natureza, a
qual o recebe amorosamente e é fecundada por ele. É assim que aparece a
humanidade terrena constituída por seres de dupla natureza. Quanto ao cor-
po, são mortais, porém imortais, à semelhança do homem-arquétipo, quan-
to à alma. Dessa dupla natureza resulta ser o homem escravo do seu desti-
no, pois que esse é regido pelas esferas celestes, porém, ao mesmo tempo,
é senhor dele, pois que pode dominá-las. Pela procriação, a humanidade
multiplica-se. Aqueles que vivem segundo o corpo recebem a morte como
castigo. Pelo contrário, os que vivem segundo o homem-arquétipo ga-
nham a imortalidade. A alma imortal desses últimos reúne-se ao Noûs-pai,
no qual há vida e paz, tornando-a divina.
Observe-se que, apesar da semelhança com as cristãs, a gênese, a An-
tropologia e a escatologia herméticas são, através de inspiração platônica
e órfica, de origem essencialmente grega com uma contribuição mínima da
religião egípcia. Entretanto, a literatura hermética além de ser constituída
pelos tratados sapienciais do corpus hermeticum, o é, também, pela série
de papiros sobre Alquimia, magia e Astrologia, provenientes da tradição
oral egípcia mencionada.
O Museu sofreu, em sua história, vários acidentes desastrosos, inclu-
sive o incêndio da biblioteca, durante a ocupação romana em 48 a.C., sob
Júlio Cesar, quando reinava Cleópatra no Egito. Porém, a biblioteca foi
restaurada e a função da Escola continuou, mesmo depois do aparecimento
do cristianismo.
Em resumo, a contribuição da Grécia clássica para a constituição da
ciência foi o estabelecimento da forma de saber que se chamou de teoria.
Entretanto, essa teoria requeria uma atitude de pura contemplação inativa
da realidade, o que não é próprio da atividade científica atual. Pelo con-
trário, a partir do Renascimento, a ciência vem-se pondo como um saber
atuante sobre o mundo. É bem possível que o germe dessa característica

81
tenha já despontado em Alexandria. O elemento mágico presente na litera-
tura hermética teria assim contribuído para o despontar da ideia de que era
possível ao homem (pois que sua alma era de natureza divina) atuar sobre
o mundo no sentido de modificá-lo. A teoria é puramente contemplativa,
mas a magia pretende ter a possibilidade de alterar os acontecimentos,
com a ajuda de poderes sobrenaturais, através da decifração dos segredos
da natureza.
Note-se, porém, que a atuação sobre a natureza preconizada pelos sá-
bios da Alexandria vinha-se estabelecendo através de matemáticos que
a ela pertenciam: Aristarco, Eratóstenes, Arquimedes e, finalmente, Pto-
lomeu. Esses, diferentemente dos matemáticos gregos clássicos, que se
limitavam a admirar a beleza das proporções harmoniosas dos números
e figuras geométricas, aplicavam os símbolos matemáticos para medir e
analisar fenômenos naturais. É de se admitir que aí está o início do longo
processo de matematização da natureza, isto é, a expressão dos fenômenos
naturais por meio de símbolos matemáticos, visando medi-los, emiti-los e,
quiçá, modificá-los segundo as conveniências humanas.
Porém, foi sob o reinado do sábio imperador romano Antonino Pio que
esse processo de matematização da natureza apareceu mais explicitamente
na obra de Cláudio Ptolomeu, astrônomo, físico, matemático e geógrafo
que fez parte do Museu de Alexandria, provavelmente, entre 127 e 151 da
era cristã. Sua obra máxima é a megale syntaxis, porém seu trabalho de
geometrizar os céus e a Terra completou-se com sua geografia: geogra-
phike hyphegesis.
A megale syntaxis – ou mathematike syntaxis25 (Composição Mate-
mática) – é conhecida posteriormente pelo título da sua tradução árabe al-
magesto. Essa obra faz uma síntese de tudo o que se sabia, até a época, em
relação à Astronomia. Apresenta primeiro os métodos matemáticos para
resolver, por meio da Geometria helenística, problemas de Astronomia, in-
clusive tabelas de arcos e cordas; descreve e dá instruções para construção
do astrolábio, o instrumento usado na época para medida das alturas das
estrelas; expõe as hipóteses da Terra estacionária e das esferas cristalinas
e seus movimentos diários; descreve os movimentos do Sol e da Lua se-
gundo a sua concepção; calcula os diâmetros e as distâncias entre o Sol,
a Lua e a Terra; e, por fim, trata das estrelas fixas observadas – segundo
suas constelações – dando a latitude e a longitude de cada uma delas.O
sistema de Ptolomeu mantém a ideia da Terra no centro do universo e
25 PTOLÉMÉE, Claude. Mathematike Syntaxis – Composition Mathematique. Tradu-
ção de M. Halma.Paris: H. Grand, 1813. (Edição bilíngue em grego e francês).

82
funda-se principalmente nas observações de Hiparco de Niceia (190 a.C.
- 126 a.C.), o qual, além de observar o movimento dos astros e catalogar
a posição de mais de 800 estrelas, concebeu a solução para o problema do
movimento dos planetas e do Sol com movimentos circulares em torno da
Terra. Para explicar que, entre os equinócios de verão e inverno há 180
dias, mas somente 178 entre os solstícios, Hiparco colocara a Terra fora
do centro da órbita do Sol. Também imaginou uma certa excentricidade na
órbita da Lua para explicar a variação de seu diâmetro aparente. Ptolomeu
admitiu, por sua vez, para explicar as irregularidades dos movimentos pla-
netários em torno da Terra, que os astros se moviam ao longo de órbitas
circulares secundárias (epiciclos), cujos centros moviam-se nos círculos
principais (deferentes) que estavam próximos da Terra.
O movimento do Sol era explicado colocando-o na circunferência de
um epiciclo (pequeno círculo), o centro do qual se movia uniformemente
em torno da circunferência do círculo deferente, levando, para completar
o percurso, um ano tropical (período da rotação aparente do Sol de um
equinócio ao mesmo equinócio). O centro do círculo deferente coincidia
com o centro da Terra.
Para explicar o movimento dos planetas, o sistema exigia que os seus
centros fossem situados excentricamente à Terra. Para o caso da Lua, o
movimento do centro de seu epiciclo era uniforme em relação ao ponto
situado no lado oposto da Terra e à igual distância do deferente da Lua.
Assim, o centro do deferente da Lua movia-se num círculo em movimento
retrógrado em torno do centro da Terra. Essa conjugação engenhosa per-
mitiu a Ptolomeu organizar tabelas de previsão da posição dos astros, cuja
precisão era suficiente para a época.
Tornou-se possível, também, determinar a posição do observador na
Terra a partir da posição dos planetas no céu, isto é, pelo cálculo das coor-
denadas latitude e longitude do local. Os eclipses puderam ser previstos
com erro de aproximadamente duas horas. Por isso, o sistema de Ptolomeu
foi considerado correto e utilizado durante 15 séculos.
Note-se, entretanto, que para os gregos esse sistema matematizado –
como foi mencionado antes – não seria necessariamente verdadeiro. Sua
intencionalidade era a de salvar os fenômenos, pois a verdade era a dos
filósofos, para os quais os fenômenos eram enganosos. Aos astrônomos
só cabia articular hipóteses úteis. Essa atitude continuaria até Copér-
nico e estaria presente nos processos de Galileu, pois esse era acusado
de pretender impor o que “pensava por sua própria mente” às verdades
reveladas.

83
Porém, a outra obra de máxima importância, para o processo de mate-
matização da natureza foi a geografia de Ptolomeu, que, como o alma-
gesto, foi utilizada sem contestação até que, na época das grandes nave-
gações portuguesas e espanholas, no caminho para a Índia e na descoberta
da América, sofreu o impacto da confrontação com o real. A geografia,
de Ptolomeu, parte da de Marino de Tiro, de quem se sabe somente através
de Ptolomeu. Inicia ele, a geografia, dizendo:
Marino estudou com grande zelo todos os escritos anteriores e corrigiu os dados
que seus autores, e também ele, haviam admitido como certos [...] Conservei
de Marino o que não necessitava correção e proponho-me a esclarecer, fazendo
mais inteligível, o que ele deixou obscuro, para o que aproveitarei narrações
modernas, colocando os lugares no mapa melhor dispostos.
Tanto Marino como Ptolomeu concebiam a Terra como esfera que po-
dia ser dividida em paralelos e meridianos, definindo latitudes e longitudes
em graus, sendo o meridiano de Rodes considerado o central. Infelizmente
não subsistiram mapas: nem de Marino nem anexos à geografia de Ptolo-
meu, mas sabe-se que eles eram compostos a partir das coordenadas geo-
gráficas dos lugares, as quais subsistiram anotadas no texto da geografia.
Algumas poucas delas foram estabelecidas astronomicamente, outras fo-
ram obtidas calculando-se as distâncias, a partir do tempo necessário para
percorrê-las e reduzindo-as a graus. Para isso, seria necessário o conhe-
cimento do comprimento do meridiano (o qual, dividido por 360, daria o
comprimento de um grau). A medida de Eratóstenes era correta: 250 mil
estádios. Porém, Ptolomeu preferia uma estimativa mais recente de Possi-
dônio (c. 135 a.C. - 50 a.C.), calculada a partir do tempo necessário para
a viagem de navio de Rodes a Alexandria. O que dava somente 180 mil
estádios. O módulo de 2° para cada mil estádios foi adotado e, portanto, os
mapas compostos a partir dos dados de Ptolomeu, feitos depois que a sua
geografia foi reencontrada no fim da Idade Média, faziam supor um ta-
manho da Terra bem menor que o real. Eram mapas indicando paralelos de
5° em 5°, representados como linhas paralelas ao equador, e meridianos,
também de 5° em 5°, que convergiam para o norte. Mostravam o mundo
conhecido: numa longitude de 180°, da Ásia ao Estreito de Gibraltar, que
corresponderia a 90 mil estádios pelo módulo de Possidônio; e cerca de
40° de latitude (20 mil estádios), de Thule (63° N) até a Etiópia, ao sul, na
altura do Trópico de Câncer (23° N). O restante era desconhecido.
Convém frisar, aqui, que muito dessa Geografia de Marino e Ptolo-
meu deve-se ao romano Estrabão, nascido no ano 62 a.C., o qual descreve
como já no século II a.C., Eratóstenes e Hiparco mostraram como traçar

84
a rede retangular de meridianos e paralelos e sobre ela desenhar o mapa,
a partir das determinações das coordenadas latitude e longitude de diver-
sos pontos. Observe-se que, assim, houve uma geometrização do mundo,
aparecendo esse como esfera, dividida em coordenadas e apropriada para
a atuação humana.
Com a ideia de atuação sobre o mundo, deu-se, porém, o divórcio da
ciência e da Filosofia, em Alexandria. A primeira adquiriu uma rigoro-
sa atividade própria, mas parece que perdeu sua fonte inspiradora. De-
clinou suavemente, sem movimentos renovadores, sem aquele furor de
investigação que vinha da Filosofia grega, até desaparecer num mar de
estagnação. A segunda não desapareceu, mas desinteressou-se totalmen-
te da natureza. Formaram-se escolas neopitagóricas e neoplatônicas cujo
interesse dominante estava em uma realidade fora do contraditório e de-
cepcionante mundo sensível. Para eles, como para os pitagóricos e para
Platão, o que fosse real só poderia ser atingido pela visão teórica. Percebe-
-se como essa atitude filosófica pode ser a origem da doutrina que domi-
nou os primeiros séculos do cristianismo: a gnose. Essa era a crença de
que, para certos eleitos, seria possível o conhecimento de uma realidade
suprassensível que, em vez de sistema de ideias das Filosofias da época,
era constituída por forças cósmicas personificadas em espíritos, anjos e
demônios, tanto da mitologia pagã como da tradição judaica, os quais
tinham, em suas mãos, o destino do mundo e da humanidade. A realidade
última – Deus – era por demais perfeita para se imiscuir com as coisas
humanas e, muito menos, com a criação e a proteção desse mundo. En-
tretanto, como a alma humana era de natureza divina, seria possível, por
uma aplicação metódica da inteligência que culminasse no êxtase místico,
o conhecimento da realidade suprassensível. Vê-se, portanto, que a gnose,
embora de origem cristã e judaica, pertence a uma atmosfera intelectual
nitidamente helenística.
Nesse ambiente floresce uma doutrina que necessita ser mencionada,
embora não tenha contribuído diretamente para o desenvolvimento da
ciência moderna. É o neoplatonismo, o qual, entretanto, teve um grande
papel no que chamaremos concepção mágica da natureza e que foi pri-
mordial para o estabelecimento do que, adiante, chamaremos de “ciência
renascentista”. Nessa ordem de ideias, a natureza era concebida como que
movida por uma força anímica de caráter mágico, sobrenatural. Ver-se-á
adiante que, tanto o hermetismo alexandrino como o neoplatonismo, re-
descobertos em Florença no século XVI, formaram como que as condições
de possibilidade do pensamento precursor da ciência moderna.

85
O neoplatonismo é o resultado da confluência de ideias oriundas de
várias partes do mundo antigo convergindo em Alexandria, a encruzilhada
do Leste e do Oeste. Ele é constituído por uma base filosófica platônica e
pitagórica (daí o seu teor nitidamente místico). Porém, sofre forte influên-
cia do pensamento religioso persa, babilônico e judaico, ao mesmo tempo
que dos ritos egípcios e do cristianismo primitivo, tendo, como pano de
fundo, a cultura helenística. Seu primeiro pensador foi um tal Amônio Sa-
cas, mas foi Plotino (204-270 d.C.) que o sistematizou na sua obra máxima
as enéadas e que se fez conhecido em todo o Império Romano, quando
Plotino mudou-se para Roma, em 243. Seu discípulo Porfírio divulgou-o
até nosso tempo.
O neoplatonismo concebe a realidade como uma trindade: Um, Noûs e
Alma. O Um, que se assemelha muito ao Ser único de Parmênides (asse-
melhado a uma esfera em sua perfeição) é semelhante a Deus, entendido
esse como o bom, o bem, a bondade. Entretanto, é maior que o Ser, pois
é inefável, indefinível e onipotente. Daí o caráter místico da doutrina. O
Noûs é a mente, o espírito no sentido intelectual. Se o Um fosse entendido
como o Sol, que prevê sua própria luz, o Noûs seria a luz através da qual o
Um se vê a si próprio. Noûs é, portanto, já um conhecimento, enquanto o
Um está acima de todo conhecimento. Noûs é como se fosse uma imagem
mental do Um, Por fim, a Alma participa do Noûs e do mundo dos sentidos,
o qual, entretanto, muito de acordo com o platonismo, não passa de sonhos,
ilusão. É, portanto, o mundo sensível uma emanação inferior da Alma. A
natureza pertence a essa ilusão, embora não se possa dizer que seja má. É,
pelo contrário, boa e bela no esquema das coisas como devem ser, mas não
tem realidade enquanto imagem de algo que existe realmente na Alma.
Como foi dito da doutrina das ideias de Platão, o neoplatonismo tem
valor para a ciência na medida em que é um exemplo de como se pode fa-
zer teoria. Isto é, de como se pode pretender ver (com os olhos do espírito)
algo que estaria por trás de uma cambiante aparência sensorial. Este é o
verdadeiro sentido da palavra Physis que na concepção atual de “Física”,
mantém muito daquele seu significado original.
Foi na atmosfera do neoplatonismo que o imperador Constantino (272-
337) fez o Império Romano tornar-se cristão. Em 330, Constantino fundou
Constantinopla junto à antiga Bizâncio, onde está hoje Istambul, e ali esta-
beleceu sua capital. Desde muito, o Império Romano já se dividia em dois
grupos de províncias: as do Oeste, latinizadas e falando latim, e a do Leste,
compreendendo a Grécia, a Turquia, a Síria, a Palestina e o Egito. Esta
última região formava o mundo de tradição grega e, nela, a língua grega

86
dominava. Em 395, as duas partes do império separaram-se. A partir de
então, Bizâncio tornou-se centro do Império Oriental, porém Alexandria
permaneceu, até a conquista árabe em 639 como centro do cristianismo no
mundo grego.
Em 390, parte da biblioteca de Alexandria foi destruída pelo arcebispo
Teófilo, pois os sábios e sacerdotes pagãos de Alexandria entraram em
conflito com os cristãos, para quem o estudo das ciências era diabólico,
principalmente devido às suas conexões com a magia dos mistérios egíp-
cios. Em 415, Hipátia, a primeira mulher sábia da Antiguidade, foi morta
por monges fanáticos. Começou assim o fim da Escola. Em 642, ela foi
destruída totalmente pelo conquistador árabe. Foi esse o fim último da
ciência antiga.

b) A techné grega e a ars romana


O saber grego sobre a natureza, como já foi dito, é constituído por um
conhecimento teórico – por exemplo, a physica, a Meteorologia e os livros
sobre Biologia, como os desenvolveu Aristóteles, mas o é também por uma
techné: a Medicina, de natureza empírica, pois a Medicina, então, era o
único saber operativo sobre a natureza que se admitia capaz de controlá-la
e modificá-la. Pode parecer impróprio tratar de técnica e de Medicina num
livro em que se pretende história da matematização da natureza, contudo,
a história das técnicas vem mostrando uma tendência de aproximá-las das
ciências e, portanto, trazê-las para o domínio das Matemáticas.
A Medicina grega tem sua origem religiosa na seita dos sacerdotes
curandeiros, os asclepíades de Epidauro, adoradores do deus da Medicina,
Asclépio (em latim, Esculápio). A cura dava-se essencialmente pelo sono
, quando o deus aparecia aos doentes aconselhando remédios e processos
de cura, ou, por outra, os sonhos seriam interpretados pelos sacerdotes que
prescreveriam a cura. Em reconhecimento da cura, os doentes ofereciam
ao deus, um galo em sacrifício.
Ainda hoje se pode visitar, relativamente intato, o grande santuário de
Asclépio, em Pérgamo, que durou até o fim dos tempos romanos. Há uma
via sagrada de acesso a um propyleu (portal monumental) de entrada ao
recinto, no centro do qual há uma fonte sagrada de água curativa. Dela,
um túnel tenebroso, provavelmente cheio de cobras, às quais Asclépio se
incorporava, conduzia a um edifício redondo cuja finalidade era, prova-
velmente, a do repouso dos pacientes depois dos terrores que passariam
no túnel, significando adaptar-se para a cura. Lá se encontram as minús-
culas celas de “incubação”, onde os pacientes sonhavam suas curas. Do

87
outro lado, encontram-se as ruínas das stoas (colunatas, muitas vezes usa-
das como mercado), da biblioteca, do ginásio e do teatro, nos quais os
pacientes encheriam seu lazer, durante os longos períodos de cura. Aos
sacerdotes juntaram-se, com o tempo, os médicos leigos. Entre eles, fre-
quentemente encontrava-se, no Asclepieum de Pérgamo, no seu tempo, o
grande Galeno.
A compreensão teórica da Medicina fora tentada por Empédocles
(490 a.C. - 430 a.C.), ele mesmo um médico. Partira da ideia de que os
quatro elementos: o fogo, a água, o ar e a terra, assim como as quatro
virtudes a eles correlatos: o quente, o frio, o seco e o úmido, formavam,
em mistura, o corpo humano. A união dos elementos a fim de formar
um indivíduo, ou a sua separação a fim de formarem muitos a partir de
um, constituem a natureza, a qual é eterna pois que, para nascerem, as
coisas devem provir de outras preexistentes, e o morrer não é a destrui-
ção, mas a separação dos elementos. Diz Empédocles no seu poema peri
physeos: “E os elementos nunca cessam a sua contínua transformação,
algumas vezes unindo-se sobre a influência do Amor, para que tudo se
torne um, outros se afastando pela força hostil da Discórdia.” Baseada
nessa teoria, nasceu o que se chamou, na Grécia, de “Medicina Filosó-
fica”, pela qual as doenças, da mesma forma que as transformações da
natureza, eram provenientes das variações das influências dos elemen-
tos no corpo humano. A febre era um excesso de quente. Entretanto essa
Medicina preocupava-se mais em compreender o que era a doença do
que, propriamente, curar os doentes.
Entretanto, a Medicina grega entendida como techné – cujos tratados
foram, por fortuna, conservados na biblioteca de Alexandria e transmiti-
dos ao mundo bizantino e ao árabe – supunha, nos médicos, uma atitude
que, se por um lado, era oposta à atitude mental dos teóricos, por outro,
não fugia totalmente da teoria. Até hoje, quando classificamos os indiví-
duos naqueles de temperamento fogoso ou nos de espírito aéreo, segui-
mos a ideia de assemelhar estados e sentimentos humanos às virtudes dos
elementos ideados pelos filósofos gregos. Por outro lado, esses médicos,
apesar de conviverem com os sacerdotes nos santuários de Asclépio, não
participavam necessariamente das suas crenças mágicas, mas mantinham-
-se atentos a tudo o que acontecia, tomando nota de tudo que observavam
e formando, assim, as bases de um acervo de conhecimentos empíricos.
Finalmente, como em toda techné, faziam parte de uma comunidade de
profissionais ligados entre si por um juramento de fidelidade e uma norma
de comportamento exemplar.

88
Hipócrates, que nasceu na ilha de Cós, por volta de 450 a.C., foi um
dos primeiros instituidores dessa techné caracterizada pela fé na investiga-
ção, pelo desejo de que a própria experiência fosse útil aos outros e pelo
método de estudo baseado na observação dos fenômenos. Provavelmente,
os livros gregos de Medicina preservados são os da Escola de Cós. Entre
eles, existe um, a medicina antiga, que diz no seu prefácio:
Todos aqueles que procuram discutir a arte de curar em base a princípios: calor,
frio, umidade e secura, ou qualquer outra coisa que imaginarem – assim limitan-
do as causas das doenças e da morte entre os homens, a um ou dois postulados –,
não estarão somente errados, mas, também, deverão ser especialmente lastima-
dos porque se enganam no que vem a ser uma Techné26.
a medicina antiga está escrito em dialeto jônico, donde se conclui
que, mais uma vez, os jônios abraçaram um ponto de vista mais ligado às
coisas da natureza que aos entes do pensamento abstrato. É ainda, no pre-
fácio a esse livro, que o autor desconhecido traça a origem da Medicina na
preocupação pela alimentação, dizendo:
O fato é que a necessidade premente obrigou os homens a descobrirem a medi-
cina, observando que os doentes não seguiam o mesmo regime que os homens
de saúde. Para levar a questão ainda mais longe, creio que o próprio método de
vida e de alimentação adotado pelos homens de saúde de hoje tiveram de ser
descobertos [...] Experimentando sobre os alimentos, eles os cozeram e assaram,
misturaram e bateram, pondo alimentos puros e fortes em mistura com os mais
fracos, até que os adaptaram às possibilidades e à constituição dos homens. Pois
que admitiram que os alimentos que são demasiado fortes para a constituição
humana assimilar, trazem dores, doença e morte, enquanto que daqueles que
facilmente podem ser assimilados, vêm a nutrição, o crescimento e a saúde.
Essa era a atividade desses homens, contrária à atitude intelectualista
dos filósofos da escola ocidental. Se estes últimos vieram a contribuir para
o aparecimento posterior da ciência, pelo estabelecimento de um dos seus
fundamentos, a teoria coube aos médicos daquele tempo, lançaram as ba-
ses do método empírico. O protesto do prefácio da medicina antiga, con-
tra a influência das ideias de Empédocles na Medicina, é o primeiro sinal
de rebelião do espírito de investigação prática contra o puro pensamento
teórico.
Essas objeções faziam-se, primeiramente, contra o critério do basear-se
a Medicina em postulados. Corresponde a reivindicar, para a Medicina o
que se chama hoje de papel da ciência positiva (no sentido de empírica).
26 HIPÓCRATES. Tratados Hipocráticos. Madri: Biblioteca Clásica Gredos, 1983.

89
Em segundo lugar, objetava-se contra o fato de que os médicos que se-
guiam as ideias de Empédocles estavam subestimando as causas de morte
e da doença. É um protesto típico de um técnico, acostumado a lidar com
uma multidão de causas, contra a tendência intelectualista de tudo reduzir a
uma única causa. Em terceiro lugar, objetava-se não contra os sistemas teó-
ricos dos filósofos, mas contra a inadequação de querer que eles sobrepu-
sessem-se ao visível. Afinal de contas, uma técnica é um modo de conhecer
a natureza, se ela é bem-sucedida, é uma prova de que o técnico entendeu a
natureza apesar de ter obedecido não ao real ideal, mas ao empírico.
Por fim, a última objeção é que só os pacientes sofrem quando os mé-
dicos conhecem os postulados filosóficos mas ignoram a sua doença. Apa-
rece aqui uma atividade que ainda não tinha surgido: a ciência a serviço da
humanidade. É necessário que os médicos sejam fiéis ao método empírico,
mas eles devem saber que o seu primeiro dever é curar os doentes antes
mesmo de conhecer a doença.
E é assim que, na própria Grécia, encontra-se uma atividade humana,
a Medicina que corresponde exatamente ao que se chama hoje, a “ciência
a serviço da humanidade”. Se, por um lado, Pitágoras abriu as portas das
ciências formais e Parmênides estabeleceu o fundamento lógico sobre o
qual a ciência poderia ser fundada, por outro lado, os médicos hipocráticos
iniciaram, com a sua atividade técnica, um saber baseado na inferência in-
dutiva a partir da percepção sensível. Convém salientar, aqui, que eles não
pretendiam que a investigação se resumisse à percepção dos fatos. Não, eles
aconselhavam a partida dos fatos e a dedução posterior, controlada pela ope-
ratividade das conclusões. Veja-se como isso é explícito no capítulo 11 do
livro hipocrático cujo título é exatamente peri technés, em que o autor dis-
cute as dificuldades de conhecer as complicações internas do corpo doente.
Sem dúvida, ninguém que veja somente com os olhos pode conhecer algo do que
aqui foi descrito. É por isso que eu chamo esses assuntos de obscuros, mesmo
quando eles são julgados pela techné da medicina. Sua obscuridade, entretanto,
não quer dizer que eles nos possam governar, mas, pelo contrário, tanto quanto
possível, nós os governamos, e essa possibilidade é limitada somente pela ca-
pacidade do doente em ser examinado e dos pesquisadores em conduzir a pes-
quisa. De fato, é necessário bastante mais tempo e, portanto, maiores dores para
conhecer o mal que não pode ser visto pelos olhos. Porém o que escapa ao olhar
é dominado pelos olhos do espírito, e o sofrimento do paciente, devido a não ser
seu mal rapidamente diagnosticado, é falta, não do médico mas, da natureza do
paciente e da doença. O médico de fato, como não pode ver o mal com os olhos,
nem percebê-lo com os ouvidos, deve tentar localizá-lo pelo raciocínio.

90
E para localizar o mal pelo raciocínio, o autor hipocrático aconselha
o cuidadoso exame dos sintomas da doença e, ainda mais, quando esses
sintomas não aparecem, os médicos devem provocá-los, às vezes, até vio-
lentamente.
Sobre os sintomas das doenças, lê-se no tratado peri technés:
Pois a Medicina, sendo impedida, nos casos das doenças do fígado, dos rins
e de outros órgãos, de observar direta e perfeitamente a forma em que ocorrem
as coisas, ela consegue descobrir outros meios de atuar. Há a limpidez ou a rou-
quidão da voz, a rapidez ou a lentidão da respiração e o caráter dos excrementos
[...] que fornecem à Medicina os meios de inferir quais as condições da doença
que esses sintomas indicam.
No tratado os preceitos, diz o autor hipocrático:
Deve-se dar atenção, na prática médica, não tanto às teorias mas, à experiên-
cia combinada com a razão. Um saber verdadeiro é um conjunto de modos de
agir diante das coisas já aprendidas pelas sensações. Estaremos de acordo com
as teorias se essas se basearem em fatos e deduzirem suas conclusões de acordo
com os fenômenos.
Eis aí, bem caracterizada, a maneira de atuar típica das ciências apli-
cadas no mundo de hoje. Uma maneira de agir que deve se pautar, princi-
palmente, pela eficiência e pelo fato de que ela deve ser, sempre e neces-
sariamente, bem-sucedida. Por outro lado, é uma maneira de atuar baseada
em uma série de observações empíricas, mas pautadas por um raciocínio
lógico estribado em teorias comprovadas por fatos. Nada é mais “moder-
no”, na Grécia Clássica, que sua Medicina.
Uma outra techné grega que infelizmente não nos foi transmitida por
nenhuma literatura, mas veio a nós pelas ruínas de suas obras, é a Arquite-
tura. Inclua-se nela o que hoje chamamos de Urbanismo. Sendo a polis o
centro da cultura grega, a construção de cidades deveria ter sido, na Gré-
cia, algo de capital importância. Veja-se, por exemplo, a importância que
deu Epaminondas (418 a.C. - 362 a.C.), o agente da efêmera hegemonia
tebana, no planejamento a sua Megalópole com a qual seria estabelecido
o que conquistara. A mesma coisa fez Alexandre Magno ao encarregar o
arquiteto Denócrates de planejar Alexandria.
A cidade-estado-religião grega constitui-se ao redor de uma elevação
de terreno no topo da qual construía o templo – morada do deus protetor
– e fortaleza – lugar de defesa – como a famosa Acrópole ateniense. Nas
faldas da colina, havia o centro da atividade política e comercial da cida-
de: a agora, limitada pelas stoas (colunatas com um muro posterior), os

91
teatros e as palestras. Tudo isso era, evidentemente, planejado e construído
de acordo com as regras de uma techné estabelecida. Entretanto, as ruas
tortuosas que se seguiam feitas para o trajeto a pé e ladeadas por casas resi-
denciais pequenas e modestas não deviam, de forma alguma, ser o produto
do talento de profissionais hábeis, porém, não deixavam de seguir regras
gerais de uma techné transmitidas de geração a geração. Dessa forma, a
construção das cidades-colônias gregas, tanto na costa da Turquia como no
sul da Itália, foram cuidadosamente planejadas e executadas. Assim, por
exemplo, sabe-se que Hipódamo, no século V a.C., projetou e construiu,
entre outros, o Pireu, em Atenas, e a cidade de Mileto.
A Arquitetura grega concebia essencialmente estruturas de colunas,
vigas e paredes, com tetos de telhas, baseadas no uso inicial de um mate-
rial resistente à compressão e à flexão: a madeira. A utilização da pedra,
desde o calcário grosso até o mármore mais fino, é, assim, uma poste-
rior falsa utilização do material. Entretanto, a obediência à geometria e às
proporções das dimensões e disposições emprestam-lhe grandeza e har-
monia jamais suplantadas. O exemplo máximo dessa techné baseada na
teoria geométrica das proporções harmoniosas é o Partenon, reconstruído
na Acrópole ateniense por Ictinos e Calícrates, no ano 447 a.C., depois da
destruição persa.
Convém lembrar aqui que toda a construção e utilização da maquinaria
de guerra, tanto quanto da maquinaria utilizada na própria construção dos
edifícios ou na montagem das cenas de teatro, era da competência do ar-
quiteto. Esse fato constituiu-se como tradição que persistiu até os grandes
arquitetos renascentistas cuja glória e capacidade artística não se separava
da habilidade em conceber e construir artefatos de guerra.
Em 146 a.C., a Grécia passou à condição de província do Império Ro-
mano, apesar de algumas cidades, como Atenas e Esparta, continuarem
como civitates liberae. Deu-se então a transferência da cultura grega no
sentido da helenização de Roma. As filosofias do último período grego:
o epicurismo e o estoicismo foram então absorvidas integralmente e in-
tactas. O epicurismo foi transmitido a Roma no poema de Lucrécio, que
viveu entre 96 a.C. e 55 a.C., de rerum natura, muito mais poesia que
ciência ou criação filosófica. Cícero (106 a.C. - 45 a.C.) não só foi um dos
maiores responsáveis pela transferência de cultura da Grécia para Roma,
como também o maior agente de preservação e transmissão dos valores
culturais helenísticos para o ocidente europeu. Virgílio (70 a.C. - 19 a.C.)
transpôs para o latim a poesia épica grega, enquanto Horácio (65 a.C. 8
a.C.) transpunha a lírica. Sêneca, que viveu até o ano 65 da nossa era, foi

92
o principal divulgador da Filosofia estoica entre os romanos. Transcreveu
também para o latim as tragédias gregas, emprestando-lhes, entretanto,
seu estilo retórico por excelência e seu pensamento estoico. Marco Aurélio
(121-180) é o imperador filosófico, cujas meditações, escritas em grego,
são um último florescer do estoicismo. Assim, apesar da beleza estilística
e do brilhantismo da retórica, as letras e a filosofia romanas devem ser
vistas não como flores autóctones da cultura romana, mas como erupção
defasada da cultura grega em solo alienígena.
A scientia romana também não fez mais que compilar a epistéme gre-
ga. Um exemplo disso é a história natural de Plínio, o Velho (23-79)
que começou a vida como jurista, serviu nas legiões romanas na Germânia,
Espanha e Gália e terminou sua vida como enciclopedista. Sua história
natural compreende capítulos sobre Geografia, Antropologia, Fisiologia,
Zoologia, Botânica, Mineralogia e termina com Medicina. Nada tem esse
livro de criativo, porém compila e reúne o que havia de mais avançado
nesses campos até os tempos de Teofrasto.
Contudo, o poema de Lucrécio, de rerum natura, escrito no sécu-
lo I a.C., não é só uma compilação do atomismo grego, no contexto do
epicurismo. Ele põe em relevo a aparente contradição na concepção de
natureza, como algo eterno e perfeito e ao mesmo tempo sujeito à geração
e à corrupção. Os átomos seriam entidades indivisíveis, perfeitas e eternas,
movendo-se no vazio. Porém, esse movimento e o choque entre os átomos
produziriam as transformações naturais, a geração e a corrupção, a criação
de mundos novos e a destruição desses em catástrofes. Foi o reencontro
desse livro, durante o Renascimento, que levou ao atomismo moderno tão
essencial para a matematização da Física.
Mas, o mesmo não aconteceu com a outra raiz da cultura helenística;
a techné, que, ao se transpor para Roma, ganhou em valor e vigor, princi-
palmente à capacidade organizadora dos romanos. Um exemplo disso está
na Medicina romana que, continuando a hipocrática, baseando-se em co-
nhecimentos de Anatomia e Fisiologia que aquela não tinha, suplantou-a.
A Medicina grega fora trazida a Roma no século I a.C. por um tal Ascle-
píades de Bitínia. Um dos seus discípulos é Anfidius, cujo tratado sobre
a medicina parece ter sido o original de onde Celso tirou o seu.
No ano 50 da nossa era, o Egito foi anexado ao Império Romano e, por-
tanto, o último período da Escola de Alexandria pode ser considerado como
romano. Aliás, a predominância das technés, nessa época no Museu, está de
acordo com a presença romana. Uma dessas technés, a Medicina, voltava-se
para a pesquisa da natureza – colocando essa a serviço da prática cotidiana.

93
Um exemplo de tal saber foi a notável medicina de Galeno (130-200), o
qual frequentou a Escola de Alexandria por volta do ano 150 da nossa era,
e a quem se deve o desenvolvimento de conhecimentos de Anatomia e Fi-
siologia humanas que perduraram durante toda a Idade Média. Entretanto,
qualquer techné podia basear-se em teoria, como a Medicina de Galeno, que
era basicamente aristotélica, monoteísta e determinista. Por isso, concluía
ele, num compromisso entre a magia e Filosofia: os desígnios de Deus po-
dem ser postos em evidência pelos estudos da natureza. Assim, a função de
qualquer saber é essencialmente a de ler, através dos sinais da natureza, o
que pode acontecer no futuro. Ao sábio só cabe “prever para prover”. Note-
-se que essa atitude, embora possa perfeitamente ser adotada por cientistas,
não é muito diferente da dos astrólogos, por exemplo.
A techné médica galênica baseava-se na teoria de Erasístrato de que há
um pneuma, ou alma, que circula, por meio da respiração, por dentro do
corpo vivo e que é parte do pneuma do macrocosmo – Alma do Mundo.
Isto é o espírito do homem que é parte do espírito universal – doutrina que
é comum à da literatura hermética de Alexandria e de toda alquimia e magia
daí decorrente. O pneuma entra no corpo passando pela traqueia e vai até o
pulmão. Daí, através da artéria pulmonar, vai ao ventrículo esquerdo onde
se mistura com o sangue. Por outro lado, os alimentos, transformados em
“quilo” pelos intestinos, são levados pela veia aorta ao fígado e ali trans-
formados em sangue, infiltrado por um segundo pneuma: o espírito natural.
Assim fortalecido pelo “quilo” e pelo espírito natural, o sangue circulava
por todo o corpo. As gotas de sangue venoso escuro, ao se porem em conta-
to com o pneuma exterior, no ventrículo esquerdo do coração, se carregam
do espírito vital transformando-se no sangue arterial reluzente vermelho –
o qual vai vitalizar todas as partes do corpo através das artérias. Algumas
artérias vão à cabeça, onde o sangue arterial divide-se em pequenas porções
e carrega-se do terceiro pneuma – o espírito animal –, o qual é conduzido
aos órgãos sensoriais pelos nervos – que se supunham ocos.
A Medicina galênica se propunha, assim, a curar a doença, guiada por
uma teoria sobre a constituição do corpo humano, estruturada a partir da ob-
servação obtida em vivissecção ou dissecção de cadáveres ou de animais su-
periores. Era, portanto, obediente aos fatos. Além disso, baseava-se na crença
que dominava a época: a de que tudo fora feito por um criador todo poderoso
tendo em vista um plano preestabelecido e perfeito. Daí o teologismo de Ga-
leno: era necessário, para curar, descobrir o fim para que tudo fora criado, nos
desígnios de Deus. Ao médico, caberia descobrir esses desígnios observando
a natureza e procurando, assim, prever o que poderia acontecer e “prover” as
condições para que o que acontecesse fosse favorável ao doente.

94
Os tratados de Galeno reuniam tudo o que se conhecia anteriormente
tanto da Biologia de Aristóteles e de Teofrasto, como da Medicina de Hi-
pócrates, como também dos trabalhos de pesquisa anatômica e fisiológica
do Museu de Alexandria e as observações do sanatório de Pérgamo. Tradu-
zidos para o latim, o aramaico, o árabe e o hebreu, estes tratados formaram
a base da arte da Medicina durante toda a Idade Média.
Da mesma forma que a Medicina, a Arquitetura romana, partindo da
grega, suplantou-a, se não em harmonia e graça, pelo menos em suntuosi-
dade e grandeza, pois recebeu o benéfico influxo da organização e adminis-
tração romana. A essa Arquitetura deve-se o uso, em grande escala, do arco
e da abóbada nas suas estruturas, invenções essas, de origem etrusca, que
permitiram os grandes espaços interiores ausentes na Arquitetura grega.
A técnica dos arcos foi transmitida aos romanos pelos etruscos, como o
demonstra o magnífico portal etrusco existente em Volterra. Ali, percebe-
-se perfeitamente a engenhosidade do processo. O vão não foi vencido
por uma viga reta, como o faziam os gregos. Nem foram colocadas várias
vigas em balanço, uma sobre as outras até que a viga central pudesse ser
apoiada sobre duas, em balanços opostos, formando um falso arco, como
o fariam os micênicos. Os etruscos simplesmente colocavam pedras, con-
venientemente talhadas, umas ao lado das outras, sobre um andaime pro-
visório, em arco. Quando a pedra de fecho, no topo do arco, era colocada e
batida, todo o peso das pedras era transmitido da face lateral de uma para
a sua adjacente e o arco desprendia-se do andaime sustentando-se por si
próprio.
O arco provavelmente era conhecido pelos gregos, porém não havia
possibilidade do seu uso, as estruturas gregas não eram aptas a suportar os
empuxos laterais resultantes. Somente o uso dos grandes pilares romanos
tornou possível a utilização dos arcos.
Nesse invento, e na extensão do mesmo princípio às abóbadas, está toda
a grandeza das edificações romanas, desde os templos e os arcos do triun-
fo, fóruns, teatros e circos, até as grandiosas termas transformadas poste-
riormente em basílicas cristãs. Um exemplo típico é o Panteon de Roma,
reconstruído pelo imperador Adriano, entre 118 e 126 da nossa era, cuja
simetria circular, possibilitada pela abóbada com cerca de 40 metros de
diâmetro, configura perfeitamente o caráter do politeísmo romano. Os deu-
ses dispostos em círculo periférico em torno do povo, colocado em posição
central, iluminado por uma abertura circular de seis metros de diâmetro no
topo da abóbada. Nessa organização espacial, mais do que na perfeição e
harmonia das formas, é que está a grandiosidade da Arquitetura romana.

95
Mas a Arquitetura de Roma compreende também as grandes obras
dos aquedutos para prover água em abundância às cidades. As séries
de arcos superpostos que suportavam o canal de forma tal que a água
corresse suavemente, impressionam até hoje, nos arredores de Roma ou
no próprio centro de Segóvia. Tais aquedutos foram descritos no tratado
de aqueductus urbis romae, de Sexto Júlio Frontino, comissário de
águas do imperador Nerva. As estradas romanas, formando uma rede
que abrangia grande parte do império, eram tão perfeitas que, até hoje,
muitas delas continuam sendo usadas como rodovias na Europa. Essa
capacidade de construir grandes obras civis era estranha à techné grega,
a não ser, talvez, no que concerne aos túneis para mineração e adução de
água. Entretanto, não se esqueça de que a técnica dos aquedutos e das
estradas baseava-se na aplicação das teorias gregas, principalmente da
Geometria e da Mecânica.
Praticamente tudo o que se sabe da Arquitetura romana e de suas ori-
gens deve-se ao tratado sobre a arquitetura, de Vitrúvio, o arquiteto
romano que viveu no primeiro século de nossa era. Antes desse tratado,
nada tinha sido escrito sobre Arquitetura.
O tratado de Vitrúvio27 é iniciado pela definição do tipo de saber dos
arquitetos:
Nem o talento sem instrução nem a instrução sem talento pode constituir um
bom arquiteto. Ele tem necessidade, além de sua habilidade pessoal, de conhe-
cer Geometria, Aritmética, Desenho, mas precisa também de conhecimento de
Ótica, História, Medicina e Filosofia, além de saber de leis de Astronomia, para
bem poder conceber suas obras.
É necessário, ainda, enfronhar-se não só dos estilos da Arquitetura gre-
ga que é considerada a fonte da romana, como também vir a conhecer per-
feitamente os materiais com os quais vai edificar e as máquinas que deverá
utilizar nas suas obras. Também precisa conhecer música, para bem cuidar
da acústica e das proporções harmônicas entre as dimensões das estrutu-
ras. Por último, a Medicina é necessária não só para a boa localização dos
edifícios como também para julgar da salubridade dos locais das obras e
da pestilência das águas a serem conduzidas pelos aquedutos. E completa
Vitrúvio que, além de tudo, o arquiteto devia estar perfeitamente a par das
leis romanas.
O grande valor do livro de Vitrúvio está, para nós, em parte estribado
em mostrar o que era, para os romanos, uma techné – o que eles traduzi-
ram, mais ou menos impropriamente, por ars.
27 Les Dix Livres d’Architecture de Vitruve. Paris: E. Tardieu; A. Coussin, 1837.

96
Era um saber, adquirido pela educação, sobre o como realiza algo de
prático – constituía-se como profissão e requeria talento e habilidade indi-
vidual (ingenium). No entanto, deveria basear-se em conhecimentos teóri-
cos prévios, desde que esses fossem justificados pela necessidade prática.
Desta forma, o objeto de uma ars poderia ser o mais variado possível,
desde as partes mecânicas até a Medicina e a Arquitetura e, destas, até a
aplicação do próprio Direito Romano.
Depois dessa introdução, trata da escolha do local, da sanidade e das
fundações dos edifícios públicos. Segue-se um estudo de materiais de cons-
trução e, em seguida, das ordens das colunas e da construção dos fóruns
e teatros. Trata-se também da Astronomia para a construção de relógios
e quadrantes. Trata, finalmente, da construção das máquinas necessárias
para a construção de edifícios. Vê-se, portanto, que apresenta essencial-
mente o mesmo temário dos livros atuais de Arquitetura. Talvez, por essa
razão, seja esse livro o responsável pela nobreza que a arte da Arquitetura
adquiriu no ocidente.
É de se notar, finalmente, que a grande contribuição das ars romanas
no emprego das Matemáticas para o domínio da natureza está na utilização
de medidas na construção de obras. Por isso, o arquiteto romano deveria
conhecer Geometria, Aritmética e, além disso, saber colocar as medidas
em desenhos em escalas convenientes. Ora, isso pressupunha uma teoria
pela qual a realidade pudesse ser calculável matematicamente. As Mate-
máticas assim concebidas deixaram de ser uma forma de contemplação
da perfeição do cosmo para vir a ser um instrumento de manipulação da
natureza.
Por outro lado, a Medicina romana ligava-se estreitamente à História
Natural, a qual era também uma teoria, embora não envolvendo Matemá-
ticas. Contudo, apesar de não empregar Matemática, utilizava a Lógica.
De fato, não só a Lógica indutiva das classificações era intensamente uti-
lizada como, também, desde os tratados biológicos de Aristóteles, várias
conclusões sobre os fenômenos naturais eram deduzidos de princípios
previamente admitidos. Isso poderia, eventualmente, permitir alguma ma-
tematização, embora, até hoje, uma tal possibilidade tenha-se mostrado
incipiente.
Apareceram, portanto, paralelamente à epistéme theoretike grega e a
scientia romana, outras formas de saber, como as ciências alexandrinas,
especializadas e objetivando resultados práticos; a Medicina grega, in-
sistindo que sua função era a de curar o doente e não a de compreender
a doença; a Arquitetura romana, na qual o papel da ciência era o de ser

97
utilizada na solução de problemas técnicos. Essas novas formas de saber
vieram trazer um novo aspecto do conhecimento, diferente do da pura con-
templação teórica. Isto é, o conhecimento científico aproximou-se do saber
fazer técnico, no sentido de almejar controlar e modificar a natureza.
Devido a isso, o processo de matematização da natureza anunciado
pela Filosofia grega, no sentido de aceitar que as proporções harmoniosas
dos números e das figuras geométricas podiam ser tomadas como arqué-
tipos da realidade última, adquiriu um novo aspecto: o de que os entes
matemáticos poderiam ser utilizados no sentido de prever e manipular os
fenômenos naturais.
Embora isso tenha sido realizado pela Matemática, Geografia e Astro-
nomia helenísticas, não se efetivou definitivamente. Com a derrocada do
mundo antigo, o homem ocidental desinteressou-se pela natureza. Assim,
tal matematização foi esquecida durante a Idade Média. O processo de
matematização da natureza foi interrompido por mil anos, até que veio a
ser retomado por Galileu.

98
IV – A PRESERVAÇÃO DA TEORIA E DAS ARTES
NA IDADE MÉDIA

a) As ciências e as artes medievais


Muito antes da sua derrocada, vinha o povo romano desinteressando-
-se pela causa pública e sua população declinando, até que, por volta do
ano 450 da nossa era, os bárbaros, principalmente os germanos e outros
povos vigorosos da Europa, invadiram definitivamente o império e se
estabeleceram em terras de Roma. Entretanto, seria errado dizer que pre-
tendiam destruir Roma. Pelo contrário, ansiavam por preservar a civili-
zação romana e tornarem-se eles próprios romanos. Se é verdade que o
cristianismo foi o grande enfraquecedor e corruptor do espírito romano,
não é menos verdadeiro que coube à Igreja Cristã, agora romana, trans-
mitir-lhes os conhecimentos e costumes que provinham da antiga Roma
– o que foi feito sob certo ressentimento e adulteração e sob os protestos
da elite pagã sobrevivente. Disto resultou não a destruição e suplantação
de uma velha civilização por outra, mas a queda de nível da civilização
antiga e o esquecimento de uma série de conhecimentos que não interes-
sam às novas circunstâncias. Entre eles, a epistéme grega da natureza.
Estabelecido o cristianismo, as invasões e guerras continuaram muitas
vezes para destruir e não para salvar aqueles que não eram considerados
suficientemente cristãos. Por mais de meio milênio cada povo ou cada gru-
po guerreiro estava convencido de que não se chocava contra inimigos,
mas contra seres desprovidos de qualquer valor, pois que não tinham a
mesma fé que os animava. Do século V ao XII uma coisa habitava a alma
dos ocidentais: a certeza do seu Deus. Em nome dessa certeza trucidavam-
-se uns aos outros. “Tuez-les tous, Dieu reconnaîtra les siens” – disse um
papa, já no fim do período.
Como, porém, teria sido preservada e transmitida a cultura, desde a An-
tiguidade greco-romana até a Modernidade europeia, desde que aceitemos
que não houve a destruição de uma civilização pela outra? Procurar-se-á,
a seguir, mostrar que essa transferência deu-se por três vias:pela transmis-
são de geração a geração, das antigas atividades técnicas (profissionais);
pela “febre” das traduções dos tratados antigos, quase perdidos na poeira
das velhas bibliotecas; e pela preservação do saber “teórico” – no estudo
da Teologia, como teoria a respeito de Deus. Pois a visão teórica de Deus
levou inevitavelmente à necessidade da visão teórica do mundo.

99
Com a vitória do cristianismo, a certeza pagã na perfeição e eternidade
do mundo desaparecera. Talvez tenha tido, essa crise, origem na atitude
apocalíptica dos primeiros séculos do cristianismo. Em contraposição, a
crença judaica de um mundo criado por Deus – um deus único e anterior a
todas as coisas – impunha-se ao ocidente como certeza. Não mais havia o
problema de existência de Deus, mas sim o do porque criara Ele o mundo.
Sendo um ser perfeito, que necessidade O teria movido para a criação?
Poderia Ele não ter criado o mundo? E certamente o poderia destruir.
E então, por que e como existe o mundo? Eis o verdadeiro e central
problema trazido pelo cristianismo e sobre o qual os homens da Idade
Média não cansaram de especular. Assim, o mundo tornou-se precário e
incerto, de um certo modo desprezado e mesmo hereticamente odiado. De
qualquer forma, tinha-se estabelecido definitivamente no Ocidente a cren-
ça na precariedade do mundo e o terror de sua destruição catastrófica. Mas
simultaneamente se estabelecera a crença de que algo de perfeito, eterno e
imutável deveria ser necessariamente espiritual. Crenças essas que, sob o
terror da bomba atômica e a esperança de uma sociedade justa baseada em
valores humanistas, nos dominam até hoje.
Santo Agostinho (354-430) um dos grandes doutores da Igreja, con-
vertido do maniqueísmo pagão ao cristianismo aos 32 anos de idade, dei-
xou, em suas confissões, em forma autobiográfica, um perfeito relato da
atmosfera daqueles tempos. Constatara, ele, que o mundo era em si bom,
pois fora assim feito por Deus, mas nele imperava um ser decaído pelo pe-
cado: o homem, cuja principal ocupação deveria ser a de salvar sua alma.
Portanto, não havia nenhum interesse numa epistéme do mundo. Entretan-
to, isso não implicava numa atitude do tipo oriental considerando o mundo
como ilusão. Pelo contrário, a atividade humana deveria ser dirigida na
preservação do bem original da natureza criada por Deus e no suprimento
das necessidades da vida. Se não havia necessidade de contemplar teori-
camente o mundo, não era dito que não se deveria trabalhar honestamente
nele. Daí a dignificação cristã do trabalho e a aceitação das técnicas como
meios de garantir tal tipo de vida aos homens. Enfim, o mundo era real e
não ilusão e, nele, era necessário viver na procura do bem e da verdade,
num trabalho honrado e que, entretanto, não desviasse o homem da sua
verdadeira tarefa: a salvação da sua alma.
Com essas ideias em mente foi que alguns cristãos, querendo fugir às
guerras de conquista e às devastações que delas resultavam, refugiaram-se
nos mosteiros. Um dos primeiros deles – o de Monte Cassino – foi fundado
por São Bento (480-547), e lá se iniciou o monasticismo, movimento da

100
maior importância para o estabelecimento da civilização cristã e formação
da cultura europeia. O monasticismo consistia na reclusão de um grupo de
homens submetidos a uma regra de vida, dedicando-se ao trabalho e à me-
ditação com a finalidade de não só salvar suas próprias almas, mas também
propiciar a salvação de toda a humanidade. A Sagrada Regra de São Bento
era uma combinação da disciplina romana e do amor cristão. Por ela, o
tempo dos monges era dividido entre o estudo da Teologia, a meditação e
a prática de um ofício – a fabricação do vinho, a horticultura, a moagem do
trigo, a culinária e a dietética, a tecelagem e o artesanato. Com o tempo, a
essas artes vieram a se acrescentar a cópia das escrituras e as iluminuras e,
em seguida, as Belas Artes: a Música, a Pintura e a Escultura.
Uma compilação feita por Santo Isidoro de Sevilha28, morto em 636,
sob o título etymologiarum sive originum libri xx, é um dicionário de
tudo que se conhecia até então para uso dos mosteiros. Assim foi feita a
preservação do conhecimento greco-romano durante a Idade das Trevas.
Além disso, desses mosteiros saíram os letrados professores e conselheiros
dos reis, cuja sabedoria contribuía não só para a organização dos governos
como para o estabelecimento de outros centros de estudos. Um exemplo, é
Alcuíno de York (735-804) um dos responsáveis pelo que se chama hoje,
renascimento carolíngio e pela fundação de numerosos conventos benedi-
tinos na França, Alemanha e Suíça.
A ars dos romanos também tinha dignificado o trabalho e, entre essas,
as profissões leigas do jurista, do médico e do arquiteto. O romano Mar-
co Terêncio Varrão (116 a.C. - 27 a.C.) tinha classificado as disciplinas
necessárias ao saber em sete: Gramática, Dialética, Retórica, Geometria,
Aritmética, Astronomia, Música. Essas, com a Jurisprudência, a Medicina
e Arquitetura eram consideradas artes, pois, para os romanos, a dianoia
grega se tinha transformado em ars e, portanto, confundindo-as, de uma
certa forma, com techné.
Quando, já na derrocada do Império Romano, o cristão Flávio Mag-
no Aurélio Cassiodoro (490-585), organizou o saber compondo o
trivium(Gramática, Dialética e Retórica) e o quadrivium(Geometria, Arit-
mética, Astronomia e Música), os quais formariam as bases da educação
dos monges. Essas disciplinas passaram a ser, então, entendidas como
Scientiae, em que o saber teórico não mais servia para a contemplação
da physis, porém, para a organização do mundo cristão. Entretanto, tal
educação básica serviria para tornar possível a contemplação teórica da
única realidade certa: Deus. O que seria feito pela Teologia, auxiliada pela
28 QUILES, S. J. Ismael. San Isidoro de Sevilla. Madri: Espasa-Calpe, 1965. (Colec-
ción Austral n. 527).

101
Filosofia, as quais teriam como propedêutica o trivium e o quadrivium. As
ars por excelência, a Medicina e a Arquitetura, foram então relegadas ao
nível dos ofícios artesanais ou técnicas leigas, mas não ciências. À medi-
da, porém, que se propagara o saber, atividades leigas foram ganhando em
importância. Já no século XII, Hugo de São Vitor divide o saber em quatro
ramos: o teórico, compreendendo a Teologia, a Física e a Matemática; o
prático, compreendendo a Moral e o Direito; o terceiro, compreendendo
a Lógica e as ciências do trivium; e o mecânico – esse último mantendo
a ideia romana de ars. São sete as artes mecânicas: tecelagem, forjaria,
navegação, agricultura, caça, Medicina e a guerra.
Desde a queda do Império Romano até aproximadamente o final do
século X, as Matemáticas sofreram um desinteresse avassalador tanto no
Império do Oriente (Bizâncio) quanto no Ocidente europeu. Entretanto,
desenvolveram-se espetacularmente na Índia e principalmente no mundo
árabe, em grande parte, herdadas da cultura helenística. Os romanos já se
tinham desinteressado pela teoria matemática, concentrando-se nos seus
aspectos práticos de comércio e agrimensura.
Contudo, no final do mundo antigo, Boécio (480-525) traduziu a
arithmetica, de Nicômaco e uma parte dos elementos, de Euclides,
porém, a Geometria não despertou interesse a não ser entre letrados que
a liam como remanescente da Filosofia grega. A Aritmética e a Geo-
metria do quadrivium eram ensinadas da forma mais elementar como
artes de contar e de medir. Nesses cursos, o de computo vel loquela
digitorum, de Beda, o Venerável, ensinava a contagem pelos dedos e
pela palma da mão, principalmente para fins de determinação das festas
religiosas. A Geometria era chamada ars gromatica (de groma, a estaca
dos agrimensores).
O uso do ábaco romano para contagem e operações aritméticas feitas
por mercadores e administradores governamentais era aprendido oralmen-
te, da mesma forma com que as técnicas eram transmitidas de geração em
geração.
O ábaco romano consistia em uma placa de madeira na qual várias
colunas continham as sucessivas potências de dez contadas da direita para
a esquerda, a começar da coluna 1. Em cada coluna, os dígitos eram repre-
sentados por pedrinhas (calculus) cada uma valendo uma unidade. Quando
colocados acima de uma linha horizontal, passavam a valer cinco. A soma
consistia em colocar os calculus e reajustar as colunas em que o total fosse
maior que nove. A subtração era o inverso. A multiplicação exigia dois
passos suplementares: primeiro, o cálculo dos subprodutos, por contínuas

102
adições, segundo, a determinação da coluna própria na qual era colocado
o produto de duas colunas29.
De fato, o período que vai da queda de Roma até o primeiro renasci-
mento cultural no século XI, e que é chamado de “Idade das Trevas”, pode
ter sido um período de penumbra dos conhecimentos, mas não há dúvida
que foi uma época de brilhantes inovações técnicas. Na agricultura, há a
substituição do arado primitivo de gancho, pelo arado de rodas, além do
aparecimento das técnicas modernas de atrelagem e encilhamento dos bois
e cavalos. Na vestimenta, a melhoria dos teares permitiu o uso de calças e
casacos em vez das togas ou simples mantos. À medida que desaparecia a
escravidão, aparecia o uso mais intensivo das máquinas, como a utilização
da força hidráulica nas rodas d’água e do vento para acionar moinhos de
cereais, forjarias e serrarias.
Uma das grandes conquistas técnicas da Idade das Trevas foi a arte
da navegação, como já mostram murais do século IX. A pilotagem – uma
techné grega – era feita por um remo na borda da popa dos navios an-
tigos. Ora, tal prática era completamente ineficaz em navios grandes no
mar aberto. A invenção medieval do leme vertical, ajustado à popa, tornou
possível não só o aumento do porte dos navios como um apurado controle
da sua marcha. Além disso, o uso dos gurupés (mastros muito inclinados
na proa dos navios) permitia que a vela avançasse além da proa. Tudo isso
e mais a bolina (placa na parte inferior da quilha para dar mais estabilidade
ao navio) possibilitava a navegação contra o vento.
A navegação no Mediterrâneo, incrementada pelo desenvolvimento do
comércio, era feita pelos rumos, o que consistia em manter o navio na
direção da linha que unia o ponto de partida com o de chegada. Com a
bússola, isto é feito facilmente, porém, sem ela – como acontecia na Ida-
de Média, antes da sua aparição no século XIII – era necessário orientar-
-se pela Estrela Polar. Sabemos que a pilotagem grega já era, pelo menos
ocasionalmente, feita pelas estrelas como é possível concluir da célebre
passagem do Canto V da odisseia, quando Calipso aconselha Ulisses a
manter a Ursa à sua mão esquerda, na volta para a pátria.Para implementar
a técnica da navegação, foram organizando estaleiros privados em todos os
principais portos europeus. Assim, em 1104 organizou-se o arsenal vene-
ziano sob a direção de um ammiraglio que tinha, às suas ordens, operários
especializados como os: marangoni, calafati, remeri e alboranti, cada uma
dessas classes sob as ordens de técnicos experimentados os protomagistri
e magistri. A mão de obra não qualificada era chamada facchini. Havia,
29 MAHONEY, M. S. Mathematics. In: LINDBERG, D. C. (Ed.). Science in the Mid-
dle Ages. Chicago: The University of Chicago Press, 1976.

103
portanto, uma perfeita organização de trabalho, como requerem as técnicas
avançadas. Em Barcelona, foi fundado um segundo arsenal em 1252, du-
rante o reinado de Jaime I de Aragão. Um terceiro, foi fundado em Rouen,
em 1294: o Clos des Galées. A navegação pelo Atlântico, para o norte ao
longo da costa, até as alturas da Inglaterra, e para o sul, até as Canárias, era
feita também na Idade Média. O geógrafo árabe Idrisi (1100-1166) conta
a história de aventureiros, moradores da Lisboa mourisca, pelo Mar Tene-
broso, primeiro para o norte até “paragens escuríssimas” e depois para o
sul até ilhas desconhecidas. As navegações portuguesas de 1336 até as Ca-
nárias são fatos documentados. Um verdadeiro florescer da ars marítima,
na direção de se tornar ciência, deu-se muito próximo de nós, de língua
portuguesa, sob a direção do Infante D. Henrique, o Navegador (1394-
1460), nos estaleiros de Lagos. Mas aí já entramos em outra época.
À arte de navegar aliava-se uma outra: a da confecção de cartas ma-
rítimas. Já tinham existido mapas referidos a meridianos e paralelos na
Antiguidade. Eles foram traçados por Ptolomeu, que se baseou em Ma-
rino de Tiro. É possível mesmo que tais mapas possam ser remontados
a Eratóstenes e Hiparco no século II a.C., segundo diz Estrabão em sua
Geografia. Mas tais mapas foram perdidos. Em seus lugares, apareceram
na Idade Média mapas verdadeiramente místicos e imaginosos elaborados
por monges. Portanto, mais preocupados com os aspectos religiosos da
Geografia que com os práticos. Eram eles um misto de pintura e pictogra-
ma de relatos semimísticos dos viajantes contadores de estórias.
Um exemplo notável desses mapas é o famoso mapa de Hereford,
composto por Richard de Haldingham, em 1280. O mundo é representado
como um disco boiando num mar sem fundo. O Mediterrâneo, o mar Ne-
gro e o Nilo, formavam um T, no alto do qual, correspondendo ao centro
do disco, estava Jerusalém. No topo do mapa, estava o jardim do paraíso e
a torre de Babel entre esse e Jerusalém. Em torno, aparecem animais fan-
tásticos e estranhos. Um outro mapa notável, deste tipo, hoje apelidados
mapas T-O, é o da enciclopédia, aprovada pela Igreja, de Santo Isidoro
de Sevilha, já mencionada anteriormente. Lentamente, essa arte pictórica
fantástica foi-se transformando em cartografia à medida que os relatos dos
viajantes eram confirmados.
A navegação do Mediterrâneo, entretanto, levou ao traçado das cha-
madas “cartas-portulano”, nas quais se encontra uma tentativa definida de
precisão. A mais velha carta-portulano é o chamado Mapa Pisano, de cer-
ca de 1300. O nome “portulano” vem de que tais cartas eram traçadas a
partir de informações dos pilotos práticos, sobre as distâncias e rotas entre

104
os vários pontos. Eram, portanto, mapas eminentemente práticos e não
imaginosos, como os elaborados pelos monges. No princípio do século
XIV, tais cartas começaram a ser traçadas com grande frequência pelos
italianos. Um exemplo dessas, é a de Pietro Vesconte, da parte oriental do
Mediterrâneo, feita em 1311. Um outro exemplo notável é o Atlas Catalão
de 1375, feito quando o centro original da cartografia passou do norte da
Itália para as Ilhas Baleares e a Catalunha30. Nesse campo, a ação dos na-
vegantes foi decisiva na passagem da técnica para a ciência cartográfica,
no fim da Idade Média e no início do Renascimento, o que foi feito a partir
da intenção expressa de verificar de visu a verdade da obra geográfica anti-
ga, recém-traduzida diretamente do grego, porém já conhecida dos geógra-
fos árabes e seus discípulos. Disso resultou que a navegação mediterrânea
foi dominada pelos italianos (venezianos e genoveses), depois por Aragão
(Barcelona e Ilhas Baleares) e, finalmente, quando passou ao Atlântico,
pelos portugueses. Entretanto, às marinhas cristãs se contrapunha, em pé
de guerra, a navegação árabe sediada em Sevilha, no norte da África e no
Oriente Médio. Daí a necessidade que se viu Portugal em desenvolver sua
navegação, de tomar Ceuta em 1415, Alcácer-Ceguer, em 1458, e Tânger
em 1471 – formando-se, assim, os Algarves de Além-Mar em África.
Porém, à medida que a cultura medieval avançava, ia-se estabelecendo
o primado de duas grandes ars, menos práticas: a Jurisprudência e a Medi-
cina. A primeira, originava-se no estudo, na manutenção e na aplicação das
regras monacais – baseadas no Direito Romano evoluído para o Direito
Canônico. A segunda, uma extensão da ars romana cristalizada principal-
mente nos tratados de Galeno. Uma terceira arte havia, de origem romana,
muito mais relegada ao profissionalismo leigo: a Arquitetura. Os preceitos
romanos da arte de construir prolongaram-se na Arquitetura românica até
a alta Idade Média e invadiram o Renascimento. Somente em meados dos
séculos XII e XIII grupos de artistas livres, apartando-se algum tanto da-
queles antigos preceitos, introduziram, no norte da Europa, a arte gótica
trazendo a inovação dos arcobotantes os quais permitiam a simetria plana
das catedrais góticas. Um álbum de 33 pergaminhos, datando de 1235, e
compreendendo uma coleção de desenhos de autoria de Villard de Hon-
necourt, é um documento do que era a arte da Arquitetura naquele tempo.
Contém exemplos de construções geométricas, exercícios de levantamen-
to topográficos, desenhos de aparelhos e máquinas tanto para a construção
das obras quanto para a guerra. Provavelmente tais desenhos eram desti-
nados à instrução dos arquitetos, muito ainda no espírito dos ensinamentos
de Vitrúvio, embora introduzindo uma série de inovações técnicas.
30 COCQ, M. L. Premières Images de la Terre. [S.l.]: Joel Guénot, 1877.

105
As ars da Jurisprudência e da Medicina passaram, a partir do sécu-
lo XIII, a ser consideradas de importância especial para a formação do
homem e, portanto, matérias a serem ensinadas nas universidades. Daí o
grande debate nos meios universitários para decidir-se a primazia da Medi-
cina ou da Jurisprudência na formação do homem31. Porém, a Arquitetura
continuou como simples atividade profissional. Daí o fato de as grandes
universidades europeias não incluírem, até muito recentemente, cursos de
Engenharia, em seu âmbito, e a Arquitetura ser disciplina das escolas de
Belas Artes.

b) A civilização árabe e os tradutores


Nos três séculos entre a queda de Roma e o primeiro imperador do Sa-
cro Império, Carlos Magno, em 800, a cultura ocidental quase sucumbiu
sob ataques sucessivos dos ainda bárbaros povos germânicos. A Filosofia
grega e a ciência romana desapareceram, mas dos seus despojos misterio-
samente dois livros permaneceram: a lógica, de Aristóteles, em tradução
latina feita por Boécio, por cerca do ano 500, e uma misteriosa tradução
latina, do século VI, do timeu, de Platão. Além desses, os volumes de
Teologia dos padres da Igreja e mais a bíblia e os evangelhos eram pre-
servados na cristianização dos povos bárbaros. Era esse o acervo cultural
do ocidente até o primeiro milênio de nossa era.
Enquanto isso, uma nova religião aparecia entre os árabes. Em 622,
Maomé a criou, proclamando-se profeta de Deus. Era uma religião cheia
de ardor e ímpeto belicoso e, com isso, conquistou grande parte do mundo
conhecido. Em 750, o império árabe já se estendia dos Pirineus até a fron-
teira da China e do Egito à Turquia. Quando o ardor da guerra arrefeceu
nas conquistas, os árabes começaram a se interessar por ciência e Filosofia.
Durante os séculos VI e VII, havia, no Oriente Próximo, vários centros cul-
turais nos quais as obras gregas estavam sendo traduzidas para o aramaico,
o hebreu e o persa, sofrendo maior ou menor influência e contribuição das
culturas persa e hindu. Os herdeiros dessas traduções foram os árabes já
estabelecidos em Bagdá, que se tornara um centro de cultura sob os califas
da dinastia Abássida. Sob Harun al-Rashid (786-809), o entusiasmo pela
tradução atingiu seu clímax. Foi quando se deu a verdadeira fusão entre o
saber oriental na Astronomia, Astrologia e Matemática, e a epistéme gre-
ga. O principal tradutor foi o nestoriano Hunayn ibn Ishaq (809-877), que
traduziu quase toda a obra de Galeno e parte do almagesto, de Ptolomeu.
Formou, depois, uma verdadeira escola de tradutores, entre os quais, seu
31 GRASSI, E.; UEXKÜLL, T. von. Las Ciências de la Naturaleza y del Espiritu.
Tradução de Adolfo Muñoz Alonso. Barcelona: Luis Miracle, 1952.

106
próprio filho, Ishaq ibn Hunayn, que completou a tradução do almagesto
e da geometria, de Euclides. Foram ainda traduzidos o corpus hipocra-
ticum e algumas obras do neoplatônico Porfírio e do próprio Aristóteles.
Começou, então, a contribuição própria dos árabes, entendendo-se
como contribuição própria não uma criação ex-nihil, mas uma comple-
mentação e ampliação do já existente em traduções. Em assuntos médicos,
foi o primeiro desses inovadores o persa Al-Razi (865-925), escrevendo o
grande livro, que é uma completa enciclopédia médica. Na Astronomia,
há uma excelente complementação desde Al-Farghani, que morreu em 850
em Bagdá, até Ulugh Beg, neto de Tamerlão, famoso construtor do obser-
vatório de Samarcanda em 1420. Entretanto, é de se dizer que a civilização
árabe imprimia a toda sua cultura aspectos mágicos mais que científicos.
O estudo da natureza, por exemplo, foi recebido pelos árabes dos trata-
dos alexandrinos, mas complementado, sob forma eminentemente mágica,
com a Astrologia e Alquimia. O que, de uma certa forma, não contradizia
muito suas origens uma vez que, como foi visto anteriormente, a cultura
alexandrina era fortemente influenciada pela magia egípcia.
Mas onde se deve dar mais crédito à autoria árabe é na Matemática,
ficando claro que aqui o saber árabe fundava-se sobre fontes gregas e hin-
dus. Por cerca de 830, na sua volta de uma viagem ao Afeganistão e à
Índia, o grande matemático árabe Al-Khwarizmi escreveu um tratado sob
o título hisab al-jabr w’al-muqabala com o qual inaugurou o que hoje
se chama de Álgebra. Para a Álgebra, é essencial o sistema decimal que
os árabes emprestaram dos hindus, no qual cada número tem um símbolo
relativamente simples e a posição desse símbolo indica as unidades, deze-
nas, centenas etc. Além disso, que as quantidades desconhecidas possam
ser representadas nas equações por símbolos indeterminados (para nós:
x, y e z). Finalmente, quando se formam equações igualando um termo
da direita a outro à esquerda, a equação não muda se forem feitas adi-
ções, subtrações, multiplicações e divisões simultâneas, de quantidades
iguais aos dois termos. Com os processos algébricos, tornou-se possível
o cálculo simples de problemas considerados extremamente complexos
ou mesmo impossíveis de serem resolvidos pela Aritmética grega. Depois
de Al-Khwarizmi, a Matemática árabe contou com um grande número de
cultores dos quais muitos deles devem ter estado em contato direto com os
hindus, os quais tinham absorvido as obras gregas. Dessa forma, a Álgebra
árabe floresceu até o século XIV, tendo então, sido totalmente absorvida
pela ciência ocidental.
Note-se que esse foi um passo essencial no processo de matematização

107
da natureza, cujo histórico é a finalidade deste estudo. Por ele, a matemá-
tica passa de simples contemplação de proporções e harmonias, para uma
verdadeira linguagem capaz não só de calcular, mas, também, de analisar
os fenômenos naturais.
Com todo esse acervo cultural, os árabes estavam aptos a transmitir aos
ocidentais não só o que receberam dos gregos e orientais, como também
aquilo que tinham criado por si mesmo, principalmente nas Matemáticas
e na Astronomia: o que foi feito através das fronteiras na Espanha e no sul
da Itália. Pelo século X, Córdoba – a joia do mundo – tinha se tornado sede
de um califado independente e absorvido toda a cultura que se originara
em Bagdá. Por outro lado, não havia uma separação nítida entre o mundo
árabe e o cristão na Espanha. Embora do lado cristão houvesse a intransi-
gência contra os árabes, do lado árabe conviviam cristãos junto aos árabes:
os moçárabes, de cultura subordinada a dos árabes e geralmente bilíngues.
Além disso, como elemento unificador, de ambos os lados havia os judeus
– os sefarditas –, muitas vezes falando o espanhol, o árabe e o hebreu.
Além de tudo, havia o interesse premente do lado cristão de receber, atra-
vés dos árabes, o que tinham perdido: a tradição greco-romana. Portanto,
as condições eram ótimas para a transmissão da cultura32.
Fala-se das primeiras traduções do árabe para o latim no mosteiro bene-
ditino de Santa Maria de Ripoll, ao pé dos Pirineus, em meados do século X.
Trata-se de manuscritos conservados nos arquivos reais de Aragão, de um
corpus de tratados sobre ciência natural para o uso dos monges. Mas, somen-
te pelos meados do século XI, as traduções passaram a ser sistematicamente
feitas por quase profissionais, a fim de serem amplamente distribuídas. O
inglês Adelardo de Bath e o marrano Pedro Alfonso são os primeiros desses
tradutores que se introduziram no meio árabe com tal finalidade. Com o
mesmo desiderato, no sul da Itália, Constantino, o Africano, foi o tradutor
das obras árabes de Medicina, necessárias à escola de Salerno, incluindo as
de Hipócrates e de Galeno, com comentários árabes, que foram republicadas
até o Renascimento. Como esses, vários outros tradutores, muitos de origem
judaica, completaram, por meio de suas traduções, a transferência da cultura
grega para o ocidente, através dos árabes. Muitos deles reuniam-se em gru-
pos, como o célebre grupo de Toledo, que se formou após a conquista cristã
dessa cidade, quando nela permanecia ainda uma considerável população
moçárabe e judia arabizada, ambas utilizando o árabe em sua vida cotidiana.
A esse grupo pertencia o fabuloso Gerardo de Cremona (1114-1187), que
alimentou com incrível massa de traduções as, então, recém-formadas uni-
32 LINDBERG, D. C. The Transmission of Greek and Arabic Learning in the West. In:
Science in the Middle Ages. Chicago: University of Chicago Press, 1976.

108
versidades europeias. São essas as obras mestras da cultura greco-romana-
-árabe as quais, daí por diante, serviriam de fonte inesgotável da cultura
ocidental. Esse furor pela tradução durou até o século XIII, quando pratica-
mente foram esgotadas as fontes árabes.
Entretanto, o que mais interessa para os propósitos deste livro, são as
traduções das obras matemáticas árabes, pois essas vieram trazer um novo
interesse pelas Matemáticas. Diz-se mesmo que o interesse medieval pela
Aritmética e pela Álgebra árabe contrastava com o desinteresse pela Geo-
metria grega. Esse foi o início do espetacular desenvolvimento da Mate-
mática, que veio possibilitar, a partir do século XVII, o processo de análise
da natureza através da Matemática. Um dos fatores principais desse de-
senvolvimento foi a introdução, na Europa, dos algarismos hindus, o que
foi feito pela tradução do livro de Al-Khwarizmi, tratado de cálculo
com números hindus, do qual não sobreviveu nem o original árabe nem
a tradução latina, mas há três versões feitas logo após a sua publicação.
Uma delas começa: “Dixit Algorismi ... [Disse Al-Khwarizmi:..]”. Há uma
cópia do original datado de 1143 que foi editada por Baldassarre Boncom-
pagni, em 185733.
O tratado de Al-Khwarizmi foi o modelo dos dois mais populares trata-
dos responsáveis pela divulgação dos algarismos hindu-árabes na Europa:
o carmen de algorismo, de Alexandre da Villa-Dei, publicado em 1220,
e o de Sacrobosco, de 1240.
Abelardo de Bath (c. 1075-1160) traduziu os elementos, de Euclides,
do árabe para o latim em 1142. O interessante é que essa tradução foi que
chamou a atenção dos medievais sobre a Geometria, apesar da existência
da tradução muito anterior, devida a Boécio.
Em 1175, Gerardo de Cremona (1114-1187) traduziu a megale synta-
xis, de Ptolomeu, não do grego, mas de sua tradução árabe, o almagesto.
Com a introdução da Astronomia helenística, chegou à Europa o sistema
sexagesimal que veio substituir o sistema romano. Da mesma forma, a
Trigonometria foi introduzida na Europa.
Como já foi dito, além de introdutor dos algarismos hindu-árabes, Al-
-Khwarizmi é o criador da Álgebra. Na Europa, a primeira parte de sua
Álgebra foi traduzida por Robert de Chester, em 1145 e, por Gerardo de
Cremona, cerca de dez anos depois. A segunda parte, ilm al-misãha (ciên-
cia das medidas), que trata de problemas de Geometria prática, não foi
traduzida, mas há uma versão expandida de Abraham bar Hiyya, traduzida
por Platão de Tivoli, de 1145.
33 LINDBERG, D. C. Op. cit.

109
Em 1202, Leonardo Fibonacci de Pisa compôs o seu liber abbaci –
mas não trata dos ábacos e, sim, de métodos e problemas algébricos. Com
essa obra, ele difundiu a Aritmética hindu-árabe na Europa sob um aspecto
diferente do de Al-Khwarizmi. Um outro matemático medieval notável foi
Jordanus de Nemore, que floresceu por volta de 1220. É o autor do tratado
de numeris datis sobre as técnicas algébricas árabes, dando a elas uma
nova interpretação. Foram esses os primeiros intérpretes e não simples-
mente tradutores europeus da Matemática árabe.
Continuaram , então, as compilações e adaptações, quase sempre feitas
por judeus espanhóis, dos quais um exemplo notável são os libros del sa-
ber de astronomia, que Afonso X, o Sábio, mandou compilar pelo grupo
de Toledo, no qual estavam os judeus: Judah ben Moses e Isaac ibn Sid,
entre 1252 e 1256. A eles pertencem as célebres Tabelas Afonsinas para
determinação da latitude dos lugares, das quais provavelmente provêm as
tabelas astronômicas para uso nas navegações peninsulares e que foram
até usadas por Copérnico e Tycho Brahe. Um outro exemplo dessas com-
pilações, ordenada por Pedro III da Catalunha (IV de Aragão) que reinou
entre 1326 e 1386, é a das tábuas astronômicas de Jacob Carsono, judeu
catalão, para determinar a posição das estrelas e a hora local. Um outro
compilador judeu foi Levi ben Gerson (1288-1344), provençal de Orange,
perto de Avignon, que compilou dos árabes toda a Matemática necessária
para a Astronomia e Astrologia da época.
No norte da Europa, entretanto, onde não havia judeus, aparecem compi-
lações feitas por cristãos, como as do inglês Sacrobosco (1200-1256), tam-
bém conhecido como John de Hollywood: algorismus vulgaris e o trac-
tatus de sphaera, uma obra elementar de Astronomia, usadas nas escolas
monacais da alta Idade Média. Nesse livro, estava o método de conhecer a
latitude do lugar pela altura da Estrela Polar, muito utilizada pelos marinhei-
ros até as descobertas renascentistas. Foi ela traduzida para o português, para
uso dos navegantes de Portugal, pelo grande matemático Pedro Nunes.
Entretanto, todas essas traduções, compilações e adaptações limita-
vam-se às obras de Filosofia e ciências. Nada havia sobre Literatura e Ar-
tes, pois a Literatura clássica ficara fora do interesse do Islã, dado o fato de
possuírem uma literatura tão valiosa quanto a clássica.
No século XIII, aparecem na Europa as primeiras traduções diretas ou
textos originais gregos vindos através da República de Veneza, então sob
a tutela distante e ineficiente de Bizâncio. Entre esses, há, por exemplo,
uma compilação bizantina da Geografia de Ptolomeu do século X ou XI,
da qual foi feita uma tradução latina, em 1409-1410, pelo florentino Jacopo

110
D’Angiolo dedicada ao papa Alexandre V. Esse fluxo, que tinha sido redu-
zido a um mínimo com a queda do Império Romano do Ocidente, e depois
interrompido totalmente no ano 1054, com o Grande Cisma da Cristanda-
de, começou gradativamente a aumentar. Uma exceção a isso foi o herege
Pedro de Abano (1250-1318), que trazia de Constantinopla textos originais
de Aristóteles e os traduzia nas suas lições de Medicina em Paris e Pádua.
Mas o interesse europeu continuava centrado nas mesmas obras que já ti-
nham chegado através dos árabes e, assim, vieram-se duplicando as tradu-
ções. E como não havia espírito crítico suficiente, as traduções de origem
árabe, embora adulteradas, permaneciam ao lado das traduções diretas do
original. Entrementes, o grego começava a despertar a atenção dos intelec-
tuais para seu estudo à medida que se restabelecia o comércio com Bizân-
cio. O mais conhecido desses novos tradutores foi Guilherme de Moerbeke
que traduziu diretamente do grego as obras de Aristóteles para São Tomás
de Aquino (1227-1274). Começou, então, uma nova adulteração das obras
clássicas, principalmente nas de Aristóteles e de Platão: a adulteração esco-
lástica, da qual somente as leituras atuais dos textos gregos vai-se livrando.
Nos séculos XIII e XIV, o movimento cultural que se chamou de hu-
manismo lançou-se em busca do valor humano e da beleza da literatura,
das artes e da arquitetura grega e romana. Petrarca (1304-1374) esforçou-
-se para atingir a Antiguidade atravessando o que, então, começou-se a
chamar das sombras da Idade Média. É interessante notar que o mesmo
interesse que levou os humanistas diretamente às fontes gregas e romanas,
levou-os também à língua vernácula, portanto, aquilo de que eles procura-
vam livrar-se, ao procurar a Antiguidade, não era da circunstância direta de
seu meio, sua língua e seu povo, mas, sim, de toda uma estrutura medieval
que encobria não só a Antiguidade clássica, mas também o mundo próxi-
mo. Isto se vê nitidamente nos dois grandes: Dante (1265-1321) e Boccac-
cio (1313-1375), que se fazem guiar pelos grandes poetas da Antiguidade
ao mesmo tempo em que levantam a língua do seu povo ao nível literário
do antigo grego ou latim.
Finalmente, a descoberta da imprensa, por Gutenberg, e a introdução,
na Europa, da fabricação do papel pelos meados do século XV, pôs fim,
por assim dizer, à Idade Média. Não se trata mais da incorporação, no oci-
dente, pela tradução, de obras particulares, mas de, por meio de edições
numerosas, colocar ao alcance de muitos o que era restrito a pequenos
grupos. Primeiro foi impressa a bíblia e outros livros religiosos, mas, logo
em seguida, vieram os livros latinos: Plínio, Lucrécio, Varrão, Celso. Logo
depois, os gregos: Aristóteles, Platão, Hipócrates, Estrabão, Ptolomeu e
Galeno. Em seguida, e o que foi realmente interessante para a mudança de

111
mentalidade, foram os comentários sobre o saber antigo. Desses comen-
tários, era inevitável que se seguissem novos livros originais contestando
os antigos. Outra importante consequência dessa descoberta foi a impres-
são de mapas, anteriormente compilados a mão e, portanto, raros e caros.
Por exemplo: o mapa-múndi traçado em base aos dados da geografia, de
Ptolomeu, impresso em Ulm, em 1482. Em base a tais mapas é que foram
feitas não só as viagens portuguesas e espanholas à Índia e às Américas,
como também o mundo se tornou conhecido e as antigas cartas, corrigidas
e melhoradas. E assim abriu-se a possibilidade de uma nova época.

c) Da Teologia como teoria à Filosofia Natural


Já foi dito, anteriormente, que a transmissão da cultura grega ao oci-
dente europeu deu-se não só através da transmissão, de geração a geração,
das artes e técnicas, mas também através da permanência, no homem oci-
dental, da capacidade de fazer teoria. É verdade que houve um desinteresse
pelas teorias da natureza, mas a forma teórica de pensar permaneceu com a
Teologia, a teoria de Deus, e sua “ancila”, a Filosofia. Porém, é impossível
restringir a teoria a um só campo da realidade, pois que, uma vez focalizado
teoricamente um aspecto da realidade, a visão teorética inevitavelmente
expande-se procurando atingir a totalidade do real. Assim, gradativamente
o interesse teológico obrigou o cosmológico e, este, o físico, e do físico ao
biológico. Assim, o saber teórico foi-se expandindo. Na Grécia, a expansão
da teoria deu-se da Física para a Teologia, como mostrou Werner Jaeger34,
porém, na Europa medieval, foi em sentido oposto. O que parece mostrar
ser impossível que, ao se introduzir numa cultura a possibilidade da visão
teórica, ela se restrinja a um único aspecto da realidade. Portanto, a per-
manência da teoria como Teologia, na cultura europeia, garantiu não só a
retomada do saber teórico como também o aparecimento posterior de uma
nova forma de teoria: a ciência moderna. Pois foi essa permanência do pen-
sar teórico, como Teologia que veio garantir a permanência do processo de
matematização da natureza, anunciado na Grécia, parcialmente efetivado
em Alexandria e retomado, agora, com o aporte da Álgebra árabe.
A ideia de Deus, dos primeiros padres da Igreja, era essencialmente
formada a partir das escrituras sagradas. Entretanto, já no primeiro século
da nossa era, havia quem se preocupasse em argumentar a seu favor, con-
tra as doutrinas filosóficas pagãs. Essa contra-argumentação tomava, fre-
quentemente, aspecto agressivo e anti-intelectual que, de uma certa forma,
como toda atitude antagônica, subordinou o pensamento cristão à Filosofia
grega, pagã.
34 JAEGER, W. Op. cit.(11)

112
Assim, nos mosteiros, onde se refugiou a cultura durante mil anos,
foram discutidos problemas abstratos a partir dos quais formou-se a base
filosófica da nossa civilização ocidental. Porém, logo o primeiro de tais
problemas vem da Filosofia clássica e foi posto por Porfírio, no seu tratado
isagoge, no qual discute as “categorias” de Aristóteles (gênero, espécie,
diferença, propriedade e acidente). Nessa discussão, aparece, pela primei-
ra vez, o problema dos “universais”. Um termo universal é aquele que se
refere a algo que pode ser predicado de várias coisas, ou que é um gêne-
ro ou espécie de coisas. Assim, branco ou redondo são universais como
todo adjetivo o é, mas também há substantivos universais que se referem
a gêneros ou espécies, como: homem, animal ou casa. Pois bem, serão os
universais entes reais na mente de Deus? Ou são eles meros nomes dados
a conjuntos de indivíduos? Se assim for, só existem na mente de quem os
pensa. É possível, a um filósofo, admitir um ou outro ponto de vista. Será
ele, se admitir o primeiro, realista, e o segundo, nominalista. Entretanto,
pela força da coerência lógica, sua doutrina obrigará, segundo uma ou ou-
tra posição, a uma série de decorrências teológicas.
A Teologia cristã veio tomar corpo com Santo Agostinho (354-430)
absorvendo através do neoplatonismo, o que lhe era favorável da Filosofia
grega. A ideia platônica de uma realidade perfeita, fora do mundo, era co-
natural com o pensamento de um grande número de pensadores cristãos. O
real está fora do mundo e aqui só aparece na memória dos homens como
é a conclusão de Santo Agostinho: “passado e futuro são todos medidos,
como também o presente, pela memória”. De fato, toda realidade, inclusi-
ve os universais e o próprio Deus, escondem-se na memória dos homens,
porém, o real está na mente de Deus.
Mas os livros platônicos não ensinam que o filho único de Deus encar-
nou-se, padeceu e morreu entre nós homens para nos salvar e, portanto,
Deus é essencialmente amor. Por outro lado, a consciência dos homens não
duvida, antes tem a certeza, de que aquilo que ama é Deus. E Santo Agos-
tinho, num dos mais conhecidos capítulos de suas confissões, interroga a
tudo que há no mundo: “Quem é Deus?” E a resposta é sempre: “eu não
sou, mas Ele nos criou” – inclusive a alma humana. Assim, pela teologia
agostiniana, a natureza é o testemunho da existência de Deus e, portanto
– como aliás o afirma o Genesis – é boa. Entretanto, não será necessário
preocupar-se o homem com a natureza a não ser para louvá-la como obra
de Deus. Era necessário, pelo contrário, volver os olhos do espírito para
dentro de si mesmo e, ali, procurar a graça divina que redime o pecado.
Todo o interesse estava, portanto, em conhecer Deus, o que poderia ser
feito, além de pela fé, pela visão teórica. Daí a necessidade da Teologia.

113
Pelo contrário, os nominalistas, não admitindo os universais como
reais, na mente de Deus, viram-se na impossibilidade de compreender o
próprio Deus, em quem acreditavam além de qualquer entendimento. As-
sim, para eles, Deus tornou-se inefável e além de qualquer teoria. Só atra-
vés da mística poder-se-ia vir a conhecer Deus.
Um segundo problema da especulação abstrata medieval foi, como já
mencionado anteriormente, o da criação do mundo. Para a Filosofia gre-
ga, a natureza era um eterno processo de geração e corrupção. Era em si
criadora, porém, não fora criada e nem seria destruída. A crença cristã,
entretanto, era que havia um Ser perfeito, eterno, que poderia destruí-la,
também, no momento que assim o quisesse. A expressão de origem grega:
“do nada, nada se pode fazer” foi desta forma complementada por: “sem
a intervenção de Deus”. Portanto, criação vem a significar fazer algo do
nada – o que é totalmente estranho ao pensamento grego. Isso abre uma
série de problemas dos quais apenas o primeiro é o da separação completa
entre Deus criador e o mundo, onde nada se pode criar. Ontologicamente,
Deus é um Ser em si e por si, enquanto que o ser das coisas do mundo está
fora delas e depende de outro. Se tal problema não é bem focalizado, há o
perigo da teoria teológica cair ou na heresia do panteísmo – em que Deus e
natureza são confundidos num mesmo ser – ou na do politeísmo – quando,
como fizeram os gnósticos, admite-se uma separação tão profunda entre
Deus e natureza que se chega à necessidade de se admitir um deus menor
(demiurgo) criador do mundo.
John Scotus Erigena (815-877) enfrentou o problema de como Deus,
sendo infinito, onipotente e necessário, teria criado um mundo finito, arbi-
trário e contingente. Para tanto, em seu tratado de divisione naturae, ele
divide tudo que existe em quatro classes:
1. aquilo que cria: Deus,
2. o que cria e é criado: as ideias em Deus,
3. o que não cria, porém é criado: o mundo espaço-temporal,
4. o que não cria nem é criado: Deus. Entendendo esse como fim
último de tudo e que não se distingue do seu próprio propósito e,
portanto, não cria.
É preciso lembrar, porém, que devido à forte influência neoplatônica
de John Scotus Erigena o mundo criado só inclui o mundo inteligível dos
universais (ele é um realista radical). Os objetos físicos são meras apa-
rências que, na realidade, não são. Da mesma forma, o mal e o pecado
do mundo, considerados deficiências ou privações, na realidade não são.

114
Tudo o que é real é, portanto, uma ideia de Deus, em si perfeita, tudo que
é finito, arbitrário, contingente são deficiências que, na realidade, não têm
ser. E tudo que é real vem de Deus e termina em Deus. É fácil ver que tal
doutrina rasteia pelo panteísmo. No que, de fato, John Scotus é acusado de
ter caído. De qualquer forma, porém, a especulação sobre o problema da
criação do mundo exige uma visão teórica da realidade.
Uma última questão de disputa medieval foi o tema da “razão” entendi-
da essa na sua significação medieval de ratio que é uma tradução da logos
grega, isto é, significa não só raciocínio como também palavra. No pensa-
mento grego, o homem é tanto animal como racional, portanto, como ani-
mal seria um ente deficiente para a mentalidade medieval, porém, segundo
o próprio evangelho de São João, o logos era Deus. Assim, o homem seria
um ser intermediário entre uma simples aparência deficiente e Deus. Era
um ente contingente e, entretanto, dotado de uma centelha divina.
Santo Anselmo de Cantuária (1033-1109) foi um daqueles que discu-
tiam o tema. Para ele, partia-se da fé, mas essa sempre levava à compreen-
são racional: “fides quaerens intellectum”, assim, à existência de Deus.
Crê-se nela, mas é possível mostrar que, não crer em Deus, não é racio-
nalmente possível. O célebre argumento ontológico da existência de Deus
exposto no seu proslógio diz: “A fé nos diz que Deus é o ser que não se
pode pensar outro maior que Ele. Pela razão é possível pensar um ser tal
que não se possa pensar maior. Ora, se esse ser não estiver também fora
do pensamento, não será o maior, donde se chegaria a uma contradição: a
de que se poderia pensar algo maior que Deus se esse não existisse. Logo,
se Deus existe no pensamento, deve existir também na realidade para que
não se chegue a uma contradição racional.” Enfim, segundo Santo Ansel-
mo, o logos, que pertence também ao homem, impede que se possa negar
logicamente a existência de Deus. E aqui se está, de novo, fazendo teoria.
Durante todo o século XII, essas questões foram ensinadas, propostas
e debatidas em todos os mosteiros da Europa. Entretanto, apareciam agora
centros que não eram exatamente mosteiros, mas catedrais onde se reu-
niam figuras humanas de um caráter novo – correspondentes ao que hoje
chama- se de intelectuais. Em Chartres e em Paris, por exemplo, pensa-
dores importantes aglutinavam, em torno de si, doutrinas concordantes e
formavam o que se chamou de Escolas, muitas delas heréticas.
No século XIII, apareceu, no mundo europeu, uma atitude crítica que
contrastava com a posição acrítica do período anterior. Essa atitude coinci-
de com a fundação das primeiras universidades: a de Oxford, a de Bologna
e a Sorbonne, onde se ensina Teologia, Jurisprudência e Medicina após

115
os cursos básicos do trivium e quadrivium. Iniciou-se, provavelmente, a
atitude crítica com o exame filológico dos textos antigos. Por outro lado,
chegavam à Europa as traduções diretas do grego de Aristóteles, entre eles,
a sua física e a sua metafísica, que vieram juntar-se à sua já conhecida
lógica. Dessas, o dominicano São Tomás de Aquino (1227-1274) retirou
sua suma teológica, cuja doutrina adotada e ensinada, daí por diante, em
quase todas as escolas revigorou a Escolástica.
São Tomás foi o primeiro dos medievais que separou nitidamente a
fé da razão. A Teologia fundou-se sobre a revelação divina, portanto, so-
bre a fé; enquanto que, a Filosofia, sobre a razão. Porém, ambas deviam
coincidir nas suas conclusões, pois Deus é a própria verdade. Como tanto
a Teologia como a Filosofia buscam pela verdade, elas deverão coincidir
entre si.
O tomismo, porém, só é formalmente semelhante ao aristotelismo, por-
quanto o significado de um é radicalmente diferente do outro. A certeza no
mundo, do segundo, foi revertida na certeza cristã de Deus. A criação é um
dogma inexplicável racionalmente. Mas, por outro lado, o tomismo rece-
beu do aristotelismo a ideia de que toda mudança que se observa no mundo
é o resultado de um anelo de forma – uma passagem da potência para o ato,
do possível para o real. A criação é, portanto, a passagem do mundo que
existia em potência, na mente de Deus, para a sua existência atual.
Paulatinamente foi-se dando, então, o que era previsível: a teoria aplica-
da a Deus, na Teologia, transbordou para a teoria aplicada ao mundo, a Phy-
sica. Retomou-se, então, no Ocidente (a princípio muito timidamente), o
interesse teórico pelo mundo – possibilidade essa que se mantivera latente
durante quase mil anos na preservação da capacidade de fazer teoria atuan-
te na Teologia. É verdade que a ideia de natureza, estruturada de forma tal
que as causas devessem ser procuradas nas virtudes implícitas nas próprias
coisas, é absolutamente imprópria para o desenvolvimento de qualquer
ciência natural como a entendemos hoje. O que aconteceu foi que, uma vez
estabelecida essa visão aristotélica da natureza, e tendo ela sido consagrada
pela Igreja, com a Escolástica tomista, congelou-se o espírito de investiga-
ção originalmente existente no Estagirita e, durante 300 anos, nada mais
se fez do que explicar as causas pelas suas virtudes internas, como satiriza
Molière em sua tão conhecida passagem. Num exame, o candidato a médi-
co é perguntado por que o ópio faz dormir e responde, com grande sucesso,
que o ópio faz dormir em virtude de sua natureza dormitiva.
Note-se, então, que, dentro daquelas circunstâncias, quanto mais velho
era o livro, mais digna de crédito era a informação, algo, para nós, quase

116
inconcebível. Os livros antigos ensinavam que o universo era uma esfera
de tamanho limitado e fechado. E a crença cristã acrescentava ter ele sido
criado por Deus – não há muito tempo – e em perigo de ser destruído
totalmente, num futuro não muito remoto, pela vontade divina, para dar
lugar ao reino dos céus. A Terra ocupava o centro do universo em posição
e importância: no seu interior, havia o inferno, e em sua volta, a água dos
oceanos. De um lado, emergia das águas o continente dos homens e, do
outro, a ilha do Purgatório. Além da esfera celeste, havia o céu – perfeito,
eterno e imutável –, onde estavam os santos e Deus. Mas, continuando a
dialética acima mencionada, tudo isso contribuía a trazer de novo ao oci-
dente alguma preocupação sobre a constituição do universo e, portanto,
sobre a natureza.
Entretanto, o próprio espírito crítico que fizera surgir as universidades
(provavelmente com os exames filológicos mais apurados dos textos anti-
gos) desenvolveu principalmente entre os franciscanos, no que diz respeito
aos estudos da natureza, a partir do fim do século XIII, um antiaristotelis-
mo e uma nova focalização do platonismo, principalmente no que ele é
mais chegado ao pitagorismo. A atitude crítica traz consigo inevitavelmen-
te a atenção para o sujeito pensante, isto é, para o crítico, o qual se coloca
em oposição ao objeto pensado. Assim, iniciou-se no estudo da natureza, a
separação entre o homem que pensa e a natureza que é pensada.
Apesar do século XIII ter sido dominado pelo espírito de São Tomás,
um franciscano de Oxford já vinha se contrapondo a ele ainda em vida, e
que, talvez por causa disso, tenha passado os últimos 15 anos de sua vida
encarcerado. Hoje, se poderia pensar Roger Bacon (1210-1294) como um
revolucionário progressista, mas, na realidade, ele é um reacionário contra
as ideias então modernas do tomismo. Insiste que a verdadeira sabedoria
não está nos últimos tratados, mas que é necessário buscá-la nos filósofos
antigos: talvez no pitagorismo dos neoplatônicos. Assim, sua tentativa de
visualizar a Física através da Matemática é essencialmente pitagórica, sua
preocupação de construção de instrumentos é essencialmente alexandri-
na, sua preocupação pela experiência é alquímica. Em Roger Bacon, há
uma curiosa coincidência com ideias que viriam brotar de novo no Re-
nascimento. Entretanto, em sua época, elas seriam reacionárias, contrárias
à evolução tomista. Porém, no Renascimento, seriam progressistas, pois
agora seriam contrárias ao tomismo já desgastado.
De fato, Roger Bacon apresenta uma teoria menos avançada que a de
São Tomás, no seu tempo. Mas ele contribui para a descoberta de novos
campos de interesse, os quais serão vasculhados pelos franciscanos dos sé-

117
culos seguintes. É verdade que são estudos ainda extremamente abstratos
da natureza, mas são esses que, retomados por Galileu, por exemplo, virão
se constituir como inspiradores da ciência barroca do século XVII, como
se pretenderá mostrar adiante.
Até Santo Tomás, o realismo dominara – isto é, aceitava-se que os
universais existissem realmente. A tendência experimental de Roger Ba-
con levava-o a descrer da realidade dos universais: “Há mais realidade
num indivíduo do que em todos os universais juntos”, disse ele. Já com
o tomismo, o realismo mitigara-se: os universais eram reais, porém, não
existiam em separado; mas, somente, como abstrações. Da mesma forma
que o triangulo é real, mas não existe separado das coisas triangulares. É
uma abstração da forma triangular nelas existentes. Nos séculos XIV e XV
vem a imperar o nominalismo. Os universais são simples nomes (flatus
vocis), emissão vocal sem existência real. Os franciscanos Duns Scotus
(1266-1308) e Guilherme de Ockham (~1300-1350), seu seguidor, foram
os iniciadores dessa nova mentalidade. Com o nominalismo, o centro da
realidade passa para as coisas individuais e, portanto, abre-se a necessida-
de de consultá-las através da experiência.
Por outro lado, a epistéme grega, então representada pelo aristotelis-
mo, era uma teoria logicamente organizada e coerente. Seria, portanto sem
mais, verdadeira. Isto porque, para os gregos, o lógico e o real eram a
mesma coisa. Ser e pensar são o mesmo, diz Parmênides em seu poema
do qual se originaram tanto a Lógica como a Metafísica. Havia, portanto,
um verdadeiro absurdo em confrontar uma teoria com a experiência, pois
que essa seria sempre enganosa. Esse é o dilema do final da Idade Média.
Para Duns Scotus, o conhecimento da natureza seria o de um conjunto
de formas ou essências, originariamente simples ideias formais na mente
de Deus, transferidas à mente dos homens. Essas formas seriam comuns
aos indivíduos de um mesmo gênero ou espécie, mas a existência real era
só dos indivíduos e constituía-se adição de uma esseidade própria de cada
coisa, raiz de sua individualidade e garantia de sua realidade. Estava-se
assim em pleno nominalismo.
Já no século XIV, Guilherme de Ockham nega totalmente a possibi-
lidade da prova da existência de Deus, pois que nenhum dos atributos de
Deus pode ser objeto da nossa experiência. O objeto de conhecimento é
sempre um indivíduo posto diante da nossa percepção. Nada existe antes
do conhecimento de um objeto, exceto o próprio objeto conhecido; e o
objeto dos sentidos e da intelecção deve ser o mesmo. Deus só pode ser
conhecido como a causa dos objetos do mundo que conhecemos, mas, não

118
é possível chegar ao conhecimento das causas pela análise dos efeitos.
Deus está, assim, acima de nosso entendimento.
Entretanto, diz Ockham, que toda scientia é dos universais, pois não tem
sentido o saber a respeito de um indivíduo só, porém os universais das ciên-
cias resultam do conhecimento de particulares. Portanto, são nomes (ou mo-
dernamente símbolos) que a mente elabora significando propriedades gerais
de gêneros e espécies de indivíduos. Não correspondem, entretanto, à reali-
dade alguma fora da mente. Esses nomes são flatus vocis. Foi essa a primeira
vez que se estabeleceu o caráter simbólico do conhecimento humano – con-
ceito que domina o pensamento moderno. Esse princípio, entretanto, sepa-
rou definitivamente a Lógica da Metafísica, pois à Lógica competia o estudo
de símbolos, diferentes do ser em si estudado pela Metafísica. Separaram-se,
também, irrevogavelmente, Filosofia e Teologia – sendo a primeira um saber
simbólico, o que não seria aceitável para a segunda.
No que concerne aos propósitos do presente estudo, o conhecimento
científico da natureza, através dos meros nomes dos fenômenos, veio tra-
zer uma certa compreensão do processo de sua matematização, na medida
em que tais fenômenos vieram a ser expressos por símbolos matemáti-
cos. Seriam esses seus meros nomes, mas não sua realidade. No dizer de
Galileu: a natureza está escrita em caracteres matemáticos. Porém, numa
retomada moderna do realismo (ou platonismo) poder-se-ia conceber a
natureza como sua própria expressão matemática. É o tema central desta
investigação e, como tal, deve e será retomado adiante.
Um princípio que domina o conhecimento moderno – princípio da eco-
nomia na explicação – deve-se a Guilherme de Ockham. Por esse prin-
cípio, qualquer explicação deve ser a mais simples possível. É o célebre
preceito da Navalha de Ockham, pelo qual são abominadas as definições,
distinções e separações complexas, quando há possibilidade de uma expli-
cação direta e simples. Ora, esse é o caso da explicação matemática.
Nessa época, a Europa foi avassalada pela peste negra, uma das maio-
res catástrofes que pôs em perigo a própria existência da humanidade,
calculando-se o número de mortos, na Europa, em cerca de 25 milhões.
Atingiu a Inglaterra em 1348, matando dois terços dos estudantes de Ox-
ford e, entre eles, a Guilherme de Ockham.
Mas a ideia de experiência já invadira definitivamente o mundo dos
estudiosos. Não se deve pensar, porém, que o significado da palavra “expe-
riência” seja o mesmo que o é para nós, hoje. Tal ideia tem origem no con-
ceito do próprio São Francisco, da familiaridade do homem com o mundo.

119
O homem, para o poeta São Francisco, é irmão do Sol e da Lua, de todos
os animais e coisas da natureza, pois todos foram criados por um mesmo
pai divino. Essa familiaridade restabelece ao homem o direito e o dever de
ocupar-se de sua “família”, interessando-se pela natureza e concedendo, a
todas as coisas criadas, a mesma dignidade.
Mas, como dissemos, não se pense que a experiência franciscana é
algo semelhante à nossa experiência científica. Ela é o reconhecimento
vivencial da propriedade das coisas do mundo – muito mais próximo da
atuação do artista que do sábio. Por tal experiência, o objeto é apreendido
em sua totalidade, enquanto que, na experiência moderna, são recortadas
dos objetos apenas as notas que interessa conhecer para comprovar uma
determinada visão teórica prévia.
Daí por diante, o clima cultural deveria dividir-se. De um lado, a Teo-
logia ortodoxa do tomismo, procurando manter a Filosofia como sua serva
e opondo-se a qualquer outro conhecimento da natureza que não fosse o
aristotélico. Do outro lado, um conhecimento de Deus engolfado na mís-
tica de um mestre Eckhart, deixando o campo livre a uma nova Filosofia
Natural voltada principalmente para a investigação do problema tradicio-
nal do movimento, em termos matemáticos.
Contudo, a Filosofia Natural medieval, presa ao significado greco-
-aristotélico do movimento como transformação de forma (geração, cres-
cimento e decomposição), embora também o entendesse como troca das
posições dos corpos no espaço, não era capaz de empreender o processo
completo da matematização do movimento. Isso tornou difícil entender,
por exemplo, a trajetória de um projétil ou de uma seta no espaço. Foi
mesmo necessário admitir a ideia, não convincente, de que o próprio ar
seria a causa do movimento dos projéteis. Pois era impossível ao aristo-
telismo admitir um efeito sem causa, tal como o movimento sem o seu
motor.
Por outro lado, a teoria aristotélica do movimento natural dos elementos
à procura de seu lugar próprio na natureza – a terra no centro, a água por
cima e o ar e o fogo mais em cima – não explicaria o fenômeno conhecido
da queda acelerada dos graves. Isto levou à reinterpretação da Física aris-
totélica, introduzindo, no texto, explicações desse fato que não contradis-
sessem a doutrina, mesmo à custa de introduzir nela elementos espúrios.
Não é claro, mas é provável que os filósofos medievais, do fim da Idade
Media, já entendessem o movimento sob forma matematizável em vez de
manterem a ideia de movimento como transformação da forma. A Teoria

120
do Ímpeto é a mais famosa dessas reinterpretações.
Jean Buridan (1300-1358) e seu discípulo, Nicole d’Oresme (1323-
1382), ambos ensinando em Paris, são os revivificadores da Teoria do Ím-
peto – tão importante para o estabelecimento da Física moderna. Eles a
encontraram nos comentários do grego bizantino Philoponos, do século V,
na sugestão de que os corpos móveis não necessitavam de serem continua-
mente mantidos em movimentos, como queria Aristóteles. Todo o corpo,
ao ser posto em movimento adquiriria um poder (impetus) que o manteria
em movimento. O meio em que se moviam não seria, portanto, causa de
seu movimento, mas, pelo contrário, como mostrava a experiência, ofere-
cer-lhe-ia resistência.
Essa teoria foi estendida por Buridan e d’Oresme para o movimento
dos corpos celestes, colocados em órbita pelo Criador, os quais não encon-
trando resistência ao seu movimento continuariam eternamente movendo-
-se pelo favor do ímpeto adquirido. Por outro lado, os corpos em queda
livre teriam seu movimento constantemente acelerado, porquanto, mesmo
depois de adquirir o primeiro ímpeto continuariam a ser acionados pelo
próprio peso na queda, acrescentando, a cada momento, mais ímpeto ao já
adquirido no momento anterior.
No Merton College, da Universidade de Oxford, por esse tempo – mea-
dos do século XIV – homens de nomes tão sonoros como Thomas Brad-
wardine (1290-1349), Richard Swineshead, William Heytesbury (1313-
1372) e John Dumbleton (1310-1349) ocupavam-se de matematização35
do movimento acelerado, questionando o problema de uma “forma unifor-
memente variável”. Criaram o que chamaram de um “cálculo das formas”,
cujo ponto de partida é a célebre regra de Merton que diz: “qualquer forma
uniformemente variável equivale a uma forma uniforme cujo valor seja
a média da forma variável”. Entendendo-se por “forma” um movimento,
chega-se à regra elementar, deduzida por Oresme, que, para, por exemplo,
se calcular o espaço percorrido por um móvel uniformemente acelerado
desde a velocidade zero até a velocidade v, durante um tempo t, bastaria
multiplicar t, pela metade de v. Não é difícil compreender a generalização
de D’Oresme de que os intervalos de espaço percorridos por um tal móvel,
nos sucessivos intervalos iguais de tempo, estão entre si na mesma relação
que os números ímpares sucessivos.
Estava assim concluído o longo percurso da Teologia, através da Idade
Média, desde o abandono da atenção à natureza até a volta a ela. Um tes-
35 MURDOCH, J. E. ; SYLLA, E. D. The Science of Motion. In: Science in the Middle
Ages Op. cit.(32)

121
temunho dessa passagem, da Teologia à Filosofia da Natureza, é o célebre
tratado imago mundi do cardeal, doutor pela Universidade de Paris, Pier-
re d’Ailly (Petrus Alliacus) (1350-1420) que apareceu em cerca de 1410.
Essa obra segue a linha do nominalismo ockhamista e descreve o mundo
como esférico, de sorte que ali se afirma que a Índia poderia ser atingida
navegando para oeste.
A Teologia cristã teve, portanto, além de seu valor próprio, o papel
de agente transferidor de uma forma de pensar ocidental, desde suas fon-
tes helênicas até seu teatro europeu. É que Teologia é, também, teoria, e
teoria, por sua própria estrutura aberta, não pode ser restrita a uma única
região da realidade. A visão de Deus, pelos olhos do espírito, necessaria-
mente conduziria, como conduziu, à visão teórica da natureza e, desta,
como aconteceu depois, à da sua matematização. Assim, paradoxalmente,
a Teologia teve um papel importante nesse processo.
Sem a questão do nominalismo, não teria sido instituída a forma sim-
bólica de conhecimento, essencial para o estabelecimento da ciência mo-
derna da natureza. Sem a questão do movimento como simples mudança
de lugar, calculável matematicamente, jamais se poderia subordinar os fe-
nômenos naturais a uma ordenação matemática. Mas é necessário enten-
der que a matemática desses nominalistas não se constituíra ainda como
análise dos fenômenos pela pura razão humana. Para eles, a racionalidade
dos fenômenos fora imposta por Deus, independentemente da existência
da mente humana.

122
V- OS PROLEGÔMENOS DA CIÊNCIA MODERNA

a) A ciência do Renascimento
Depois de concluir que o conhecimento teórico teve origem na Grécia
Clássica e que foi transferido, sob a forma de Teologia, através da Idade Mé-
dia, chega-se ao Renascimento como a época do surgimento de uma nova
ciência. É, porém, preciso não confundir a ciência do Renascimento com a de
hoje. Entenda-se essa como um saber operativo sobre a natureza que se esbo-
çou entre cerca de 1430 e 1630, mas que não conseguiu ter continuidade. Foi
substituída, a partir do século XVII pela ciência moderna. Uma tal ciência
renascentista – como se pretenderá mostrar a seguir – também seria baseada,
como a nossa, numa conjugação entre teoria e experiência, mas o significado
de experiência é totalmente diferente daquilo que essa palavra tem hoje. Para
nós, a experiência científica deve ser metodicamente organizada depois do
fenômeno já ter sido concebido pela mente. No Renascimento, experiência
quer dizer “vivência do fenômeno por visão ou sensação direta”, seguida da
descrição por relato, mapa ou desenho do que foi experimentado.
Pois foi esse tipo de saber – e o que ele realizou – que se pretende aqui
apresentar como prolegômenos da ciência moderna, quer, por exemplo,
através dos desenhos anatômicos de um Leonardo da Vinci, quer pelas
crônicas e pelos mapas das navegações, na descoberta do Novo Mundo,
pois foi através desses que foram descobertos novos aspectos da realida-
de. É uma aproximação amorosa e dramática da realidade, em que a visão
do cientista não difere muito da do artista ou do aventureiro. Na Idade
Moderna, como se procurará mostrar adiante, a experiência científica pas-
sou a ser organizada de acordo com conjetura ou teoria prévia, preferi-
velmente formulada matematicamente. Como por exemplo, a experiência
dos planos inclinados de Galileu foi organizada para mostrar, o que ele já
tinha pensado como certo. Tais experiências, para serem validadas, não
raro, devem ser levadas a efeito em situações diversas das prevalentes na
natureza.
A ciência do Renascimento se instituiu, primeiramente, como oposição
a Aristóteles. Não se admite mais que a natureza seja movida internamen-
te por um anelo da forma como queria o Estagirita, baseia-se, agora, na
crença renascentista de que há uma anima mundi sobrenatural, que move
a natureza e, da qual, a mente humana participa e, portanto, é capaz de
decifrar-lhe os segredos – o que não difere muito da magia natural.

123
O homem poderia, assim, atuar sobre a natureza através dessa instância
sobrenatural. Ora, por aí se pode entender uma atuação mágica: a magia
natural, como era chamada essa componente operativa sobre a natureza.
Quanto à Matemática, apesar da Álgebra e da Trigonometria, de origem
árabe, terem um aspecto de meros instrumentos de cálculo, vislumbra-
-se nelas a intenção de atuar sobre o mundo. Tanto a Geometria como a
Aritmética renascentista eram baseadas na crença de que a estrutura do
mundo era a das proporções misticamente harmoniosas. Nascera delas a
Perspectiva perspectiva que possibilitava ver o mundo em profundidade.
Assim, sob a inspiração da magia natural, a Geometria perdeu o aspecto
de pura contemplação e assumiu operatividade sobre o mundo. Através
da Perspectiva e da Teoria das Proporções, o artista-cientista do Renasci-
mento sentia-se como que senhor da realidade e capaz de decifrar-lhe os
segredos. Semelhantemente, o cosmógrafo poderia determinar sua posição
na Terra, pela posição dos astros no céu.
Esse clima científico do Renascimento era a resultante de vários
componentes:o gosto pela “descoberta” dos “segredos” da natureza, liga-
do ao gosto pelas pesquisas ocultas, pelas aventuras e pela sedução das
“utopias”; a crença de que o saber da natureza, só teria valor quando ga-
rantisse o domínio do homem sobre ela; a crença de que o conhecimento
do mundo só pode ser obtido através da experiência vivenciada – embora
essa vivência pudesse e devesse ser guiada pela razão; a crença de que o
homem teria valor por si mesmo, por suas obras e seu esforço e não por sua
ascendência nobre e divina.
Aliás, essas crenças são bastante propícias para a formação do am-
biente de “inquietação e apetite pelo conhecimento” de que fala Jaime
Cortesão36. Ambiente esse que, voltado primeiramente para a descoberta
e o domínio do próprio mundo, preparou e determinou o movimento dos
descobrimentos geográficos. Movimento esse que, por uma determinação
histórica, coube aos povos ibéricos. Ao mesmo tempo, entretanto, essas
crenças são conaturais com a mentalidade da classe burguesa que ascendia
ao poder. Daí ser natural que a expansão geográfica tivesse sido feita, des-
de o seu início, também com o interesse mercantilista.

b) As navegações ibéricas
Se é verdade que o processo de matematização da natureza tenha-se
tornado possível com o advento do pensamento teórico, na Grécia antiga,
e teve início com a matematização dos céus e da Terra, pela Astronomia e
36 CORTESÃO, Jaime. A expansão dos portugueses no período henriquino. Lisboa:
Livros Horizonte, 1975.

124
pela Geografia de Ptolomeu, não é menos verdade que sua realização to-
mou corpo a partir das navegações e descobertas ibéricas no Renascimento.
Como, onde e quando o Renascimento começou é questão de respos-
ta difícil. Como esse movimento estabeleceu-se lentamente e em várias
partes da Europa, é arbitrário afirmar quando e onde começou. De fato,
pode-se dizer que há vários Renascimentos estourados em vários pontos e
várias datas a partir ou durante o século XV.
Pode-se conjeturar que um deles teria tido início em Portugal, em 1433,
quando o Infante D. Henrique, o Navegador (1396-1460), instruiu um seu
escudeiro, Gil Eanes, comandando uma nau, a transpor o cabo Bojador,
na costa da África na altura do sul das Canárias. A ideia dominante era a
de que, dali para o sul, não seria mais possível a vida. De acordo com a
Geografia de Ptolomeu, a terra era estéril, o mar fervia e, quem para além
se aventurasse, não mais tornaria. A instrução de D. Henrique ao seu capi-
tão foi a de dobrar o cabo para constatar pela “visão direta” se realmente
assim era. É o início da constatação, pelos olhos do rosto, daquilo que fora
estabelecido pela autoridade antiga pelos olhos do espírito.
O resultado da expedição é descrito pelo cronista Gomes Eanes de Zu-
rara37: “Como de feito fez, que daquela viagem, menosprezando todo peri-
go, dobrou o cabo a além, onde achou as coisas pelo contrário do que ele
e os outros até ali presumiam.” Ao voltar, relatou Gil Eanes sua aventura
ao Infante, terminando, segundo Zurara, assim: “E porque, senhor – disse
Gil Eanes – me pareceu que devia trazer algum sinal da terra, pois que em ela
saia, apanhei estas ervas que aqui apresento a Vossa Mercê, as quais nós em
este reino chamamos rosas de Santa Maria.” Isso, e mais adiante, o trans-
porte de um barril de água do rio Senegal para Lisboa, fazem lembrar as
expedições dos atuais astronautas à Lua, trazendo de volta amostras de
solo e rocha lunares.
Mas, de há muito que expedições portuguesas se faziam ao mar exploran-
do o Atlântico desconhecido. A organização da marinha portuguesa remonta
a D. Dinis (1279-1325), entretanto as primeiras viagens documentadas são
as de genoveses às Canárias, entre 1312 a 1330. As primeiras viagens portu-
guesas a essas ilhas teriam sido logo após, quando encontraram os primeiros
“selvagens nus” com que a cristandade se defrontou. Em 1415, D. João I e
seus filhos, entre eles D. Henrique, comandando uma força portuguesa, to-
maram Ceuta aos árabes. No ano seguinte, D. Henrique toma a si a orientação
de viagens exploratórias. A orientação científica que D. Henrique impôs às
37 ZURARA, Gomes Eanes de. Crônica da Guiné. Segundo manuscrito datado de
1453, da Biblioteca Nacional de Paris, edição com introdução, novas anotações e
glossário de José de Bragança. Porto: Livraria Civilização Editora, 1973.

125
suas explorações atlânticas – desde início das mesmas – é atestada pelo fato
de ter ele convidado a vir trabalhar consigo, um dos maiores cartógrafos da
época: Yafuda – filho de mestre Abraão Cresques, da Maiorca, autor do céle-
bre mapa-múndi catalão de 1375 que se conserva em Paris.
Diz o cronista Diogo Gomes: “Em tempo, o Infante D. Henrique, de-
sejando conhecer as regiões afastadas do oceano ocidental, se acaso ha-
veria ilhas e terra firme além da descrição de Ptolomeu, enviou caravelas
para procurar terras”. Assim, Bartolomeu Perestrelo (sogro de Colombo)
chegou à Madeira em 1418, cuja povoação só é feita em 1425. Os Açores
foram descobertos em 1427.
A Geografia de Ptolomeu, escrita em Alexandria mais de mil anos
antes, estava em causa. Não se sabe se existiam mapas anexos e nem se
sabe em que extensão eram conhecidos os textos ptolomaicos em Portugal.
As primeiras compilações medievais do texto grego da Geografia são bi-
zantinas do século X ou XI. Não se sabe se as traduções árabes, existentes
desde 815, eram conhecidas em Portugal. Porém há um manuscrito flo-
rentino de Jacopo D’Angiolo, dedicado ao Papa Alexandre V, de 1409 ou
1410. De qualquer forma tratava-se de, pela primeira vez, pôr em dúvida
a autoridade clássica e verificar, pela visão direta, a sua verdade. Uma an-
tiga impressão de mapa-múndi, necessariamente baseada nas coordenadas
geográficas de Ptolomeu, é a de Ulm, de 1482. Nesse mapa, o caminho
da Índia, contornando a África, é bloqueado por uma “terra incognita se-
cundum Ptolomeum”, colocada ao sul da “Etiópia Interior” e isolando o
oceano Índico do Atlântico.
Tudo isso o Infante pôs em dúvida e decidiu comprová-lo pela visão
direta. Como diz Zurara:
[...] porque ele tinha vontade de saber a que terra que ia além das ilhas Canárias
e do cabo que se chama Bojador, porque até aquele tempo, nem por escritura
nem por memória de nenhum homem, nunca foi sabido determinadamente a
qualidade da terra que ia além do dito cabo(37).
O reconhecimento da costa da África se faz, então, sistematicamente
sob a direção do Infante, entre 1433 e 1447, com 23 expedições sucessi-
vas, metodicamente organizadas com 63 caravelas projetadas, construídas
e armadas, nos estaleiros de Lagos, sob a supervisão de D. Henrique. Fo-
ram todas postas sob o comando de criados, escudeiros ou próximos do
próprio D. Henrique – evidentemente instruídos nas artes náuticas e na
cartográfica, no próprio círculo do Infante.
Pode-se conjeturar, pela leitura de Zurara, que os capitães deveriam cos-

126
tear a África durante o dia, provavelmente com o fim de mapeá-la. A noite
amainavam, provavelmente para tirar a latitude do local, medindo, com
astrolábio, a altura da Estrela Polar, levando em conta a posição dos “guar-
das” da Ursa Menor. Não se conheciam meios de determinar a longitude. A
posição era estimada pelos rumos dados pela bússola e pela estimativa da
distância percorrida, o que se fazia lançando-se ao mar uma boia amarrada
a uma corda. A corda ia sendo dada à medida que o navio afastava-se da
boia. Na corda haviam nós intervalados regularmente. A contagem desses
nós, num certo intervalo de tempo dado por uma ampulheta, dava a velo-
cidade do navio. Note-se que até hoje se contam as velocidades marítimas
em nós.
Esta maneira de navegar sugere que persistia ainda a intenção de ma-
pear a costa usando a técnica dos portulanos – mapas onde só a linha da
costa era traçada tendo como referência os rumos, dados por uma ou vá-
rias rosas dos ventos desenhadas nos cantos dos mapas. Um belo exemplo
tardio de um portulano (provavelmente com dados portugueses sobre a
costa da África) é o de Jacobus de Maggiolo de 1563 (Biblioteca Nacio-
nal, Paris). No Mediterrâneo, esse método tinha sido muito bem-sucedido,
porém, nas costas da África, predominantemente de direção norte-sul, ele
não era muito apropriado. A medida da latitude fazia-se bem mais impor-
tante. Essa foi a motivação que teria dado origem à Astronomia Náutica
das navegações portuguesas. Tudo isso pressupõe a concepção matemati-
zada do mundo como esfera divisível em coordenadas geográficas.
A volta dos navios era feita sem amainar, engolfavam no rumo no-
roeste à procura de ventos favoráveis e para fugir aos escolhos da costa. É
de se presumir que, mantendo o rumo, observassem a Estrela Polar subir,
cada noite, mais no céu. Quando sua altura atingisse a latitude do Cabo
de São Vicente, era voltar a proa para leste e navegar até a costa. Era o
que se chamava a “volta do mar”, maneira tão simples de navegar que
deveria ser conhecida de todos, inclusive grumetes. Isto explicaria como
e porque, na 16a expedição do Infante, feita por Nuno Tristão, em 1446,
que “[...] passando por o Cabo Verde, foi avante 60 léguas onde achou um
rio, em que lhe pareceu que deveria haver algumas povoações, pelo que
mandou lançar fora dois pequenos batéis que levava, nos quais entraram
22 homens, scilicet38: em um 10 e no outro 12.” Disso resultou uma reação
dos negros guinéus e a morte de todos os expedicionários inclusive Nuno
38 Nota da revisão: contração de scire, infinitivo de scio (saber) e licet (ser permiti-
do, ser lícito); vale dizer; isto é. (INSTITUTO ANTÔNIO HOUAISS. Dicionário
eletrônico Houaiss da Língua Portuguesa. Versão 1.0.5a. Rio de Janeiro: Objetiva,
2002.).

127
Tristão. Porém, na caravela tinham ficado cinco, entre os quais “um moço
da câmara do Infante que se chamava Aires Tinoco”. Pois bem, esse moço
trouxe a caravela sã e salva a Lagos, embora por “dois meses nunca hou-
vera nenhuma vista de terra”.
Com isso, não se quer subestimar os conhecimentos de astronomia de
posição e navegação da época. Havia, então, em Roma, o Cardeal Bessá-
rion (1389-1472) que muito fez pelo desenvolvimento da Astronomia de
Posição (como a chamamos hoje). Entre seus amigos, havia jovens ma-
temáticos alemães, por exemplo: Regiomontanus (Johannes Müller von
Königsberg) (1436-1476) que compôs o primeiro trabalho sistemático de
Trigonometria e uma tabela de senos de minuto em minuto e de tangentes
de grau em grau. Isto levou certos historiadores a afirmar que a Astrono-
mia de Posição, baseada na Trigonometria, sobre a qual os navegantes ibé-
ricos baseavam seus cálculos náuticos, tinham origens em matemáticos da
Europa Central. Entre esses estava Georg von Feuerbach (1423-1461) que
iniciou a tradução da megale syntaxis, de Ptolomeu, da qual um capítulo
era dedicado à Trigonometria. Foi ele que introduziu o uso dos senos nos
cálculos trigonométricos. Pois Regiomontanus estudou com ele em Viena,
e completou a tradução do livro de Ptolomeu. Isso possibilitava o cálcu-
lo das declinações do Sol para cada dia do ano e, portanto, o cálculo da
latitude, pela medida da altura do Sol ao meio-dia. Porém, é possível que
o progresso da Matemática relacionada com os conhecimentos náuticos e
astronômicos tenham sido o resultado e não os meios pelos quais as explo-
rações atlânticas tenham sido realizadas. Talvez essas explorações tenham
sido elas mesmas inspiradoras desses conhecimentos. De qualquer forma,
a prática dos pilotos portugueses de navegar pelas estrelas, é anterior ao
desenvolvimento das tabelas de marear.
De qualquer forma, a Astrologia e a Geometria da Esfera – existentes
desde a Idade Média – teriam sido revertidas. Isto é, em vez de servirem para
determinar a posição das estrelas no céu, no momento de acontecimentos
terrestres, passaram a ser usadas para determinar a posição do navegador
do mar, sendo conhecida a posição das estrelas no céu. É bem provável que
tenham sido os portugueses que tenham simplificado essas observações,
usando em vez de astrolábio – um instrumento já descrito no almagesto, de
Ptolomeu –, a balestilha, um instrumento simples constituído por um eixo de
madeira e uma cruzeta móvel, usado em conjunto com as tabelas de marear.
Sem dúvida, havia ainda, além da necessidade dos conhecimentos náu-
ticos e cartográficos, que levar em conta o que chamaríamos hoje de uma
“pesquisa tecnológica” – a que se refere ao estudo dos navios, suas formas

128
e o do material com que eram feitos: a madeira do carvalho cortada de
florestas escolhidas e requisitadas para esse fim. Havia ainda que projetar
os navios para serem capazes de transportar alimentos agora necessários
para os longos períodos de viagem. Já desde muito os estaleiros de Lagos,
sob a direção do Infante, tratavam da construção de navios cada vez me-
lhores. Desses trabalhos técnicos resultou a construção da maravilha náu-
tica de então: a caravela. Evidentemente, nessa época, o maior saber sobre
tais assuntos era detido pelos árabes – que tinham não só uma navegação
estabelecida no Mediterrâneo, suprida pelos estaleiros árabes de Sevilha,
como também do Mar Vermelho para a Índia, ao longo das costas árabe
e persa e através do mar Índico. Estavam eles em contato com uma outra
grande marinha: a dos chineses. Por isso não é de se admirar que, entre os
técnicos de D. Henrique, em Lagos, houvesse árabes, quiçá conhecedores
de técnicas náuticas chinesas.
A princípio, nada fazia supor que tais viagens pudessem trazer provei-
tos econômicos – a não ser quando o caminho da Índia fosse descober-
to. Entretanto, em 1441 foi trazida do sul do cabo Bojador uma pequena
quantidade de ouro e alguns nativos berberes. Isto tornou a exploração
da costa da África também um promissor negócio de ouro e escravos.
Até então, tinha-se investido nelas apenas uma barca, um barrinel e qua-
tro naus não especificadas. Porém, a partir de 1443, com a expedição de
Nuno Tristão só se empregaram caravelas. Foram 63 caravelas que se de-
sincumbiram maravilhosamente da tarefa, firmando-se esses navios como
instrumentos precisos e confiáveis nas navegações posteriores. O capital
para a construção e armação desses navios devia ter vindo dos escravos e
do ouro da Guiné.
Aliás, o ano 1443 é particularmente significativo, pois foi quando o
Infante começou a edificação de sua Vila, no promontório de Sagres, pró-
ximo ao Cabo de São Vicente. Ali teria reunido, em torno de si, alguns
médicos judeus – os quais, como astrólogos que eram todos os médicos da
época, poderiam instruir navegantes a como determinar o ponto no mar.
Instruiu seus ajudantes mais próximos – criados e camareiros, como os
enumera o cronista Zurara – como capitães de seus navios e construto-
res de seus barcos. Ali teria organizado uma coleção de mapas e dados
geográficos, cosmográficos e astronômicos disponíveis na época, assim
como recolhido relato de viajantes e pareceres sobre comércio marítimo.
Haveria também manuscritos, de três dos quais se encontram referências:
as viagens de marco polo; o imago mundi, de Pierre D’Ailly; e a geo-
grafia, de Ptolomeu. Não se deve imaginar nada como uma academia de
artes náuticas, nem um observatório astronômico, pois é quase impossível

129
que, se assim o fosse, alguns dos resultados de pesquisas não tivessem
chegado até nós. Deve-se entender a Vila do Infante como um centro de
preparação e planejamento da exploração da costa da Guiné, na procura de
um caminho para a Índia. Entretanto, disso resultou o centro original do
movimento da expansão da Europa – na conquista de todo o mundo que se
deu entre 1415 e 171539. Como resultado imediato disso, em 1448, na Baía
do Cabo Branco, foi edificado o primeiro entreposto colonial europeu: Ar-
guim (atualmente na Mauritânia).
Mas não faltava, em Sagres, a Capela, como convinha a um Cavaleiro
de Cristo – a ordem de cavalaria herdeira dos Templários, em Portugal –
pois D. Henrique tinha sido armado cavaleiro dessa Ordem, em combate
aos mouros, durante a tomada de Ceuta, por Portugal, em 1415, por seu pai
o Mestre de Avis. Não se deve esquecer que a missão fundamental desses
cavaleiros era a de manter livre o caminho dos lugares santos. O que evo-
luíra para a finalidade de combater os infiéis, conquistando-lhes o caminho
das Índias. Daí a cruz de Malta nas velas das caravelas.
Entretanto, sobre o que se passava no interior da Vila do Infante nada
se sabe. O cronista Zurara descreve as aventuras exploratórias, mas nada
diz se e como essas aventuras eram planejadas e protocoladas dentro da
Vila. Há uma atmosfera de silêncio, quase segredo templário, do que lá
acontecia. Mas tudo indica que foi ali o centro de planificação das primei-
ras descobertas, e é de se supor que ali tenha sido inaugurado um método
novo de saber, baseado na ação de “ir ver”. Ora, aí está o germe da in-
vestigação científica moderna. É a experiência como um novo critério de
verdade, em substituição ao da autoridade, como propõe mais tarde Garcia
da Orta, em seus colóquios, uns dos primeiros tratados sobre a Botânica
colonial escrito por europeus – no qual se lê: “não mais a autoridade, mas
a visão direta é critério de verdade”40.
De qualquer forma, isoladamente, as expedições continuavam e a cos-
ta foi sendo paulatinamente descoberta – passo a passo, sistematicamen-
te. Logo depois de edificada a Vila do Infante, Nuno Tristão – “cavaleiro
mancebo, assaz valente e ardido que fora moço pequeno na câmara do
Infante” – chegou ao Cabo Branco e, em seguida, em 1444, foi ao Cabo
Verde – onde se ultrapassava o deserto e encontrava-se, de novo, a vege-
tação tropical, tanto mais exuberante quanto mais para o sul se navegava.
39 PARRY, Europe and a Wider World – 1415-1715. Londres: Hutchinson´s University
Library, . Tradução espanhola: Europa y la Expansión del Mundo. México: Fondo de
Cultura Económica, 1952.
40 ORTA, Garcia da. Colóquios dos Simples e das Drogas da Índia. Lisboa: Imprensa
Nacional Casa da Moeda, 1987.

130
Diniz Dias, outro escudeiro do Infante, confirmou a experiência ultra-
passando a foz do Senegal, “chegando à terra dos negros que são chama-
dos guinéus”, sem tocar terra desde Lisboa até o Cabo Verde, neste mesmo
ano de 1445. Isso pressupõe a existência de um mapa da costa da África
até, pelo menos, o Cabo Verde, onde Diniz Dias pudesse traçar os seus ru-
mos. Aliás, a volta de Guiné já vinha sendo feita pelas caravelas, por mar
alto com rumo noroeste até pela altura dos Açores, de onde se demandava
a costa portuguesa. Portanto, a cartografia e a náutica, pela altura da Estre-
la Polar, já deviam estar articuladas.
A crônica de Zurara se interrompe em 1448, porém hoje se documenta
que a atividade do Infante continuou até sua morte, tendo ele explorado,
entre 1448 e 1458, a costa africana desde a Serra Leoa até o Cabo das Pal-
mas, já na entrada do Golfo da Guiné.
Não há uma cartografia portuguesa que documente as explorações geo-
gráficas da costa da África nessa época de D. Henrique. Nem existem tra-
tados teóricos ou protocolos científicos que atestem o método de pesquisa.
Nada o revela, além das conjeturas acima, sobre a metodologia da explo-
ração geográfica. Mas é bem provável que tal exploração tenha sido fei-
ta metodicamente. Assim, a ideia helenística de um mundo geometrizado
ter-se-ia realizado praticamente pelas explorações henriquinas. Por outro
lado, pela primeira vez na história, a experiência desmentiu o que havia
sido estabelecido pela autoridade de uma teoria tida como válida. Abaixo
do equador, o mar não fervia e havia vida tão exuberante como ao norte.
Quanto às crônicas de viagens, o silêncio de Sagres só é cortado pelas
vozes de dois viajantes que escreveram suas aventuras em 1484 quando
ambos viviam nos Açores. De um deles já se falou anteriormente: Diogo
Gomes41, que ditou relatórios das suas viagens exploratórias, sob as ordens
de D. Henrique. Enviado pelo Infante, para explorar a costa da Guiné em
1456, Diogo Gomes passou do rio Grande e foi impelido pelas correntes
muito a montante no rio Gâmbia, até a cidade de Cantor. Ali estabeleceu
contatos comerciais com chefes negros e constatou um tráfego de ouro
vindo do sul. Trazia consigo um intérprete hebreu, pois tinha a esperança
de estabelecer contato com Preste João, o legendário imperador da Etiópia.
Além dessa aventura, Diogo Gomes, em 1460, ano da morte do Infante,
desembarcou nas ilhas do Cabo Verde com Antonio da Noli. Martin Be-
haim escreveu em alemão, traduzido para o latim por Valentim Fernandes,
as transcrições das aventuras de Diogo Gomes encontradas num código, na
Biblioteca Real de Munique, em 1847.
41 PEREIRA, G. Diogo Gomes. Bol. Soc. Geográfica de Lisboa, série XVII, n. 1, p.
267, ff. (1890).

131
Outro cronista foi Alvise Cadamosto (1432-1488) que, em 1454, ob-
teve permissão do Infante para fazer uma viagem ao sul. Partiu em 1455,
visitou a Madeira e as Canárias e chegou, costeando o Saara ocidental,
ao Senegal. Em sua narrativa, das terras dos negros e das tribos ao sul do
Senegal, conta suas aventuras com Budomel, um chefe que reinava a cerca
de 50 milhas além do rio. Prosseguiu até o Gâmbia e subiu o rio, até certa
altura, encontrando hostilidade dos nativos e observando dali o Cruzeiro
do Sul. Em 1456, voltou, dobrou o Cabo Branco e, levado por uma cor-
rente, descobriu as ilhas do Cabo Verde. Voltou ao continente e foi até o
rio Grande. Voltou a Veneza em 1467 e em 1507 escreveu uma narrativa
(paesi nuovamente ritrovati) cuja transcrição em inglês, é facilmente en-
contrável42. Essas descrições de lugares e costumes, encontrados em suas
explorações, constituem uma das primeiras fontes de dados para a Geogra-
fia moderna.
Entretanto, a documentação das descobertas henriquinas está presente
em alguns poucos mapas não portugueses da época. O primeiro deles é um
portulano feito por um veneziano – Andrea Bianco –, quando se encontra-
va em Londres. Nessa carta, estão indicados 34 nomes de lugares ao sul do
Cabo Bojador, sendo os dois últimos Cabo Verde e Cabo Roso (provavel-
mente o atual Cabo Roxo, erroneamente colocado muito próximo do Cabo
Verde). A carta está datada de 1448 e, evidentemente baseada nas desco-
bertas portuguesas até aquela data. O segundo é o “mapa-múndi” de Fra
Mauro – o frade cartógrafo genovês. Entre 1457 e 1459, por ordem de D.
Afonso V, naturalmente a pedido de D. Henrique43, foi-lhe encomendado
um mapa-múndi. O original perdeu-se, porém há uma cópia na Bibliote-
ca Mariana de Veneza. As indicações existentes nesse mapa mostram que
a costa da África, até a Guiné, foi traçada em base a informações ou a
mapeamentos feitos pelos marinheiros do Infante. Portanto, mostra o que
viera a ser conhecido até ali por visão direta. Dali por diante, é imaginário
ou baseia-se em informações árabes. Mostra um pronunciado golfo – a
que Fra Mauro chama de “Sinus Ethyopicus” – muito ao norte do golfo
da Guiné. Porém, ao sul desse, a costa toma direção sudeste, indicando a
passagem para a Índia – contornando uma Etiópia Austral. Isto teria sido
imaginado interpolando as informações portuguesas, a oeste, e árabes, a
leste. O terceiro é o planisfério genovês de 1457, existente na Biblioteca
Nacional de Florença. Nesse mapa, as informações portuguesas são muito
melhor assimiladas que em Fra Mauro, pois o golfo está bem próximo da
posição real do golfo da Guiné. Esse planisfério data da época em que os
42 CRONE, The Voyages of Cadamosto. Hakluyt Soc. 2nd ser., v. 80, 1937.
43 CORTESÃO, A. Cartografia Portuguesa Antiga. V Centenário da Morte do Infante
d. Henrique. Lisboa, 1960. (Coleção Henriquina).

132
portugueses atingiram o Cabo das Palmas e perceberam a inflexão da costa
para leste. Porém, nada se sabia ainda da segunda inflexão para o sul, de
Fernando Pó. Entretanto, em ambos, a consideração de que a África era
circum-navegável está clara.
Interrompendo essa faina investigadora, em 1458 – na altura do Cabo
das Palmas, à entrada do Golfo da Guiné – D. Henrique acompanhou a
expedição portuguesa que tomou Tanger e Arcila dos Mouros, vingando
a derrota de Tanger em 1437, quando seu irmão Fernando foi capturado
e morto em prisão. Voltou a Sagres onde morreu em 1460, mas seu pla-
nejamento estava estabelecido. Daí por diante, até se chegar às Índias foi
questão de prosseguir na rota traçada. E não se diga que o plano (aparen-
temente diferente do seu) de alcançar as Índias pelo oeste – como o de
Colombo – ser-lhe-ia estranho, várias expedições portuguesas ao ocidente
dos Açores assim o atestam.
Com a morte do Infante, Sagres foi abandonada. No século XVI, o
navegador inglês Drake invadiu e saqueou a Vila do Infante – operação
essa baseada num desenho ainda existente no Museu Britânico. Teria esse
saque sido o fim dos documentos pelos quais saberíamos objetivamente
quais os métodos, processos e protocolos utilizados no interior de Sagres?
No século XVIII só havia vestígios da Vila, e, agora, nada mais há que
ateste sua atividade.
Quando D. Henrique morreu, reinava Afonso V que, em vez de tomar a
si a herança de Sagres, ofereceu a Fernão Gomes a continuação das explo-
rações africanas, a serem feitas privadamente sob contrato com o Estado.
Durante esse contrato, foi descoberta a costa entre a Costa de Marfim e
o Cabo de Santa Catarina no Gabão. Em 1471, foi dobrado o Cabo das
Palmas, de onde a costa seguia em rumo ao leste. Foi, então, descoberto o
ouro de aluvião da Costa do Ouro. Ali se fundou o entreposto – fortaleza
da Mina – nome que em breve se tornaria mais conhecido que o da Guiné.
Fernando Pó chegou aos Camarões e descobriu a ilha de seu nome. Álvaro
Esteves, nesse mesmo ano, descobriu as ilhas de São Tomé e Príncipe e
atravessou o Equador.
Em 1474, o príncipe D. João (1455-1495) fazia 19 anos de idade e re-
cebeu de seu pai a verdadeira herança de Sagres: o encargo de cuidar dos
negócios da Guiné, na demanda da Índia. D. João controlou firmemente o
corte da madeira para construção naval e organizou uma junta de três con-
sultores científicos para os assuntos de náutica: mestre José Vizinho, mestre
Moisés e mestre Rodrigo. Do primeiro sabe-se que estudou em Salamanca
com o rabi Abraão Zacuto – o autor do almanach perpetuum que indica-

133
va as declinações do Sol ao meio-dia ao longo de todo o ano. Essa tabela
seria absolutamente necessária para calcular a latitude próxima e abaixo do
equador – quando a Estrela Polar desaparecia. Nessa época, José Vizinho
foi, em expedição à Guiné, provavelmente com a missão de determinar com
precisão a latitude daquele lugar. Como se conhecia a distância a Lisboa,
essa sua expedição veio confirmar o tamanho exato do grau meridiano: cerca
de 67 milhas náuticas por grau, e não cerca de 50 milhas/grau como admitia
Ptolomeu.
A Astronomia de Posição, baseada em tabelas, cujo cálculo depende de
conhecimentos de Trigonometria, utilizada pelos navegantes portugueses
chegou então a um alto padrão de desenvolvimento conforme minuciosa-
mente atestado por Joaquim Bensaúde44. Mostra ele que há, na Biblioteca
de Munique, um manual de Astronomia Náutica prática para os pilotos
portugueses: regimento do astrolábio, que atesta esse desenvolvimen-
to. Desse regimento provêm todas as tabelas e tratados de navegação
espanhóis, franceses e holandeses que guiaram os navegantes da época
das grandes descobertas. Mostra ainda que se encontrou, na Biblioteca de
Évora, um regimento do astrolábio e do quadrante, para um ciclo de
quatro anos, enquanto que as tabelas de Munique são para um único ano.
Assim, apoiado nas investigações da Junta de Matemáticos, Diogo
Cão, explorou a costa desde o Cabo Santa Catarina, no Gabão, até a atual
Walvis Bay, já no sudoeste africano, entre 1482 e 1486. Descobriu o Zaire,
subindo o rio Congo e instalando um padrão português em sua foz. Mas a
conclusão das explorações deu-se em 1488, quando Bartolomeu Dias do-
brou o Cabo da Boa Esperança. Estava descoberto o caminho das Índias.
Seguindo esse caminho, Vasco da Gama chegou a Malabar em 1498. E
esse feito foi cantado numa das maiores epopeias do Ocidente: os lusía-
das, por Camões, caracterizando o Renascimento em Portugal, pela exal-
tação dos valores humanos.
Tudo isso foi descrito por um outro cronista: o grande herói da Índia,
Duarte Pacheco Pereira, que planejava escrever um tratado de Cosmogra-
fia e Marinharia e ao mesmo tempo um roteiro de navegação até a Índia: o
esmeraldo de situ orbis45. O importante para o que se está aqui tentando
defender é que toda a obra é baseada numa tese metodológica: – “a expe-
riência é a madre de coisas, e por ela soubemos radicalmente a verdade”.
44 BENSAÚDE, Joaquim. L’Astronomie Nautique au Portugal a L’Epoque des Gran-
des Découvertes. Bern: Akademische Buchhandlung von Max Drechsel, 1912.
45 PEREIRA, Duarte Pacheco. Esmeraldo de Situ Orbis. Anotações de Augusto Epi-
phanio da Silva Dias. Lisboa:, 1905. O manuscrito original, de 1510 a 1530, foi
perdido. Existem duas cópias uma na Biblioteca de Évora e outra na de Lisboa.

134
Essa afirmação inicial do autor confirma o que foi dito inicialmente sobre
o papel das descobertas portuguesas na História da Ciência renascentista.
Há de se referir aqui à carta escrita de Florença, datada de 25 de junho
de 1474, pelo físico florentino Paolo dal Pozzo Toscanelli a seu amigo Fer-
nando Martins, canônico de Lisboa, anexando um mapa indicando 80° de
latitude entre os Açores e Chipango (Japão) em seções de 5° (correspon-
dentes a 250 milhas náuticas). Nessa carta, sugeria a D. João I de buscar a
Índia pelo oeste. Entretanto, a Junta de Matemáticos já sabia o suficiente
para avisar ao rei que isso era impossível.
Um nome, já mencionado anteriormente, muito conhecido na História
da Ciência renascentista e que, de alguma forma, estaria ligado à Junta
de Matemáticos de D. João I, pois viveu em Portugal nessa época, é o de
Martin Behaim (1436-1507). Nascido em Nuremberg, eventualmente pode
ter sido discípulo de Regiomontanus, daí a alegação de que os trabalhos da
Junta de Matemáticos portugueses ter-se-iam baseados nos de Regiomon-
tanus. Porém, a atuação de Behaim na navegação portuguesa, atestada por
sua transcrição alemã de diários de Diogo Gomes, é muito duvidosa. Em
1490, voltou a Nuremberg, onde, com o pintor G. B. Glockenthon, elabo-
rou talvez o primeiro globo terrestre, em 1492. Este, como o mapa de Tos-
canelli, mostra as ilhas de Cathay (China) a somente cerca de 80° oeste dos
Açores (não se conhecia a América, porém a extensão de Ásia tinha sido
enormemente exagerada). Os contornos da costa oeste da África são incor-
retos mostrando que ele não dispunha de todas as informações portuguesas.
E, entretanto, neste globo, como no mapa de Toscanelli, estão positivamen-
te sugeridos os dois caminhos, então considerados possíveis, para a Índia.
O do leste, contornando a África (a costa leste da África já era conhecida
pelos relatos de navegadores árabes), e o do oeste, que seria o de Colombo.
Quando Colombo foi a Lisboa propor a viagem à Índia pelo oeste, não
chegou a ser tomado a sério. Os portugueses já sabiam demais sobre o
mundo para acreditar que ele chegaria às Índias navegando somente cer-
ca de quatro mil milhas náuticas a oeste dos Açores. Não havia dúvida
que Colombo estivesse errado, entretanto, seu erro permitiu descobrir um
novo continente, naquele tempo, insuspeitado. Provavelmente, o mapa de
Toscanelli, exagerando o tamanho da Ásia, e mais o erro de Ptolomeu, ad-
mitindo a medida do tamanho do grau meridiano de Possidonius, o tenham
induzido ao erro. Porém, os práticos navegadores portugueses já o tinham
corrigido. E isso os impediu de descobrir o Novo Mundo. Em 1492, com o
auxílio dos Reis Católicos, fez Colombo sua primeira viagem até São Do-
mingos e Cuba, descobrindo a América. Voltou depois três vezes e morreu

135
em 1506, certo de ter chegado às Índias. Depois, vieram as quatro viagens
de Américo Vespúcio, entre 1497 e 1503, nas quais as costas das Américas,
desde a baía de Cheasapeake até a Patagônia, foram exploradas, anotadas
em mapas e descritas nas célebres cartas de Vespúcio46. Essa divulgação é
que deu, à América, o seu nome.
Coube a Fernando de Magalhães, navegador português a serviço da
Espanha, e ao seu capitão Juan Sebastián Elcano, a glória de encontrar
o caminho da Índia pelo oeste e voltar a Sevilha, contornando o mundo,
entre 1519 e 1522, numa das mais dramáticas aventuras náuticas de que se
tem notícia.
O Pacífico foi então explorado pelos capitães espanhóis e seus cosmó-
grafos – o que confirmou a posse dos espanhóis, além das costas america-
nas do Pacífico – as ilhas Carolinas, Marianas e Filipinas –, terras que, pelo
Tratado das Tordesilhas, já pertenciam à Espanha. Portugueses, vindos do
leste, encontraram com espanhóis, vindos do oeste, nas Molucas, das quais
disputaram a posse. E assim o mundo foi abraçado pelos ibéricos, em base
a uma astronomia náutica, baseada em cálculos matemáticos.
Tudo se tinha conseguido aprender, entretanto, “indo ver” como eram
as coisas. Na crônica máxima das descobertas portuguesas, esmeraldo
de situ orbis, está escrito, “a experiência nos tem ensinado [ela que] nos
faz viver sem engano das ilusões e fábulas que alguns dos antigos cosmó-
grafos escreveram acerca de descrição da terra e do mar”. Mas é preciso
dizer que não é suficiente, para a descoberta, a simples vista. Somente a
visão planejada e metodicamente organizada por quem tem interesse em
conhecer – como o tinha D. Henrique, movido por aquilo que, mais tarde,
Leonardo da Vinci chamaria de “amor” – é capaz de estabelecer o conhe-
cimento objetivo.
Muito bem cita António Sérgio47, na sua breve interpretação da his-
tória de portugal, os colóquios do grande botânico Garcia da Orta, no
qual há o diálogo entre o homem que sabe pelos textos e o navegante que
diz: “vi, claramente visto”. São discussões entre o doutor Ruano, homem
dos textos clássicos, e o doutor Orta, navegante que opõe, à autoridade,
a visão direta como critério de verdade. É bem um livro que testemunha
essa prioridade portuguesa no experimentalismo visual renascentista. E
a mesma coisa é definida por Camões, no célebre Canto V dos lusíadas:
“Digam agora os sábios da Escritura/Que segredos são estes da Natura”.
46 VESPÚCIO, Américo. El Nuevo Mundo – Cartas Relativas a sus Viajes y Descubri-
mientos. Buenos Aires: Editora Nova, 1951. (Biblioteca Americanista).
47 SÉRGIO, António. Breve Interpretação da História de Portugal. Lisboa: Livraria
Sá da Costa Editora, 1976.

136
Engana-se, entretanto, António Sérgio quando diz: “a meta natural do pen-
sar português seria o experimentalismo que caracterizam os ingleses, pelo
que toca propriamente ao método”. Não, o “experimentalismo” português
é o do Renascimento, semelhante ao de Leonardo da Vinci. É o da expe-
riência vivida e não o do empiricismo inglês, em que o observador deve,
primeiramente, livrar-se de todos seus preconceitos, a fim de assumir uma
posição pretendidamente “neutra”, não se comprometendo na observação.
Portanto, não só se descobrira o caminho para as Índias, tinha-se tam-
bém inaugurado, talvez inconscientemente, um novo tipo de saber. Aquele
que se adquiria metodicamente pelo trabalho lento e perseverante da pró-
pria vivência da natureza, duvidando da autoridade teórica e adotando a
experiência, pela visão direta, como único critério de verdade. Seria esse
uma fenomenologia, mas não um empirismo.
Não se pode negar, porém, que toda essa aventura náutica das grandes
descobertas deu-se a partir do reencontro renascentista da concepção hele-
nística do mundo de Eratóstenes e Ptolomeu, isto é: de uma esfera em que
cada ponto seria representado por suas coordenadas geográficas, calculá-
veis por fórmulas matemáticas em base à observação de estrelas. Com as
navegações dos séculos XV a XVII, essa ideia deixou de ser uma simples
representação matemática para tornar-se a imagem do próprio mundo real.
Evidentemente essa imagem matematizada do mundo muito deve aos
“roteiros” escritos pelos navegantes-cientistas, como o de D. João de Castro
(1500-1548), que descreveu suas viagens de Lisboa às Índias, entre 1538 e
1541. Embora a tradução por Pedro Nunes, nos primeiros decênios do sé-
culo XVI, do medieval tratado da esfera, de Sacroboso48 tenha, também,
contribuído para isso, a contribuição maior de Nunes foi a da solução do pro-
blema da projeção dos dados obtidos na esfera, para a carta plana. Foram os
estudos de Pedro Nunes que inspiraram Gerard Mercator a criar a projeção
de seu nome, a qual, a partir da data da publicação do planisfério merca-
tor, em 1569, tornou-se exclusiva na navegação. Contudo, antes disso, em
1529, o cosmógrafo português Diego Ribeiro, trabalhando na Casa de Con-
tratación, em Sevilha, já tinha traçado o primeiro mapa-múndi, em base a in-
formações sobre coordenadas geográficas, obtidas nas navegações ibéricas,
isto é, em bases puramente científicas, livres das fantasias dos viajantes49.
Enfim, estabelecera-se pela conjugação da Álgebra, da Trigonometria e da
Astronomia de Posição com as descobertas ibéricas, uma imagem matema-
tizada do mundo como esfera determinada por meridianos e paralelos.
48 SACROBOSCO, Johannes de. Tratado da Esfera. Tradução de Pedro Nunes. São
Paulo: Ed. Unesp/ Nova Stella, 1991.
49 VARGAS, M. A Imagem do Mundo e as Navegações Ibéricas. Revista da Sociedade
Brasileira de História da Ciência, n. 14, jun./dez. 1995.

137
Contudo, tal desenvolvimento das aplicações da Matemática vem supor
um progresso dos conhecimentos matemáticos durante o Renascimento.
Tal progresso não foi resultado de simples recuperação de conhecimentos
clássicos obtidos através da redescoberta de obras matemáticas clássicas.
Pelo contrário, deu-se, além de pela tradução de textos árabes, também
com o desenvolvimento da Álgebra e da Trigonometria pelos próprios eu-
ropeus. Girolamo Cardano (1501-1576), Ludovico Ferrari (1522-1565) e
Nicolo Fontana (Tartaglia) (1500-1557) desenvolveram a Álgebra no que
se refere à solução de equações de terceiro e quarto graus – do que resultou
o aparecimento, como raízes dessas equações, dos números imaginários
(raízes quadradas de números negativos). Da mesma forma, a Trigonome-
tria adquiriu seu estado atual com François Viète (1540-1603).
Por tudo que foi dito, é bem provável que as navegações ibéricas, se-
guidas pelas inglesas e, depois, pelas holandesas, é que suscitaram o de-
senvolvimento da Matemática, principalmente no que se refere às aplica-
ções da Trigonometria aos cálculos de posição da Terra e no mar. Isto foi
possível porque se firmou a concepção, de origem helenística, da Terra
como esfera, dividida pelas coordenadas geográficas: meridianos e para-
lelos. Mas essa ideia somente confirmou-se como verdade objetiva pelas
navegações e descobertas ibéricas. Estabeleceu-se, então, definitivamente
a geometrização do globo terrestre.

c) Necessidade e experiência em Leonardo da Vinci


Pela época de Leonardo da Vinci (1452-1519), já estava bem claro que
não havia uma ordem intrínseca à natureza. Ao contrário do que diziam
os aristotélicos, não havia nexo próprio na natureza. Havia, isto sim, uma
ordem sobrenatural – da qual participava a razão humana que governava o
mundo. A ordem da natureza não é dela própria, é impressa nela pela anima
mundi que não é natural, embora a razão humana participe dela. Para al-
guns, entre eles Leonardo da Vinci, essa ordem era chamada “necessidade”.
Leonardo da Vinci era um uomo senza lettere, um homem formado em
oficinas, não conhecia suficientemente o latim, portanto tinha sido barrado
o seu acesso aos livros de ciência e Filosofia. Era um homem de “artes
mecânicas”, não instruído nas “artes e ciências das universidades”. Mas,
nas oficinas, não se restringiu a aprender a pintura. Adquiriu, num tirocí-
nio vasto e eclético, todas as atividades que eram transmitidas de geração
a geração de artistas e técnicos, através da experiência direta. Entretanto,
nesse tempo, especialmente em Florença, os artistas e técnicos eram ins-
truídos em Matemáticas, através da perspectiva, tanto quanto em Medicina

138
e Anatomia, inclusive em Astrologia. Nesse contexto, pode-se, desde já,
conjeturar qual seria o significado de “experiência” para Leonardo. Foi-lhe
quase imposta, pela educação que teve, a crença de que um conhecimento
era o resultado da experiência adquirida através do paciente e amoroso tra-
balho de anos na observação da natureza e não pela leitura dos textos das
autoridades antigas. Mas a aquisição do conhecimento devia ser guiada por
uma obediente dedicação ao próprio estudo das razões a que a natureza era
sujeita. Haveria uma lei implacável da “necessidade” que impunha a todo
artesão trabalhar dentro das regras que lhe eram transmitidas pelo mestre.
Como, entretanto, Leonardo não se limitasse a ser um artesão e escre-
vesse suas opiniões sobre as coisas, é possível investigar o que Leonardo
entendia por “experiência” e por “necessidade” através de seus escritos.
O primeiro termo poderá ser esclarecido pelas próprias palavras de Leo-
nardo: “A experiência, interprete entre a natureza artificiosa e a espécie
humana, ensina o modo segundo o qual a natureza atua entre os mortais,
e revela, ao mesmo tempo, que essa ação é governada pela “necessidade”,
pois a natureza não pode operar contra a razão.”50
Assim há, para Leonardo, na natureza, uma instância criadora (esta
é a acepção que se deve atribuir à palavra “artificiosa”). Diante da na-
tureza, os homens se põem em atitude de conhecê-la. Entre natureza
e humanos estará a experiência como mediadora e intérprete. Através
dessa é que será possível “decifrar” os segredos na natureza. Entretanto,
“a razão” guia tanto a atuação da natureza como a experiência dos ho-
mens. Não se deve pensar que a experiência (embora guiada pela razão)
pudesse vir a criar mundos externos ideais a partir dos dados da sensi-
bilidade. Não, no pensamento leonardino, o real é a natureza e essa é
independente da estesia humana. Não crê que, apesar de a natureza não
poder se ordenar por si mesma, só possa vir a adquirir ordem pela razão
humana, como cremos nós os modernos. Pelo contrário, a ordem da ra-
zão já impera na natureza, mesmo que não existissem os homens, pois
ela é divina. Mas a mesma razão também guia a experiência humana. É,
portanto, a razão, aquilo que é comum à ordem, dada tanto à natureza
por Deus como ao atuar humano – o ponto que possibilita o contato de
um com o outro. Isto é, tudo na natureza é compreensível pela razão
humana, porquanto essa participa da enteléquia, que não é do mundo,
mas sobrenatural.
50 “La sperienzia, interprete in fra l’artifiziosa natura e la umana spezie, ne insegna ciò
che essa natura in fra mortali adopera da necessitá constretta, non altrimenti operar si
possa che la ragione, suo timone, operare le insegni.”(DA VINCI, Leonardo. Scritti
Letterari. Milão: Rizzoli, 1952.).

139
Quanto à “necessidade”, as próprias palavras de Leonardo nos expli-
cam o que é: “Ó admirável necessidade! Como razão estrita, tu constranges
todos os efeitos a participarem de suas causas, por uma lei estrita e inexo-
rável toda ação natural te obedece em ação tão certa quanto possível”51.
Por outro lado, o conceito de “necessidade” mostra – através do con-
ceito de causa – uma curiosa semelhança entre o pensamento renascentista
e o pré-socrático. Veja-se, por exemplo, as seguintes palavras de Leonardo
e compare-as com o célebre fragmento de Anaximandro: “A leveza nasce
do peso e o peso da leveza, ambos pagam simultaneamente pelo benefício
de sua criação, desenvolvendo-se na vida na medida do movimento, e tam-
bém ao mesmo tempo, se extinguem mutuamente, destruindo-se entre si,
em expiação de morte”. E agora, o fragmento de Anaximandro: “Naquilo
em que as coisas existentes têm sua origem, nisso mesmo elas voltam para
sua destruição, segundo a ‘necessidade’, pois se fazem justiça e se dão
reparação umas às outras, na ordem do tempo”. Essa semelhança prova ser
o pensamento pré-socrático “um velho molde de todo o nosso pensamento
ocidental”, como disse algures Giorgio de Santillana52. Trata-se nos dois
fragmentos de uma Física diferente da atual, segundo a qual, em vez da
natureza ser considerada como uma sucessão de eventos ordenados pela
sua sucessão, é algo que tem uma origem única, à qual tudo se reduz e na
qual todas as coisas são e permanecem sendo o que são. Todo movimento
ou transformação natural é um apartar-se ou volver à origem segundo a
ordem da justiça (Anaximandro) ou da expiação de morte (Leonardo). Em
ambos há a ordem da “necessidade”: a mestra, tutora, a ordem central pela
qual se descobrem os segredos da natureza.
Como intérprete entre as cifras da natureza e a nossa mente, a experiên-
cia mostra que essa “necessidade” se desenvolve segundo uma ordem da
razão – mas essa não deve ser considerada como uma faculdade humana,
porém, como o reflexo na mente do homem, da inteligência divina.
Ao agente que impele o homem a interessar-se pelas coisas do mundo,
Leonardo chama de “amor”. Diz Leonardo que o conhecimento de alguma
coisa é o fruto do “amor” que se tem desse algo e que, quanto mais exato se
torna esse conhecimento, maior é o “amor”. O “amor” leva à necessidade
de decifrar a natureza, mas, como o conhecimento se efetua através da “ex-
periência”, essa é um ato “amoroso”. O mais apto para conhecer é aquele
que mais sabe “amar”. Nas palavras de Leonardo: “Muovesi l’amante per
la cos’amata come il senso alla sensibile e con seco s’unisce e fassi una
cosa medesima. L’opera è la prima cosa che nasce dell’unione”. É esse
51 DA VINCI, Leonardo. La Peinture. Paris: Hermann, 1964.
52 DE SANTILLANA, Giorgio. The Age of Adventure. [S.l.]: Mentor Book, 1959.

140
movimento que resulta do conhecimento da natureza e do qual nasce ne-
cessariamente a ação.
Ora, um mundo assim constituído seria mais bem decifrado por aqueles
que conhecem seus símbolos – os artistas – do que conhecido por aqueles
que sabem suas leis – os cientistas. Com efeito, o próprio Leonardo viveu
essa tarefa de compreender a linguagem cifrada da natureza e de transferi-
-la aos homens – não mediante as formas lógicas da linguagem escrita ou
falada, mas pela sua amorosa descrição artística. Essa tarefa é concitada
pelo próprio Leonardo quando diz:
Descreva a língua de um pássaro e a mandíbula do crocodilo. Descreva o voo da
quarta espécie da borboleta e das formigas voadoras, as três principais posições
dos pássaros na descida [...] Descreva as regiões do ar e a formação das nuvens,
a causa da neve e do granizo e as novas formas que a neve toma no ar, as árvores
dos climas frios com suas folhas de forma raras [...] Descreva sobre o percutir
das águas em algum objeto e (diga) se ele é igual a toda a energia da água sus-
pensa no ar ou não[...]
Eis o método de Leonardo: a natureza deve ser “lida” pelos olhos, pois,
a vista é a rainha dos sentidos. Portanto
[...] se disseres que a vista é apta para impedir o contínuo e sutil movimento da
mente, com o qual se penetra as ciências divinas [...] Eu responderei que a vis-
ta, como rainha dos sentidos, exerce o seu dever quando põe fim aos discursos
confusos e decadentes [...] através dos quais os homens disputam sempre com
muito barulho e gesticulações [...] Onde há fragor, não há verdadeira ciência,
porque a verdade tem um só termo, e este, uma vez declarado, põe fim à disputa
para sempre.
Aqui se constata o desprezo de Leonardo pela palavra quando ela ser-
ve às discussões vãs e o seu respeito pela calma e silenciosa visão. Na
primeira parte do tratado da pintura, ele mostra que a pintura não é
uma atividade empírica, somente ligada à habilidade do olho e das mãos.
É um verdadeiro método de investigação, fundado em princípios racio-
nais – como a perspectiva e as leis da harmonia – sujeito à experiência na
observação da natureza. Conclui-se que, para ele, ciência é visão direta.
Mas não se pense que Leonardo admitia ser a simples vista por si só capaz
de ver a realidade. Santillana, comentando esse problema, adverte que o
pensamento de Leonardo se refere ao fato de que somente a visão arguta
e apurada do artista – visão que sabe o que ver – guiando uma mão hábil,
pode aproximar-se da estrutura escondida da realidade. Para conhecer a
natureza, é necessário lê-la e, depois, descrevê-la para os outros. Mas não

141
se argumente estar aqui o germe do método empírico de obediência à pura
observação. Pelo contrário, aqui se propõe o conhecimento da natureza
por decifração dos seus segredos e recriação do que se decifrou através da
obra de arte, pelos “iniciados” – isto é, os artistas. E, nisso, está o que ele
chamou de “fantasia exata”. Lendo-se o tratado da pintura(51) percebe-
-se que ele trata ali exatamente do adestramento do artista para que possa
realmente decifrar e recriar a natureza, através de sua “experiência”. É um
tratado dos meios pelo qual o pintor deve aproximar-se da natureza para,
decifrando-a, compreendê-la e conhecê-la.
Segundo o próprio Leonardo, a finalidade da pintura é a de observar
[...] todas as qualidades das formas, os mares, plantas, animais, ervas, flores, to-
dos banhados de sombra e luz. E essa ciência é verdadeiramente a filha legítima
da natureza, pois que a natureza a engendrou, mas para sermos mais precisos
nós a chamaremos a neta da natureza, porque a natureza produziu todas as coisas
visíveis, e dessas coisas visíveis nasceu a pintura.
Por outro lado, o pintor e o investigador das coisas criadas pela nature-
za, uma vez que “[...]a necessidade obriga o espírito do pintor a colocar-se
no lugar do próprio espírito da natureza e tornar-se o intérprete entre a na-
tureza e a arte, ele recorre a esta para destacar as razões de seus processos,
sujeitos a suas próprias leis.” Isto é, a mente do pintor pode, substituindo
o próprio espírito do real natural, atuar como imaginação criadora e des-
lindar, assim, as razões últimas das coisas. Só depois disso é que o pintor
poderá expor, nas obras de arte, os segredos da natureza para fazê-los co-
nhecidos dos outros através da linguagem simbólica da arte.
Em suma, para Leonardo, a natureza é dotada de um poder que pode
ser controlado pelo homematravés da leitura daquilo que nela acontece. A
pintura é um meio de transmitir aos homens, através de cifras, os mistérios
escondidos nos símbolos que sempre estão presentes nas coisas da nature-
za. Conhecer é decifrar e decifrar é conseguir poder: eis a raiz mágica dessa
ciência leonardiana. É possível mesmo que o gênero de saber de Leonardo
seja o oposto do que possibilitou o pensamento científico moderno. Para
ilustrar isso, poderia se dizer que, se a ciência, como a entendia Leonardo,
tivesse vingado, os aeroplanos teriam formas de pássaros e não, necessaria-
mente, formas aerodinâmicas. São esses os indícios de que a ciência, como
vinha sendo desenvolvida no Renascimento, se se estabelecesse teria sido
formalmente diferente da atual. A nossa Física seria o tratado da pintura
e as leis naturais, as da Arte, se ela tivesse vencido. Só no momento em que
apareceu no mundo o estilo barroco e o racionalismo dominou o pensamen-
to humano, é que se franqueou a possibilidade da ciência moderna.

142
Esse método foi amplamente utilizado por Leonardo nas suas inves-
tigações anatômicas. Dissecando cadáveres e desenhando as peças ana-
tômicas, com anotações ao lado dos desenhos, ele inaugurou a Anatomia
Topográfica53. Note-se que, curiosamente, esse método é semelhante ao
usado na exploração henriquina. O mapeamento das costas da África, feito
por observação direta e descrito nas crônicas e roteiros portugueses, inau-
gurou a Geografia moderna. Se não existem protocolos que documentem
o método da Escola de Sagres, felizmente existem para nós os cadernos
de Leonardo, denotando, em sua escrita especular, o caráter secreto que
se atribuía, na época, a toda investigação da natureza. Sabemos, por essas
anotações, que a observação direta era comparada ou contraposta à opinião
da autoridade de Galeno e de médicos antigos, da mesma forma que – se-
gundo os cronistas – as descobertas dos navegadores eram comparadas ou
contrapostas às opiniões de Ptolomeu e de geógrafos antigos. São métodos
semelhantes e pontos de contato que comprovam tratar-se de um mesmo
espírito e um mesmo movimento cultural.
Um documento que exemplifica magnificamente esse método de pesqui-
sa é o manuscrito sul volo degli ucelli54, no qual mais do que o valor das
suas observações e das conclusões sobre o voo dos pássaros, Leonardo nos
faz ver essa maneira renascentista de fazer ciência pela visão direta, guiada
pela “necessidade” das leis mecânicas que governam o voo dos pássaros.
Resta examinar o papel que as Matemáticas teriam na concepção
leonardiana de investigação da natureza. Isto seria, sem dúvida, muito
importante, pois ele mesmo disse: “Nessuna certezza e dove non si può
applicare una delle scienze matematiche, ovver che non sono unite con
esse matematiche”55.
Desde que Filippo Brunelleschi (1377-1446) aplicara a perspectiva no
projeto arquitetônico e ela fora adotada pelos artistas para representar a
natureza, revelara-se uma ordem geométrica que, com a das proporções
harmoniosas, veio a se constituir como um substrato da realidade visível,
de natureza matemática. Porém, não se trata ainda da expressão dos fenô-
menos por fórmulas matemáticas, pois, a Análise Matemática ainda não
tinha sido inventada.
53 BELT, Elmer. Les Dissections Anatomiques de Léonard de Vinci. In: LÉONARD
DE VINCI ET L’EXPÉRIENCE SCIENTIFIQUE AU SEIZIÈME SIÈCLE, 1952,
Paris. Anais... Paris: Centre Nacional de la Recherche Scientifique- Presses Univer-
sitaires de France, 1953.
54 BODENHEIMER, . Léonard de Vinci, Biologiste. In: LÉONARD DE VINCI ET
L’EXPÉRIENCE SCIENTIFIQUE AU SEIZIÈME SIÈCLE, op. cit.
55 SERGESCU, P. . Léonard de Vinci et les Mathématiques. In: LÉONARD DE VIN-
CI ET L’EXPÉRIENCE SCIENTIFIQUE AU SEIZIÈME SIÈCLE, op. cit.

143
Porém, quando Lucas Pacioli (1445-1514) pretendeu traduzir para o
italiano a álgebra, de Al-Khwarizmi, acabou por escrever a sua summa
de arithmetica, geometria, proportioni et proportionalitá (1487),
que veio trazer uma base científica à preocupação de proporcionalidade
dos artistas renascentistas.
Não seria essa uma atitude puramente pitagórica, considerando a na-
tureza constituída por entes geométricos, diante da qual só caberia a pura
contemplação. A visão renascentista da realidade seria semelhante à he-
lenística alexandrina, em que a natureza é considerada ordenada em pro-
porções harmoniosas aritméticas ou geométricas, porém, permitindo ao
homem, descobertas e entendidas essas harmonias, atuar sobre o mundo.
Diz Leonardo: “As proporções não se encontram somente nos números e
nas medidas, mas também nos sons, pesos, tempo, posição e em qualquer
poder existente”.
Assim, a Matemática, para Leonardo, refletia a racionalidade impos-
ta ao mundo por Deus. A razão humana, participando da divina, pode-
ria, portanto atuar matematicamente no conhecimento da natureza e no
seu controle. Daí, Leonardo acreditar que a “Mecânica é o paraíso das
ciências matemáticas, porque é nela que essas se realizam”. A leitura de
um trabalho de Pierre Sergescu, sobre as Matemáticas de Leonardo, não
explicita que tenha ele chegado a essas conclusões, mas faz entrevê-las,
principalmente, após a leitura da nota de intervenção final de M. Andrade,
na qual se diz que, para Leonardo, a Matemática era um instrumento para
o conhecimento. Dir-se-ia, além disso, que a Matemática revela a ordem
da “necessidade” que governa a natureza.
Outro grande artista-cientista-filósofo do Renascimento foi Albrecht
Dürer (1471-1528). Já em sua madureza como artista, ele dedicou-se a
investigar teoricamente a arte como uma forma de conhecimento, através
da teoria das proporções, na senda do pintor Piero della Francesca (1410-
1492), que escrevera, em torno de 1480, um tratado sobre a perspectiva
– de prospectiva pingendi. Escreveu, assim, um curso de arte e medidas,
em seus últimos anos de vida, que é uma introdução à perspectiva a partir
de suas bases geométricas. Entretanto, sua obra máxima nesse sentido só
foi publicada postumamente: seus quatro livros sobre as proporções
humanas. Como Leonardo da Vinci, ele admitia que coubesse ao artista
descobrir a verdade da natureza e descrevê-la pintando, para o conheci-
mento dos que contemplassem seus quadros. Por trás disso, havia o respei-
to pelas regras geométricas da perspectiva e das proporções.
É de se mencionar, aqui, que os matemáticos da época não tomaram

144
conhecimento das ideias de Leonardo, Dürer e Piero della Francesca, e
assim perderam a ocasião de pesquisar as transformações geométricas que
só vieram a se consubstanciar futuramente na Geometria prospectiva.
Uma notável contribuição dos artistas renascentistas à ciência foi no
campo da História Natural, evidentemente devido ao contato com a natu-
reza exótica da América e da Ásia. Entre 1530 e 1560, foram publicadas
várias “Histórias Naturais” por espanhóis e portugueses. Esses eram trata-
dos ilustrados, com os desenhos de plantas e animais. Ao correr do Renas-
cimento, apareceram tratados desse tipo, cujo valor artístico das gravuras
– como os de Leonardo e de Dürer – não mostravam diferença entre seu
valor artístico e científico.
Em suma: no Renascimento, as navegações por mares desconhecidos
são feitas com o conhecimento da Geometria da esfera, e a descrição da
natureza, pelo desenho ou pintura, com o auxílio da perspectiva. Os ma-
pas geográficos da época, a procura de proporções harmoniosas no corpo
humano e nas obras de Arquitetura, são evidentes recorrências a conheci-
mentos geométricos. Em suas obras, os pintores e os escultores obedecem
as leis matemáticas das proporções e da perspectiva. Portanto, é possível
considerar a arte do Renascimento como a prenunciadora do processo de
Análise Matemática da natureza.

d) A magia natural, a Alquimia e a Medicina renascentistas


A oposição a Aristóteles tomou corpo no século XV, quando Nicolau
de Cusa (1401-1464) insistiu na ideia de que seria possível que toda teo-
ria devesse, para ser válida, adaptar-se à experiência. Há, aqui, uma ideia
radicalmente antigrega, pela qual é possível a existência de teorias que
nada tenham a ver com a realidade. Isto é, uma teoria, mesmo que perfei-
tamente lógica, não seria por si só verdadeira. Se fosse somente uma visão
dos olhos do espírito, ela poderia ser uma arbitrária construção mental.
Entretanto a experiência, como método de procura do real deveria basear-
-se na razão. Em outras palavras, seria necessário justificar filosoficamente
a experiência. Foi o que tentou fazer Nicolau de Cusa – também chamado
“o Cusano” – quando descreveu cuidadosamente a experiência que fez
para demonstrar que uma planta absorve ar, ou quando explicou metodica-
mente o uso da balança nas experiências físicas. Procurava fazer ver que a
pesquisa do real se fazia por uma combinação de erudição e observação e
não somente por um único desses dois processos.
A obra principal do Cusano: de docta ignorantia trata da questão
teológica da relação entre Deus, infinito, e as coisas criadas, finitas. Deus

145
é o máximo e, ao mesmo tempo, a unidade e, como tal, está além de todo
entendimento humano. Daí a nossa ignorantia, entretanto essa ignorân-
cia deve ser douta, isto é, é preciso entendê-la. Para tanto, ele analisa
as ideias da infinitude e unidade de Deus por meio de símbolos geomé-
tricos. Mas Deus permanece além do entendimento, pois nele, todos os
contrários se unificam. No mundo finito e criado por Deus, pelo contrá-
rio, todos os contrários permanecem em oposição. Daí a impossibilidade
de se conhecer o infinito pelo finito a não ser por uma eliminação su-
cessiva dos seus atributos finitos. O Cusano institui, portanto, uma ideia
dominante do pensamento moderno: a de que as origens estão além do
entendimento, mas essa ignorância não impede que adquiramos docência
sobre o que se passa no mundo. Além disso, não há possibilidade de per-
feição, quer no repouso, quer no movimento, no universo físico. Portan-
to, nem a Terra poderá estar em perfeita imobilidade no centro absoluto
do universo, nem as esferas supralunares poderiam ser perfeitas, como
queria Aristóteles. Isso seria corroborado pelas observações astronômi-
cas que já se vinham fazendo.
Além do mais, a natureza não se transformaria por si mesma, como
queria Aristóteles. Platão, em seu timeu, sugeriu que ela seria algo que
tivesse alma. Essa ideia reaparece no neoplatonismo alexandrino. Mas um
cristão, como o Cusano, deveria conceber a Deus como alma desse mun-
do. Por outro lado, começara-se a duvidar da existência da transformação
da natureza no sentido de ser um constante movimento da potencialidade
para a atualidade como queria Aristóteles. A anima, segundo Aristóteles,
fazia parte da natureza. É por isso que o seu tratado sobre a alma: o de
anima pode ser entendido como capítulo da physica, o seu tratado sobre
a natureza. Porém, na doutrina cristã, a alma é imortal e, portanto, não faz
parte da natureza.
Convém aqui adiantar que Nicolau de Cusa cita várias vezes, em seu
de docta ignorantia, a Hermes Trismegisto. O personagem fantástico
alexandrino – que foi mencionado no capítulo III – o qual dominou o pen-
samento florentino do século XV e XVI e que foi um dos veículos de pen-
samento mágico no ocidente. Para o Trismegisto, o mundo seria movido
por um espírito estranho a ele.
Admitiu-se, então, de acordo com a mentalidade greco-alexandrina –
expressa pelo neoplatonismo e pelo “hermetismo” – que qualquer movi-
mento das coisas da natureza provinha de um espírito estranho à natureza:
a anima-mundi, cujo caráter confundia-se, sob certos aspectos, com a men-
te divina, a qual se refletia na alma humana, feita à sua semelhança. Isto

146
é, a natureza seria “animada”, não por uma alma intrínseca a ela própria,
mas, por uma alma sobrenatural.
Portanto, na concepção renascentista, vê-se o mundo como um teatro
do atuar de uma anima da qual a alma do homem participa. Sob tal con-
cepção, não se pode ver a natureza como um maquinismo, regida por leis
racionais, como é essencial para o estabelecimento da ciência moderna,
mas, abre a possibilidade de um atuar eficiente do homem sobre o mundo.
Em resumo, na formação da mentalidade renascentista – essencial-
mente atuante sobre o mundo – houve, nos séculos XV e XVI, uma re-
confluência de duas linhas culturais. A primeira era uma doutrina filo-
sófica de alto nível: o neoplatonismo. Era uma doutrina perfeitamente
conciliável com o cristianismo antiaristotélico, pois Deus, ser supre-
mo, estava acima de todo entendimento humano e, portanto, distante
do mundo, reino de aparências enganosas. Entretanto, ao homem cabia
compreendê-lo através da visão teórica da natureza. A segunda, de nível
inferior, foi a magia – a qual garantia a operatividade sobre o mundo por
parte do homem. Como disse Paracelso: a natureza é sempre imperfeita,
cabe ao homem aperfeiçoá-la.
Por outro lado, paralelamente ao conhecimento teórico da natureza,
tinha-se desenvolvido, durante a Idade Média, também um outro tipo de
saber: a Alquimia ocidental. Essa fora trazida à Europa pelos árabes. Es-
tava centrada num interesse pela constituição dos corpos no sentido de
converter as substâncias mais desprezíveis nas mais nobres. Partia da ideia
grega dos quatro elementos: terra, ar, fogo e água, na procura pela Pedra
Filosofal, uma substância dotada do poder mágico de transformar o mais
“vil” dos metais, o chumbo, no mais “puro”, o ouro. Assim, preocupava-
-se com as virtudes e qualidades da matéria que seriam as mesmas, através
da anima-mundi, que as dos homens, e das quais participariam também
os corpos celestes, pois o ouro era o Sol; a prata, a Lua; o ferro, Marte; o
mercúrio, Mercúrio; Vênus, o cobre; e Júpiter, o estanho.
Aconteceu, nessa época que, com a conquista de Constantinopla pelos
turcos, chegaram à Itália, com os fugitivos, originais de obras místicas
e filosóficas gregas. Entre essas, estavam os tratados de Hermes Trisme-
gisto, já mencionado no Capítulo III. Com a valorização renascentista do
corpus hermeticum, a Alquimia veio a chamar-se “Arte Hermética”, na
qual a cura das doenças estava presente. Até hoje a expressão farmacêutica
de “vidro hermeticamente fechado” traduz a influência sobre as drogas
medicinais do segredo necessário para o processo alquímico.

147
A origem remota da Alquimia perde-se na noite dos tempos. Prova-
velmente origina-se nas técnicas mágicas da mineração e forjaria e na
procura arcaica da longevidade e imortalidade. Com os tempos, ela veio
a encerrar uma sapiência caldaica, a qual veio a fundir-se com a helenís-
tica e, finalmente, absorvida pelos árabes. Foi pela alquimia árabe que
as concepções alquímicas europeias vieram adquirir suporte sapiencial
abstrato, através da magia. No século XII, foram traduzidos para o la-
tim tratados árabes de Alquimia de autoria de Avicena e Averróis, entre
outros menos conhecidos, versando sobre a transformação dos metais,
descrevendo operações de laboratório e tratando da preparação de elixi-
res não só para curar doenças, mas também para dotar de imortalidade os
adeptos mais fervorosos.
Mas, quando a Alquimia árabe chegou à Europa, no século XII, con-
frontou-se com o desenvolvimento em nível elevado da Teologia cristã.
Daí o fato de que, além dos textos alquímicos medievais tratarem das des-
crições das operações alquímicas em busca do ouro e do elixir da longa
vida, apareceram textos místicos nos quais as operações alquímicas são
descritas como verdadeiros “sacrifícios” da matéria, em seu caminho para
a purificação, dos quais participa também o alquimista na busca de uma
sua perfeição anímica. Um exemplo desses é o texto, atribuído a São To-
más de Aquino, em que a Alquimia aparece totalmente sob a forma de uma
mística, sob o nome de Aurora Consurgens.
Durante o Renascimento, a Alquimia já vinha sendo desmoralizada pe-
las tentativas fraudulentas de transformar metais em ouro, no sentido mer-
cantilista de alcançar riqueza. Daí o aparecimento de falsários e charlatães
que se intitulavam alquimistas. Donde a perseguição não só pela Igreja
como também pelos governos, temerosos de suas fraudes e competição na
cunhagem de moedas.
Entretanto, o espírito da Alquimia permanece na prática da mineração
e da forjaria – ambas mantendo seu caráter mágico – e na Medicina renas-
centista. O caráter mágico da Medicina renascentista transparece nitida-
mente na Medicina de Paracelso.
Paracelso (1493-1541), o médico formado em Ferrara, nascido em Ein-
siedeln na Suíça, cujo verdadeiro nome era Theophrastus Bombastus von
Hohenheim, representa bem o aspecto renascentista da crença de um poder
mágico natural, capaz de ser adquirido pela experiência vivenciada pelo
experimentador através do qual a natureza desvelaria seus segredos. A Me-
dicina, para ele, não negava a Alquimia e a Astrologia, pois a doença não
seria coisa pessoal, mas um desequilíbrio cósmico. Contudo não era nem

148
alquimista nem astrólogo. Era um médico em harmonia com as crenças de
sua época.
Paracelso acreditava que todo fenômeno fisiológico no corpo dos ho-
mens era semelhante ao processo de combinação dos princípios alquími-
cos: enxofre, mercúrio e sal. A respeito disso, escreveu em um dos seus
tratados:
Pois então, como terceiro fundamento sobre o qual se apoia a Medicina, está a
Alquimia. Quando o médico não é treinado e experiente, no maior e mais alto
grau desse embasamento, toda sua arte é vã. Pois a natureza é tão sutil e tão pers-
picaz nos seus assuntos que não se deixa usar sem grande arte. Ela não pede nada
que não seja perfeito em seu estado natural, mas, ao homem, cabe aperfeiçoar-
-se. Esse processo de aperfeiçoamento é chamado Alquimia.
Nessa linha, Paracelso admite que, no corpo humano, dá-se um pro-
cesso alquímico presidido por um princípio que ele chama archaeus. Por
exemplo, no alimento há substâncias venenosas. Quando o archaeus pode
exercer corretamente sua função, o alimento é benéfico e o corpo desenvol-
ve-se, porém, se o archaeus acha-se incapacitado para sua função, o corpo
sofre os efeitos do veneno. Em vista da semelhança, Paracelso refere-se
aos archaeus como alquimistas – pois são esses que governam as trans-
formações da matéria. Note-se que a ideia de Alquimia, para Paracelso, já
se aproxima da Química. Pois sua ação é a de governar a combinação dos
alimentos no sentido de dirigi-la para um fim almejado. Para que o médico
venha a conhecer essa ordem deve, em primeiro lugar, não a procurar nos
tratados antigos, mas observar diretamente o que acontece com os doentes
e obedecer a ordem interna dos acontecimentos. Diz Paracelso: “Porque
nas experiências nem a teoria nem outros argumentos são aplicáveis, mas
eles devem ser considerados como expressões próprias”. Mas, lembre-se
que o significado de “experiência”, para os renascentistas, não é o mesmo
que o da ciência moderna. É mais semelhante ao de “vivência dos fenôme-
nos” tal como no método fenomenológico moderno.
Paracelso foi uma figura periférica da cultura de sua época, pois nas-
ceu e viveu a maior parte de sua vida na província suíça. Daí o seu saber
ser algum tanto defasado. Entretanto, essa defasagem acentua e exagera o
caráter mágico da cultura renascentista e permite-nos, consequentemente,
uma melhor compreensão daquela. Sua doutrina faz entender melhor o que
é Alquimia que os próprios tratados secretos alquímicos. Como médico, é
um dos últimos elos da medicina greco-romana cuja tradição se desenvol-
via, principalmente, de geração em geração – como techné que era. Isso
é denotado pelo seu próprio nome: homenagem (antagônica) ao grande

149
médico de Éfeso: Celso. Não há dúvida que aprendeu Medicina com seu
pai que era médico. Daí o caráter “popular” de sua Medicina, toda baseada
em sabedoria sobre plantas medicinais e obediência a fenômenos naturais
cuja experiência remontava a séculos. Mas não se limitou a esse aprendi-
zado técnico. Frequentou universidade e foi professor universitário, entre
outras, na Universidade de Basileia.
A doutrina de Paracelso parte da ideia neoplatônica de uma realidade
constituída por um Ser único e supremo, um espírito universal e uma alma
individual que, participando da Alma do Mundo, é a fonte da qual emana o
mundo sensível. Há, portanto, uma participação anímica entre o cosmos e
a alma. As perturbações no equilíbrio das matérias que constituem o corpo:
sal, enxofre e mercúrio, isto é: as doenças são decorrentes de desequilíbrio
na alma, pois essa é a origem daquelas. Para curar a doença é preciso res-
tabelecer o equilíbrio anímico, o que é possível fazer através de remédios:
plantas e minerais que o propiciem.
Por outro lado, as doenças têm explicações na “ordem do mundo”, isto
é, desbalanceamento da harmonia entre os quatro elementos clássicos –
terra, água, ar, fogo – e na “quinta essência” e nos três agentes de trans-
formação alquímica: o enxofre, o sal e o mercúrio. Na origem, os elemen-
tos foram criados pelo Iliaster e pelo Cagastrum – quase assimiláveis aos
princípios do Bem e do Mal. Há, portanto uma tendência de organizar o
mundo segundo a Iliaster, mas nele há o princípio de destruição no Cagas-
trum. Assim, o mundo organiza-se em tensão constante com a desordem.
Tudo nasce e tudo se corrompe. Só o espírito divino que há no homem está
livre do Cagastrum. Assim, as doenças podem ter origem na desordem
cósmica: falta ou excesso de um elemento ou agente. Isto é, predominância
do princípio de destruição sobre o da ordem.
Finalmente, é curioso notar que, no final do Renascimento, há uma transi-
ção do caráter mágico das atividades humanas para o técnico. Na Mineração e
Metalurgia, por exemplo, essa transição do caráter mágico de suas práticas para
uma aproximação técnica dá-se com Georgius Agricola (Georg Bauer) (1499-
1555), graduado bacharel em Artes pela Universidade de Leipzig em 1518. Foi
inicialmente professor em Leipzig, porém a partir de 1527 dedicou-se à prática
de Mineração e Metalurgia. A ele, deve-se a descrição, em termos destituídos
de qualquer referência mágica, das práticas de Mineração e Metalurgia.

e) A universalidade das leis humanas


O final do Renascimento já estava, de certa forma, contido em seu iní-
cio, pois que, com o advento da Reforma Protestante, em cerca de 1500, e

150
o renovado interesse pela leitura da bíblia, surgiu uma outra crença básica,
no norte da Europa, em oposição flagrante com a exuberância renascen-
tista. A de que o mundo é região inóspita e destituída de toda sacralidade,
pois o divino está longe, de fora, afastado das coisas do mundo, e o homem
é um ser que, embora feito à semelhança de Deus, está condenado a viver
nesta região agressiva e a trabalhar por sua sobrevivência. O mundo, por-
tanto, é imperfeito, e cabe ao homem lutar para melhorá-lo, modificando-o
segundo sua própria razão e conveniência. Portanto, a mentalidade protes-
tante é mais conatural à do mundo moderno que a renascentista.
O que deu fim ao Renascimento foi a revolução copernicana. Pelo sis-
tema astronômico grego, a Terra estaria imóvel no centro do universo e,
em torno dela, girariam as esferas cristalinas perfeitas dos céus. Abaixo da
esfera lunar dominaria a Física da constante transformação. Era o mundo
sublunar da imperfeição. Acima da esfera lunar haveria a perfeição das
regiões eternas e imutáveis, pertencentes ao mundo embora inacessíveis
ao homem.
É verdade que essa perfeição já estava minada, pois, o sistema pto-
lomaico já se vira obrigado, para explicar o movimento aparentemente
desordenado dos planetas e para conseguir maior precisão na contagem do
tempo, a introduzir combinações de movimentos circulares e excentricida-
des nas órbitas planetárias. Com isso, alguma coerência se conseguiu, mas
havia erros que se acumulavam durante os séculos. Até que, no despontar
do Renascimento, já se notava a imperiosa necessidade de reformar o ca-
lendário. As festas da Igreja já não correspondiam às estações próprias do
ano. E fazia-se necessário corrigir esses erros.
Nicolau Copérnico (1473-1543)56 foi quem os corrigiu, com o seu
sistema heliostático, abolindo as esferas celestes e colocando a Terra nos
céus, girando com todos os outros planetas, em torno do Sol. Com isso,
não haveria mais razão em se distinguir as leis vigentes na Terra das que
regiam o movimento dos astros (eles não pertenceriam mais à região ex-
tralunar das perfeições).
Entretanto, os reacionários da época não admitiam a ideia de que a
contagem ptolomaica de tempo pudesse estar errada, mas, pelo contrário,
era mais fácil pensar que o mundo era imperfeito em relação à perfeição
56 O livro de Copernicus, de revolutionibus orbium coelestium, foi publicado em
1543 e o primeiro exemplar foi mostrado ao autor em seu leito de morte. Um fac-
símile dessa obra e a reimpressão do texto latino, com análise histórica de texto
foi editado pela Academia Polaca de Ciências e pelo Centro Nacional de Pesquisa
Científica de Paris e impresso em Cracóvia, em 1973. Há uma tradução portuguesa
publicada pela Fundação Calouste Gulbenkian de Lisboa.

151
da concepção ptolomaico-aristotélica dos astros girando em órbitas per-
feitamente circulares nas incorruptíveis esferas cristalinas dos céus. Mas,
de qualquer forma era urgente modificar o calendário. Para isso, a própria
Igreja necessitava dos astrônomos e, por incrível que pareça, o próprio
Copérnico tinha sido convidado para Roma com esse propósito em 1514.
Entretanto, ele recusara o convite, pois que, segundo sua opinião, seria ne-
cessário, antes, descobrir como o Sol e a Lua moviam-se realmente no céu
– o que, na sua opinião, não era exatamente conhecido. Assim, pode ele,
na introdução ao seu livro, justificar sua publicação como auxílio prestado
à reforma do calendário – o que a Igreja desejava e o que foi realizado em
1582, pelo Papa Gregório XIII.
Daí é fácil compreender o passo de estender a todo o universo as leis
humanas, pois, que não havendo diferença entre a Terra e os céus não ha-
veria razão para que as leis válidas na Terra não o fossem também em todo
o universo.
Portanto, foi Copérnico que realizou a universalização das leis ter-
restres (humanas) – princípio fundamental da ciência moderna. Assim, a
revolução copernicana não foi tanto a de deslocar e colocar o Sol como
centro imóvel de um sistema planetário, mas, principalmente a de deslocar
a Terra do centro e colocá-la movendo-se no céu. Desta forma, negando
a existência de regiões onde imperasse a perfeição, alheia às leis. Aliás, o
sistema copernicano não é heliocêntrico, pois que o Sol não estaria exata-
mente no centro das órbitas dos planetas. Entretanto seria ainda necessário
admitir uma rotação da Terra em torno de si mesma, e isso é que veio trazer
descrédito à teoria, pois tudo indicava que a Terra estava parada.
Não foi talvez, por mero acaso que a ciência – como a entendemos
hoje – teve origem numa necessidade de resolver um problema de ordem
prática. Com o sistema heliostático de Copérnico, a contagem do tem-
po resolver-se-ia a contento. É bastante simbólico, também, que Andreas
Osiander (1498-1552), no prefácio do livro de Copérnico, explique que
não se trata realmente de afirmar o heliostatismo, como uma verdade em
si: mas que, em se colocando o Sol parado próximo do centro do sistema
planetário, haveria uma melhor concordância entre o movimento obser-
vado dos planetas e o que se poderia disso deduzir. Isto é, geralmente,
considerado, como um subterfúgio para fugir à censura da Igreja, entre-
tanto, poderia ser tomado em sentido mais amplo, pois que mostraria um
caráter específico do novo saber que vinha nascendo. Não interessaria
conhecer as coisas como elas intimamente são, mas sim conhecê-las em
suas determinações mais convenientes ao homem. Não se trataria real-

152
mente de afirmar que o Sol é o centro do universo, mas sim propor que o
universo não tem centro privilegiado. Esse pode ser escolhido segundo a
conveniência do homem.
O sistema de Copérnico baseia-se em princípios de simplicidade. O
primeiro é que é mais simples imaginar a Terra girando em torno de si
mesma e, portanto, produzindo a impressão de um movimento contrário
e semelhante das estrelas, Sol e planetas, do que todos os objetos do céu
girando vertiginosamente em torno dela. Aceito o primeiro princípio, seria
mais simples o Sol no centro e todos os planetas girando em torno dele
que a Terra girando em torno do Sol e os planetas e as estrelas em torno
dela. Mas isso tudo, embora simples, era contrário ao bom senso, pois o
que se percebe diretamente é que a Terra está imóvel e que o Sol levanta-
-se de manhã no oriente e põe-se à tarde, no poente. O mesmo fazem os
astros à noite. Mas, como aconteceram vezes depois, na ciência, preferiu-
-se abandonar o bom senso. Quanto à Lua, passa-se o contrário, é muito
mais simples reconhecê-la girando em torno da Terra que tentar colocá-la,
como os outros planetas, em órbita solar. Seu movimento tornar-se-ia, en-
tão, complicadíssimo.
Por aí se vê que o sistema copernicano já quebra com o significado
renascentista da experiência como visão direta. Aparece, na experiência,
a interpretação das posições do Sol e dos astros de acordo com uma ideia
previamente concebida. Porém, mostra uma dimensão da ciência moderna,
isto é, a conveniência humana. O universo não tem centro próprio e não
existem movimentos absolutos das coisas. Pode-se fixar o que está parado
e o que se move segundo a conveniência humana. Daí o fato da ciência
moderna, que brotou da ciência do Renascimento, renunciar ao conheci-
mento de verdades absolutas.
O Livro I da obra de Copérnico inicia-se com a afirmação de que a
Terra gira em torno de si mesma e que ela, com todos os planetas exceto a
Lua – que gira em torno da Terra – têm movimentos esféricos em torno do
Sol (que não ocupa exatamente o centro do universo, mas está um pouco
afastado dele) e termina com uma exposição da Trigonometria dos triân-
gulos esféricos. No Livro II, essa Trigonometria é aplicada para o cálculo
da posição dos planetas no céu, confirmando o pressuposto no Livro I. O
Livro III trata das irregularidades aparentes do sistema solar, como a pre-
cessão dos equinócios e as diferenças do ano solar. O Livro IV trata dos
movimentos da Lua em torno da Terra e das suas conjugações e eclipses
do Sol e da Lua. Os Livros V e VI tratam dos movimentos dos planetas e
de suas posições relativas.

153
A Matemática do de revolutionibus orbium coelestium é extrema-
mente atualizada para a época. A Universidade de Cracóvia, onde Copérnico
inscrevera-se em 1491, tinha adquirido, desde os tempos de Regiomontanus,
um grande prestígio em Matemática e Astronomia. Esse prestígio não parou
com Copérnico, Georg Joachim Rheticus (1514-1576), discípulo de Copér-
nico, escreveu o mais elaborado tratado de Trigonometria da época.
A revolução copernicana, entretanto, esbarrou de início com uma vi-
sualização do mundo que a tornava muito pouco evidente. Por isso, foi
aceita com toda relutância. Tycho Brahe (1546-1601), por exemplo, ad-
mitia somente um compromisso entre os dois sistemas – o Sol girando
em torno da Terra e todos os planetas em torno do Sol. De fato, ele mais
se interessava em observar as cenas do céu, como faz um astrólogo, que
compreender o mecanismo do movimento dos astros. Dentro dessa sua óti-
ca, não fez ele mais do que compendiar uma série enorme de observações
sobre a posição de astros e estrelas. Foi um aluno de sua velhice, Johannes
Kepler (1571-1630) – uma mentalidade de transição entre o renascimento
e a época moderna –, que, aproveitando-se das numerosíssimas observa-
ções do seu mestre, fez a ciência dar mais um passo para sua forma atual.
Kepler recebeu do mestre a incumbência de, a partir de tabelas de ob-
servações das posições do planeta Marte, determinar sua órbita e calcular
os epiciclos e os deferentes circulares necessários. Sete anos trabalhou Ke-
pler inutilmente até que, diante da impossibilidade em que se via, resolveu
abandonar a ideia de que todas as órbitas planetárias fossem circulares ou
compostas de movimentos circulares. Ainda mais, resolveu ele abandonar
a ideia de que todos os movimentos planetários fossem necessariamente
uniformes. Com isso, rompeu com aquilo que era considerado evidente e
enveredou pela linha do nonsense. Isso mesmo fez depois a ciência, em
várias ocasiões, nos momentos de crise.
Enfim, abandonou o bom senso e tomou o caminho do improvável. Em
seu de motibus stelae martis (Praga, 1609) enunciou suas duas primeiras
leis: a de que os planetas descrevem órbitas elípticas, das quais o Sol ocu-
pa um dos focos, e a de que os raios vetores que ligam os planetas ao Sol
descrevem áreas iguais em tempos iguais, de forma que, quando longe, os
planetas movem-se mais lentamente que quando perto do Sol.
Num outro livro, cujo título harmonices mundi (Augsburg, 1619)
denuncia uma preocupação greco-renascentista de encontrar uma grande
harmonia espiritual ou Matemática do mundo, ele enuncia a sua terceira
lei. A de que os cubos dos tempos, necessários para que os planetas descre-
vam as suas órbitas completas, são proporcionais aos quadrados dos gran-

154
des eixos dessas órbitas. Observe-se que essa lei refere-se a uma propor-
cionalidade entre as várias órbitas dos planetas. Ela não trata da forma da
órbita particular de um planeta nem de sua velocidade, mas estabelece uma
harmonia numérica em todo o sistema planetário. É, portanto, de inspira-
ção pitagórica, denuncia a tendência renascentista de ver no mundo uma
ordem artístico-mágica e não uma sucessão de acontecimentos determina-
dos mecanicamente, embora não se possa afirmar ter ele tido consciência
disso. Não há em Kepler, uma Análise Matemática do sistema planetário
– que é a característica fundamental de ciência barroca, que viria a seguir –
mas a descoberta de uma harmonia geométrica nas revoluções siderais.
O professor W. Pauli57, prêmio Nobel de Física, mostrou, num seu tra-
balho, que nos tratados de Kepler é visível uma sua dupla inclinação, a de
estabelecer leis científicas que governam o movimento dos planetas e de
conceber o Sol não só como um centro do universo, mas também como
divindade, e a de melhorar-se a si mesmo na participação da harmonia do
cosmos. Isso confirma a sua mentalidade de transição entre as ideias mági-
co-místicas presentes na ciência do Renascimento, e a concepção objetiva
do sistema solar, característica da ciência moderna.
O homem, nesse contexto cósmico-geométrico, assume um valor pri-
mordial como “modelo” do cosmos: seu corpo é natureza, sua psique é
imortal e participa do divino como razão e como vontade. Dessa partici-
pação, do corpo na natureza e da mente no divino, é que decorre a ideia
de ser, o Renascimento, uma réplica do mundo à revelação cristã do céu.
Pauli, no trabalho citado, pretende interpretar, apoiando-se na psicolo-
gia profunda de C. G. Jung, o conhecimento científico da natureza basean-
do-o numa correspondência de imagens preexistentes na psique humana,
com percepções de objetos externos. Kepler chama essas imagens, intuí-
das pela mente, de archetypalis. É como se a mente do cientista primeiro
imagina essas imagens e depois as coordena com suas percepções sensí-
veis – como se todo processo de conhecimento iniciasse-se no inconscien-
te, para terminar em sua formulação racional. Pauli, analisando as obras
escritas de Kepler demonstra que tal processo está realmente presente nas
investigações de Kepler. A generalização dessas ideias para a ciência do
Renascimento é bastante plausível, por exemplo, em Paracelso.
Tais ideias poderiam ser estendidas para a ciência moderna, admitin-
do-se que suas teorias necessariamente partiriam de uma conjetura prévia,
57 PAULI, W. The Influence of Archetypal Ideas on the Scientific Theories of Kepler.
In: JUNG, C. The Interpretation of Nature and the Psyche. Nova York: Pantheon
Books, 1955.

155
plausível, porém não necessariamente verdadeira, imaginada pelo cientis-
ta, cuja veracidade deveria ser verificada pela experiência.
Para Kepler, como o mundo é expresso pela Geometria – um arquétipo
do mundo –, pois trata de figuras eternas na mente de Deus e verdadeiras
por toda a eternidade, assim refletidas na mente dos homens, pois este é
uma cópia daquelas. Nesse sentido, Pauli cita uma passagem do harmoni-
ces mundi:
Os cristãos sabem que os princípios matemáticos, de acordo com os quais o
mundo corpóreo foi criado, são coeternos com Deus, que Deus é alma e mente
no mais supremo sentido da palavra, e que as almas humanas são imagens de
Deus, o Criador, e também conformadas a Ele.(57)
Poder-se-ia concluir que, para Kepler, não há uma matematização da na-
tureza elaborada pelos homens. A natureza já teria sido criada por Deus se-
gundo a Matemática e a alma humana já nasce com o raciocínio matemático.
Assim, o importantíssimo papel que desempenha a Matemática num
tal mundo, permitindo ver, como disse Santillana, “no céu, o puro tecido
geométrico” e, ao mesmo tempo, “pensar os círculos em termos de com-
portamento dos seres vivos” é, para a mentalidade moderna, incompreen-
sível. O próprio tempo em que se dá e transcorre a criação e a destruição
de tudo o que existe, não se submete ao poder da Geometria, diz Leonardo,
mas deve ser entendido como uma dramática sucessão de cenas marcadas
pelos ciclos vitais. Para se compreender essa aparente contradição é neces-
sário ver que a Matemática renascentista não era a “Análise Matemática”
moderna – um instrumento de pesquisa, mas era a Matemática das propor-
ções e perfeição das figuras geométricas e dos números, cujo poder regia
o movimento dos corpos inanimados. Portanto, era a expressão da ordem
imposta por Deus ao mundo.
Com efeito, a Matemática conhecida pelos renascentistas já não era
a Matemática grega, devido aos aportes da Álgebra árabe. A Matemática
grega era a das proporções harmônicas, de origem pitagórica, ou a do en-
cadeamento lógico de teoremas, sobre figuras perfeitas, que teve origem
na Academia Platônica e consubstanciou-se nos elementos, de Euclides.
A Matemática árabe visava essencialmente resolver problemas práticos
pelo cálculo por símbolos e números. A Matemática renascentista estava
próxima da contemplação dos movimentos harmoniosos dos astros, mas
essa sua proximidade era apenas aparente. Não se detinha na pura con-
templação das proporções harmoniosas, ela pretendia ser a expressão da
própria forma harmoniosa desses movimentos impostos por Deus.

156
O progresso na solução das equações algébricas pelas mãos de Car-
dano, Tartaglia e Ferrari já são prenúncios da Matemática moderna, um
instrumento da razão humana com o qual, analisando os fenômenos, o
homem é capaz de chegar à verdade. Porém o caráter de “análise” só foi
conferido à Matemática quando o Renascimento já se tinha completado.
Apesar de toda a evolução dos conhecimentos renascentistas matemá-
ticos e astronômicos, a nosso ver, não estavam ainda constituídas as for-
mas do tipo de saber que se veio a chamar ciência moderna. Assim, nem
os gregos – cujo legado à nossa ciência foi, por assim dizer, a “descoberta”
da teoria – nem os renascentistas que nos revelaram a totalidade do uni-
verso como sujeito a um espírito do qual a razão humana participa – não
foram os que armaram a estrutura do saber total e radicalmente novo que
é a ciência moderna. Somente os prolegômenos desse novo saber tinham
sido lançados.
Entretanto, sobre tais bases é que se ergueria todo o edifício que poste-
riormente viria a se estabelecer. Pode-se mesmo dizer que, o que apareceu
a seguir, foi o que realmente trouxe a radical novidade do saber científico
moderno, pois, que veio alterar o próprio conceito de certeza até então vi-
gente. Mas, sob a égide do saber renascentista é que se puderam expressar
as leis que regem a natureza inanimada sob forma matemática.
Em suma, durante o Renascimento, pronunciava-se a duplicidade de
aspectos sob os quais a natureza apresentava-se aos homens. Os artistas,
arquitetos e matemáticos percebiam que as leis geométricas da perspec-
tiva e as das proporções numéricas e geométricas deveriam guiar a men-
te humana na procura pela verdade, mas, por outro lado, os alquimistas,
médicos e naturalistas renascentistas viam a natureza sob seus aspectos
mágicos cuja transformação e movimentos provinham de um espírito ex-
tranatural (a anima-mundi). Mas, tudo isso desapareceu com o advento de
uma ciência radicalmente diferente como veio a ser a do mundo moderno.

157

158
VI – O ESTABELECIMENTO DO MUNDO MODERNO

a) Galileu e o experimentalismo ideal


Foi com Galileu, terminado o movimento renascentista, que a ciência
moderna estabeleceu-se em sua forma atual e, com ela, o mundo moderno.
As figuras anteriores de Copérnico e Kepler, já o anunciavam, embora
periféricas aos principais centros de criatividade. Habitavam províncias
distantes onde o movimento renascentista fora mais impreciso, se exis-
tente. Talvez seja essa a razão de suas importâncias na construção da nova
ciência, pois estavam livres da contaminação da exuberância e feracidade
do mundo renascentista, tão diferente do ascetismo moderno. Compare-se
o vulto austero de um Descartes com o colorido do de um Leonardo. São
vultos tácitos, vestidos de negro, em face à dramaticidade e ao colorido das
vestes dos homens do Renascimento. O vigor, engenho e habilidade desses
últimos despertam, em nossa mente, mais a lembrança de um inventor, de
um grande artista ou um aventureiro, do que a de um pensador, um clérigo
ou um negociante, como a dos primeiros.
É de se crer que o movimento renascentista foi um fruto da exuberân-
cia vital mediterrânea em contraposição ao espírito ascético e trágico do
norte da Europa. É de se crer ainda que esse último sobrepujou o primeiro
quando se estabeleceu a ciência moderna. Daí a predominância dos paí-
ses nórdicos desde que a ciência domina o horizonte da vida moderna. E,
entretanto, ela nasceu também no sul, com Galileu Galilei (1564-1642)
e suas experiências ideais, simultaneamente ao aparecimento do barroco.
O que terá de comum com a nova ciência, a arte dos jesuítas, a con-
trarreforma, a música de Vivaldi e as figuras revoltas de Bernini, é algo
complexo. Entretanto, é possível conjeturar-se que, se o renascentismo não
tivesse sido truncado pela mentalidade barroca, o que se chamaria hoje de
ciência teria tido um caráter radicalmente diferente do que entendemos
hoje como tal.
Galileu terá de ser, embora admitido como um dos primeiros artífices
da nossa ciência, também um grande traidor do espírito do Renascimento.
Sua mente era pitagórica, pois que via na natureza um grande livro escrito
em caracteres matemáticos, o que antecipava um preceito dominante na
ciência moderna: o da preferência pela expressão dos fenômenos naturais
por meio de equações matemáticas. Para ele as qualidades das coisas: gos-
to, cor, cheiro e tato seriam aparências secundárias, o que se coaduna com

159
o espírito moderno. Afirmava que a experiência tinha que ser a origem
e o fim de toda investigação científica, porém, para ele o significado da
palavra experiência não era o mesmo que o da visão direta de um renas-
centista. A experiência, para ele, deveria ser organizada de acordo com o
que primeiramente pensava sobre o fenômeno. Daí sua aceitação plena das
experiências simplesmente pensadas. Esse contraste entre a visão de um
mundo matematizado, sem cores, sabores e odores, e a necessidade de o
entender a partir da observação empírica – tomada essa como critério de
verdade – leva ao método experimental de Galileu.
A experiência científica, desde então, vem sendo algo diferente da
simples descoberta, pelos olhos do rosto, de uma verdade desconhecida.
Desde Galileu ela vem sendo uma verificação metódica de algo que já se
conhece mentalmente, conjeturando algo de plausível sobre o fenômeno
pesquisado. Diz ele: “primeiro concebo com a mente, sei onde quero che-
gar e como lá chegar”. A experiência é montada de acordo com o que já
se tem em mente, e ao fazê-la não se faz mais que lançar uma pergunta à
natureza sobre a teoria preconcebida, cuja resposta será, simplesmente, um
sim ou um não.
É verdade que se tem feito descobertas importantes nas ciências por
mero acaso, mas, essa não é a regra geral. Quando isso acontece surge
uma ideia nova a qual é, então, posta à prova por meio de uma experiência
organizada em base a essa ideia nova. Essa experiência e não a descoberta
que se fez por acaso, é que confirmará a verdade da ideia nascida do que
se vislumbrou por acaso.
Compare-se esse significado da experiência com o que tem dela um
Leonardo – o qual decorre de uma vivência, semelhante à artística, do
fenômeno em pesquisa – e perceba-se a diferença de mentalidade entre
as duas épocas. Tem-se a impressão de que a primeira não é mais que a
anunciação do que viria a ser claramente explicitado na segunda, pois, am-
bas insistem na experiência como único critério de verdade. Porém, para
a primeira, experiência é algo vivido, enquanto que, para a segunda é algo
pensado e planejado. Para o renascentista, experiência é a visão direta,
por assim dizer, pelos olhos do rosto; para o barroco, a experiência não é
senão um artifício para ajudar a mente a visualizar o fenômeno já por ela
conjeturado.
Entretanto, a grande notoriedade com que se costuma imortalizar Ga-
lileu não se expressa tanto um tributo à sua contribuição à formação do
método experimental, mas, sim, no seu apoio apaixonado ao sistema de
Copérnico. Assim, nessa época, mais de meio século depois da publica-

160
ção do de revolutionibus orbium coelestium, o sistema ptolomaico
encontrava confirmação, na evidência sensível (no sentido renascentista),
de que a Terra estava parada. A visão direta não mostrava que a Terra se
movesse. Portanto, a atuação de Galileu não foi a de chamar atenção para
a evidência, mas a de demoli-la e reconstruir a realidade de acordo com o
concebido pela sua mente, em concordância com o sistema copernicano.
Ele tem consciência da necessidade de uma “nova Física” metodicamente
construída58.
E, nessa demolição da evidência, é importante, antes de mais nada,
levar em conta o caráter polêmico de Galileu. Desde os tempos de jovem,
quando ingressou na Universidade de Pisa para estudar Medicina, não dei-
xou nunca de debater apaixonadamente, com colegas e professores, a tal
ponto que não conseguiu formar-se em Medicina. Obteve, entretanto, a
posição de lente de Matemática. São dessa época seus primeiros estudos
sobre a balança hidrostática, o sincronismo dos pêndulos e a queda dos
corpos, ainda sob forte influência medieval, embora seu caráter político o
impelisse a combater toda ideia de autoridade. Polemizava, então, de tal
forma com seus colegas que se viu obrigado a renunciar em 1591. É dessa
época a improvável lenda de que teria convocado todo o corpo universi-
tário a assistir à experiência na qual duas bolas de diferentes pesos que,
lançadas da Torre de Pisa, deveriam cair com mesma velocidade, contra-
riamente ao que era afirmado nos tratados aristotélicos. Foi então, para
Pádua, ensinar Matemática, onde ficou até 1610.
Em Pádua, como diz Shozo Motoyama na tese citada, por ser um cen-
tro de ensino da Medicina, era onde se ensinava a submeter problemas
reais a uma análise metodológica, questionavam-se os conhecimentos já
estabelecidos. Assim, ensinava Galileu, nessa época, o sistema ptolomai-
co, mas criticando-o, como o demonstra numa sua declaração, por carta a
Kepler de 1597, de que se convertera, há já muitos anos, às opiniões de
Copérnico. Contudo, não as defendeu senão depois de julgar-se possuidor
de evidências experimentais em seu favor. Em 1610, aceitou o convite de
Cosimo II de Médici, para vir a Florença como Filósofo e Primeiro Mate-
mático do Sereníssimo Grão-Duque de Toscana. Então se abriu a oportuni-
dade para tentar comprovar experimentalmente o que pensava.
Assim o fez – do que resultou a publicação, em 1610, do seu sidereus
nuncius59. Ali descreve as suas observações, feitas desde 1609, com um
telescópio, aparelho recém-construído na Holanda, por meio do qual des-
58 MOTOYAMA, Shozo. O Método na Formação da Mecânica Clássica. (Tese de
Livre-Docência) – Universidade de São Paulo. São Paulo, 1976
59 GALILEI, Galileo. Opere. Milão: Riccardo Ricciardi Editore, 1953.

161
cobrira quatro satélites de Júpiter – aos quais deu o nome de Astri Medi-
cei, em honra a Cosimo de Médici. Eles se moviam exatamente como era
de se esperar no sistema copernicano, formando em torno de Júpiter uma
miniatura do sistema solar. Pôde verificar também que a superfície da Lua
era manchada e, como a borda da parte iluminada era irregular, sugeria
mares e montanhas como as da Terra. Observou ainda que as nebulosas e a
própria Via Láctea decompunham-se, ao telescópio, em agrupamentos de
inúmeras estrelas.
Nas cartas a Marco Velseri60, de 1612, descreve as manchas solares,
mostrando que o Sol tinha suas imperfeições, as quais se lhe moviam em
torno. Na primeira dessas cartas reafirma que Vênus tem fases como a
Lua, as quais, porém, só poderiam ser explicadas pela sua revolução em
torno do Sol e que, também no caso de Mercúrio, isso era sugerido pelas
observações telescópicas.
Fez, portanto, uma demolição da ideia aristotélica de um céu perfeito
e incorruptível, no sentido de mostrar, no céu, coisas inteiramente fami-
liares à Terra. Não haveria, portanto, razão alguma de retirar os planetas
do contexto do nosso mundo sublunar. Todos eram corpos físicos muito
semelhantes à Terra e, portanto, sujeitos às mesmas leis e raciocínios aqui
válidos. Além disso, o fato de a Terra ter como satélite a Lua não era uma
exceção, pois outros astros também os tinham. Finalmente, era visível que
Vênus e muito provavelmente, também Mercúrio, giravam em torno do
Sol.
Tudo isso é, ainda, bastante consistente com o critério da “visão dire-
ta”, mas já anuncia o método de encontrar na natureza uma confirmação do
que já fora concebido pela mente, com a teoria copernicana. Que a “visão
direta” pudesse ser melhorada por instrumentos artificiais – como: lunetas
ou outros aparelhos de laboratório – é já um prenúncio da ideia moderna
da experiência de laboratório, como critério definitivo de verdade.
Porém, como já se disse anteriormente, toda sua argumentação ana-
lógica, a favor do sistema copernicano, baseava-se nas suas observações
siderais e não provava logicamente o movimento da Terra, pois de fatos
particulares não se pode deduzir uma conclusão geral. Recorreu, ele então,
ao princípio de que, se um observador estiver em movimento retilíneo e
uniforme, não haverá meio de provar que se move ou está em repouso. A
não ser em relação a um ponto que se considere fixo. Mas é possível rever-
ter os dados e considerar o ponto fixo como animado de velocidade unifor-
me e, então, o observador é que estaria parado. Determinar objetivamente
60 GALILEI, Galileo. Op.cit. p. 911, 929, 947.(59)

162
quem se move em relação a quem, é impossível. Qualquer pessoa que já
teve a oportunidade de, num trem parado numa estação, observar a partida
do trem ao lado, já disso teve experiência, pois, provavelmente, sentiu
que o que se movia era o seu próprio trem. Todo esse raciocínio abstrato,
fundamental para o nosso pensamento científico, é estranho à mentalidade
renascentista, baseada na “visão direta”. Veio mesmo constituir-se, na nos-
sa ciência, não como um fato, mas, como um dos princípios da Mecânica
Racional: o princípio da relatividade dos movimentos retilíneos e unifor-
mes. O qual foi por ele comprovado pela experiência pensada de um navio
navegando em águas calmas, cujo movimento não se pode perceber por
observações internas.
Foi nessa época que entrou em conflito com a Igreja. Porém, esse con-
flito não girava em torno da questão científica. Ele aparece quando Galileu
tenta justificar seu ponto de vista que não haveria conflito entre a teoria de
Copérnico e as Escrituras Sagradas. Em 1616, o Santo Ofício condenou
algumas asserções das cartas sobre as manchas solares61, onde se dizia
que o movimento da Terra era real e não hipotético. Galileu foi, então,
advertido a não defender o sistema copernicano como descrição de um
universo real, embora a Igreja o pudesse aceitar como uma hipótese sim-
plificadora.
Galileu absteve-se de comentários e até, em 1627, menciona no seu
il saggiatore que, se não se podia aceitar o sistema de Ptolomeu por ser
falso, também não se podia aceitar o de Copérnico, pois isso lhe fora impe-
dido pela Igreja. il saggiatore é um livro polêmico, originado nas discus-
sões entre o jesuíta padre Orazio Grassi e um discípulo de Galileu, Mario
Guiducci, a respeito da natureza de três cometas que apareceram nos céus
da Itália em 1618. Paradoxalmente, esse livro apaixonado e polêmico é
uma apresentação do método da investigação científica moderna que se
pretende objetivo e isento de paixões. O novo método consistirá essen-
cialmente em dar mais crédito ao que é lido no grande livro da natureza,
escrito em caracteres matemáticos, do que naquilo que se possa deduzir
logicamente do que disse uma autoridade. Galileu apresenta esse princípio
do seu método no seguinte trecho – que se toma da tradução brasileira62:
Parece-me perceber em Sarsi (pseudônimo do padre Grassi) sólida crença que,
para filosofar, seja necessário apoiar-se nas opiniões de um célebre autor, de tal
forma que o nosso raciocínio, quando não concordasse com as demonstrações
do outro, tivesse de permanecer estéril e infecundo. Talvez considere a Filosofia
61 GALILEI, Galileo. Op.cit. p. 88.(59)
62 GALILEI, Galileu. O Ensaiador. São Paulo: Abril Cultural, 1973. (Coleção Os
Pensadores).

163
(ciência) como um livro e fantasia de um homem, como a ilíada ou o orlan-
do furioso, livros em que a coisa menos importante é a verdade daquilo que
se apresenta escrito. Senhor Sarsi, a coisa não é assim! A Filosofia (ciência)
encontra-se escrita neste grande livro que continuamente se abre perante nossos
olhos (isto é, a natureza) e que não se pode compreender antes de entender a
língua e conhecer os caracteres com os quais está escrito. Ele está escrito em
língua matemática, os caracteres são triângulos, circunferências e outras figuras
geométricas sem cujos meios é impossível entender humanamente as palavras,
sem eles nós vagamos perdidos dentro de um obscuro labirinto.
Numa longa discussão sobre a natureza do calor, sob o pretexto de
afirmar que o calor não é uma substância corpórea, mas uma qualidade
acidental de corpos, Galileu apresenta a sua concepção da realidade, como
constituída pelas qualidades primárias (mensuráveis) dos corpos e não por
seus acidentes sensíveis (cores, odores etc.). Diz ele:
[...] concebo a matéria ou substância corpórea como determinada e figurada por
esta ou aquela figura; grande ou pequena em relação às outras; estando neste ou
naquele lugar; neste ou naquele tempo; em movimento ou parada; em contato ou
não com outro corpo; sendo uma única, poucas ou muitas; não posso imaginá-la
separada dessas condições. Mas, que ela deva ser branca ou vermelha, amarga
ou doce, sonora ou muda, de cheiro agradável ou desagradável, não acho possí-
vel à mente poder compreendê-la necessariamente ligada a essas condições, pelo
contrário, se nossos sentidos não atuassem, talvez, o discurso ou a imaginação
por si próprios não chegariam a eles. Assim, considero que cheiros, sabores,
cores etc., em relação ao sujeito no qual residem, não são mais que puros nomes,
residindo no corpo sensitivo, de forma que retirado o animal, todas essas quali-
dades se anulam[...]
É a doutrina idealista – dominante na época barroca – que distingue as
propriedades objetivas (mensuráveis): figura, movimento, número, exten-
são, das subjetivas: cores, odores, sabores etc. Sobre as primeiras – que
pertencem aos objetos – é possível raciocinar e fazer ciências, as segundas
– que pertencem somente aos sentidos animais – são somente matéria de
emoções e paixões.
A natureza, abarcável pela ciência moderna seria, portanto, algo de in-
sípido e inodoro, composta de formas, grandezas, espaço e tempo – sobre
a qual a razão humana seria capaz de domínio, principalmente por meio
das Matemáticas. Ora, isto requer que a natureza seja essencialmente men-
surável. Daí a importância que tem os aparelhos de medida para Galileu.
Somente medindo as dimensões das grandezas que constituem a natureza é
que essa poderia ser escrita em caracteres matemáticos. O estabelecimento

164
da necessidade de mensuração foi talvez o principal passo, dado por Ga-
lileu, não só na instituição da ciência moderna, mas, também, no grande
processo de matematização da natureza. Pois nada pode ser matematizado
sem antes já não ser mensuralizado. É essa a essência do processo de “ma-
tematização da natureza” que se pretende historiar neste livro.
Em 1632, 16 anos depois de ter sido advertido pelo Santo Ofício, de
não defender doutrina de que o Sol estaria parado e a Terra se movesse, foi
publicado o seu dialogo dei massimi sistemi63, no qual, pelas palavras do
interlocutor principal, Salviati, defende-se o sistema copernicano contra os
argumentos contrários, apresentados sob uma forma um tanto tola, por um
debatedor aristotélico, sob o nome de Simplício. Galileu pretendeu evi-
dentemente emprestar ao seu dialogo um tom platônico, não só recorren-
do e valorizando os argumentos geométricos, como também nitidamente
pretendendo demonstrar matematicamente, que Simplício “recordava-se”,
pelo diálogo de ideias esquecidas.
Com a publicação desse livro, Galileu foi levado a julgamento perante
o Santo Ofício, em 1633, e condenado por quebrar seu acordo de 1616, ao
defender a teoria de Copérnico, não como hipótese, mas como verdade e,
finalmente, por forte suspeita de heresia. É interessante notar que, também,
a obra de Copérnico: de revolutionibus orbium coelestium foi então
condenada, 90 anos após sua publicação. Isto é um sinal de que somente
a partir do século XVII, as obras puramente científicas, vieram a adquirir
importância suficiente para serem capazes de abalar a fé nas sagradas es-
crituras.
O dialogo inicia-se, numa primeira jornada, de forma inteiramente
platônica, com discussão sobre os dois tipos simples de movimentos na-
turais: o reto e o circular. Segundo Aristóteles, o movimento circular é o
único próprio às substâncias incorruptíveis. Assim, a Terra não poderia
ter um movimento circular sobre si mesma, pois ela pertence ao mundo
sublunar da geração e degeneração. Somente os movimentos contrários
para cima e para baixo, segundo Aristóteles, por admitirem contrários, são
próprios dos elementos gerados e corruptíveis, enquanto que os circulares,
não admitindo contrários, o são dos corpos eternos e incorruptíveis. Esse
seria o argumento favorável a se considerar a Terra imóvel no centro do
Universo. Somente os astros que são de substâncias eternas e incorruptí-
veis poderiam mover-se circularmente.
Salviati contrapõe a ideia de que o movimento circular não seria neces-
sariamente o dos corpos incorruptíveis, mas o de tudo que obedece a uma
63 GALILEI, Galileu. Opere. Op. cit. p. 355-850.(59)

165
ordem. Por outro lado, as aparições, na época, de duas estrelas “novas”
e de cometas, a observação das manchas solares e da superfície rugosa
da Lua, mostravam que os corpos celestes não eram diferentes da Terra.
Porém, como no mundo tudo é ordenado, tanto os astros como a Terra po-
deriam ser animados de movimento circular, independentemente de serem
corruptíveis ou não.
Demonstrar que realmente a Terra gira sobre si mesma no movimento
de rotação diurno é o proposto na segunda jornada. Salviati parte do prin-
cípio que um movimento da Terra deverá, para nós, ser necessariamente
imperceptível. Assim, o modo de comprovar o seu movimento será o de
observar, nos corpos separados da Terra, algum tipo de movimento que
possa ser comum a todos. Ora, observa-se um movimento aparente de to-
dos os planetas e estrelas fixas que é o da rotação, em 24 horas, do oriente
para o ocidente. Aparentemente não haveria diferença alguma se supusés-
semos que é a Terra que gira em torno do seu próprio eixo, em 24 horas,
do ocidente para o oriente. Isso seria muito mais plausível dada a pequenez
do globo terrestre em relação com a enormidade da esfera das estrelas e a
vertiginosa velocidade com que essa deveria rodar em torno da Terra. E aí
se aplica o princípio clássico da relatividade dos movimentos uniformes.
Tudo que se move, move-se em relação a algo, e é impossível constatar o
movimento uniforme de um sistema, dentro desse sistema.
Assim, será impossível decidir, na Terra, se é ela que se move ou move-
-se o resto do Universo. Mas há uma outra dificuldade: se for admitido o
desmesurado movimento dos céus, observar-se-á que há um movimento
particular dos planetas e do Sol, em sentido contrário ao do movimento
diurno. Pois, aparentemente o Sol, os planetas e as estrelas nascem no
oriente, levantam-se e percorrem o céu, indo pôr-se no ocidente em cada
24 horas. Porém, o Sol e os planetas, cada dia, atrasam-se um pouco em re-
lação às estrelas fixas. Tem, portanto, um segundo movimento contrário ao
primeiro. Se imaginarmos a Terra girando sobre si mesma, desaparecerão
esses movimentos contrários. Assim, haverá um outro argumento a favor
da rotação da Terra.
Contudo, a experiência sensível nega uma tal rotação. Se a Terra ro-
dasse em torno de um eixo, diziam os ptolomaicos, os graves não cairiam
perpendicularmente sobre a superfície da Terra, como os vemos cair. Da
mesma forma, os projéteis lançados perpendicularmente para o alto não
viriam a cair no mesmo lugar que lançados, como os vemos fazer. Ao dei-
xar cair uma pedra de uma torre, sendo arrastada a torre pelo movimento
da Terra, durante sua queda a pedra afastar-se-ia da torre, indo cair distante

166
dela. Dessa forma, os fatos comprovam que a Terra está parada no centro
do Universo. Ainda mais se dois canhões disparam um para ocidente outro
para oriente, suas balas alcançariam distâncias diferentes se a Terra se mo-
vesse. A experiência demonstra que as distâncias são as mesmas, portanto,
a Terra está parada. Por outra, os pássaros voam no ar com toda a facilida-
de para um lado e para o outro, o que não aconteceria se a Terra estivesse
em movimento. A todos esses argumentos Salviati rebate dizendo que a
Terra e todas as coisas sobre ela, inclusive as torres, as aves, os projéteis,
movem-se uniformemente com ela e, portanto, só será possível distinguir
movimentos relativos entre elas. Isto pode ser observado numa viagem de
navio, entre Veneza e Alexandria, nenhum movimento relativo entre as
peças de sua carga, é observado a não ser que se as mudassem de lugar. Ao
se deixar cair uma pedra do mastro do navio ela não cairá muito distante
do seu pé, pois está participando do movimento do navio. Diz Galileu,
pela boca de Salviati: “[...] se o movimento é uniforme e não flutuante de
um lugar ao outro, não observaremos a mais ligeira mutação nos objetos
enumerados, e, por nenhum deles, poderemos averiguar se a nave se move
ou está imóvel”.
É interessante notar que Simplício reclama de Salviati que ele diz tudo
isso sem ter feito uma única experiência. Ao que Galileu retruca, pela boca
de Salviati: “Eu, sem experiência, estou seguro que o efeito seria tal como
o digo, porque assim é necessário que o seja”. É a afirmação da crença do
primado do que se pensa sobre o que se sente, essencial ao método galilea-
no, primeiro afirma-se aquilo que é necessário, a experiência o confirmará
como tal.
Assim, o movimento da Terra é primeiramente concebido pela mente
como necessário. Todos os fatos da experiência sensível podem o desmen-
tir, mas Galileu recorre, para suportá-lo, a um princípio a priori: o seu
princípio da relatividade dos movimentos. Na verdade Galileu, pretendeu
comprovar o movimento da Terra pela sua teoria das marés, mas ela estava
errada, pois, sabe-se que as marés não são provocadas pelo movimento da
Terra. Contudo, ele estava certo. Era um novo tipo de certeza que surgia
com a ciência moderna. Primeiro faz-se a conjetura, depois, a experiência
organizada de acordo com a conjetura prévia. A conjetura será verdadeira
se a experiência a confirmar.
Mas havia, ainda, algo a explicar. Era a experiência das rodas que, ao
girarem vertiginosamente tinham a capacidade de expelir, pela tangente,
qualquer coisa que sobre elas fosse colocada. Assim, se a Terra girasse, as
coisas sobre ela deveriam já ter sido lançadas para o céu. A demonstração

167
matemática feita por Galileu de por que isso não acontecia, não satisfaz
plenamente a mente moderna, pois não havia ainda conhecimentos da ace-
leração centrípeta nos movimentos circulares. Contudo, sua conclusão de
que o movimento para o centro supera muito amplamente sua tendência
em sair pela tangente, é correta.
Na terceira jornada, é discutido o problema do movimento anual da
Terra em torno do Sol, como sugeria Copérnico. Um argumento contrário
é que a Terra, onde havia geração e corrupção, não poderia invadir a região
dos céus, onde imperava a perfeição e a perenidade. Esse argumento já fora
derrubado, pois a eternidade e a incorruptibilidade dos céus já fora pertur-
bado pelo aparecimento, nos céus de Florença, de duas estrelas “novas”.
Um argumento que se dispunha a favor do sistema copernicano era o
da sua simplicidade em relação ao ptolomaico. Além desse, Galileu insiste
nas analogias com suas observações telescópicas, Vênus e Mercúrio são
planetas mais próximos do Sol. Se girassem em torno desse deveriam mos-
trar fases semelhantes às da Lua. As observações telescópicas confirmam
as fases de Vênus e pode-se conjeturar que existam, também, as de Mer-
cúrio. Portanto, se esses planetas giram em torno do Sol, também a Terra
girará. É um argumento, na verdade, bastante fraco. Um outro argumento
é o dos quatro satélites de Júpiter, por ele descobertos, que, além de mos-
trarem um modelo do sistema solar, justificam o movimento certo da Lua,
em torno da Terra, sem que isso implique na necessidade da Terra estar pa-
rada. Um terceiro era o das manchas solares, indicando alterações no céu
e, portanto, permitindo a posição da Terra nos céus, como um planeta das
imperfeições. Além disso, essas manchas mostram movimentos descre-
vendo linhas curvas só explicáveis se a Terra for suposta girando em torno
do Sol. Um outro argumento é o das diferenças dos tamanhos aparentes
dos planetas, quando vistos pelo telescópio, correspondendo exatamente
às suas respectivas distâncias da Terra, segundo o sistema copernicano.
É verdade que os tamanhos aparentes de Vênus não concordavam com
isso, o que era explicado pela existência das fases desse planeta, acima
mencionados. Finalmente, havia uma dificuldade em supor a Terra girando
em torno do Sol. Era o da maior e menor distância às estrelas dever, ne-
cessariamente, provocar paralaxe em sua observação durante o ano. O que
não se observava. Para explicar isso Galileu procurou demonstrar que as
estrelas fixas estão a distância tão grande da Terra que torna essa diferença
imperceptível.
Aqui está o exemplo do método galileano para chegar à verdade: parte
da crença de que o entendimento humano é semelhante ao divino. Pois,

168
se bem que a razão humana é incapaz de abarcar extensivamente todas
as questões, ela pode resolver algumas delas tão intensivamente como a
divina. Por exemplo: o conhecimento humano das matemáticas, relativo
a algumas proposições, é igual ao de Deus, pois é capaz de compreender
suas correlações. Dessa forma, pela Análise Matemática, é possível che-
gar a conclusões firmemente demonstradas e prosseguir no caminho da
solução de outras mais complexas. Entretanto, as verdades de conclusões
de raciocínios, em geral não podem ser sempre comprovadas somente
pela simples dedução lógica a partir de princípios admitidos. É preciso
mais. São observações particulares (por exemplo, as manchas solares, a
rugosidade da superfície da Lua, as fases de Vênus, os satélites de Júpi-
ter etc.) que comprovam aquilo que anteriormente foi conjeturado como
plausível (por exemplo: o sistema copernicano). Porém, ao fazer suas
conjeturas o investigador não deve se interessar por esquemas arbitrários,
mas deve levar em conta sua concordância com observações particula-
res. Isto é: uma conjetura deve ser plausível, embora não necessariamen-
te verdadeira. Haverá alguns critérios para que se prefira uma conjetura
como mais conveniente: sua simplicidade, sua beleza, sua coerência com
outras verdades. Essas, entretanto, por si só são incapazes de lhe conferir
o status de verdade. Somente a experiência organizada de acordo com a
teoria, o poderá. Portanto, a interpretação das observações e a organização
das experiências devem ser feitas de acordo com o que foi previamente
conjeturado pela mente do pesquisador. “Primeiro concebo com a mente”,
disse Galileu.
Disso tudo, pode-se perceber a necessidade da mensuração dos fenô-
menos da natureza para aceitação das ideias de Galileu e, portanto, da
ciência moderna, pois a natureza deve ser, antes de tudo, expressável em
números ou figuras geométricas. Daí decorre o processo que se está cha-
mando de matematização da natureza.
Denunciado pelas “heresias” dos seus dialogos, Galileu foi julgado
e condenado a passar o resto de sua vida recluso em sua vila em Arcetri,
perto de Florença. Voltou então aos seus estudos de mocidade sobre a que-
da dos corpos. Não mais abordou o problema, como o fizera em Pisa, sob
o aspecto fenomênico renascentista, pelo contrário, abordou-o a partir da
conjetura do que seria um movimento uniformemente acelerado. Isto o
obrigou a procurar seus princípios nas análises feitas pelos nominalistas
do fim da Idade Média. Mas a novidade dessa volta ao domínio da visão
mental dos fenômenos é que ela não mais se passava no ambiente das aca-
demias e das igrejas, mas, sim junto aos fatos concretos que ocorriam nos
arsenais venezianos.

169
Pois, foi com a evocação da constante atividade desses famosos arse-
nais que Galileu iniciou os seus discorsi e dimostrazioni matematiche
intorno à due nuove scienze attenenti alla mecanica & i movimenti
locali64 publicados, em Leiden pelo Elzevir em 1638. Uma dessas novas
ciências é a Resistência dos Materiais. É uma aplicação dos princípios da
Mecânica à técnica das construções. A outra é parte da atual Mecânica Ra-
cional. Talvez a intencionalidade de Galileu em reunir tecnologia a mais
matematizável das ciências, sob a evocação da “constante atividade que
os venezianos desenvolvem em seus arsenais”, tenha sido exatamente a de
patentear a conjugação entre máquina e razão que caracterizou o mundo
moderno. Daí o duplo significado que se veio dando, desde então, à pala-
vra “engenho”. O que era, durante o Renascimento, uma capacidade genial
artística – como em Camões: “se a tanto permitir o engenho, a arte” – pas-
sou a designar tanto o produto da razão – o gênio como espírito – quanto o
engenho como máquina. Daí, então, aquele que cuida das máquinas ficou
sendo chamado de engenheiro, mas, é também aquele que tem engenho.
Nesse sentido é que, no frontispício da tradução livre, resumida e anotada
dos discorsi feita por Mersene, publicada em Paris, em 1634, sob o título:
les nouvelles pensées de galilée, dá-se-lhe o subtítulo de Mathemati-
cien e ingenieur du Duc de Florence.
Na primeira e na segunda jornada dos discorsi, trata de demonstrar a
solução matemática de problemas técnicos, como o da resistência à tra-
ção e a flexão de colunas, tirantes e vigas. Note-se que esses problemas
são sugeridos pela observação de que, nos arsenais: “[...]empregam esta-
leiros, cimbramentos e ancoragens de dimensões maiores quando lançam
ao mar navios grandes do que quando o fazem com os menores”. E essa
observação está em contradição com a crença de que: “[...] desde que a
mecânica tem seus fundamentos na Geometria, onde o mero tamanho
não distingue as figuras, não vejo porque as propriedades dos círculos,
triângulos, cilindros, cones e outras figuras sólidas poderão variar com
seu tamanho.” É, então, Galileu obrigado a lançar as bases da teoria di-
mensional dos modelos, para construir sua ciência dos materiais. Ele ex-
plica a resistência dos materiais como a soma das “forças de vácuo” que,
nos menores poros do material, impede que suas diminutas partes sejam
separadas umas das outras, da mesma forma que duas placas de super-
fícies polidas justapostas oferecem enorme resistência a sua separação.
Sua argumentação sobre o “poder do vácuo” estava errada (daí também
sua concepção da resistência à ruptura dos materiais), porém, não há dú-
64 GALILEI, Galileu. Opere. Op. cit. p. 853-884 – (somente um resumo). Tradução
inglesa: Dialogues Concerning the two New Sciences – in Britannica Great Books,
vol. 28 – Chicago, 1952.

170
vida que foram elas que guiaram seu discípulo Torricelli, à compreensão
da pressão atmosférica.
Do “poder do vácuo”, nos poros do material, o diálogo evolui para uma
elucubração geométrica sobre a divisibilidade dos corpos, até o infinito. A
fusão dos sólidos em líquidos, pelo poder do fogo, é entendida como divi-
são ao infinito das partes. A fusão do chumbo por meio de luz concentrada
numa lente leva a elucubração da velocidade da luz e desta, à consideração
da natureza do movimento, da velocidade de queda dos corpos e da resis-
tência do meio.
É nesse momento que é precisado, nos discorsi, simultaneamente com
a lei que rege a queda dos graves na superfície da Terra, o método, já men-
cionado anteriormente, da experiência mental, o qual consiste em pensar
o fato experimental visualizando-o mentalmente, no sentido de assegurar-
-se que tudo se passará de acordo com a conjetura que se tem em mente.
A conjetura, no momento, era que a queda dos corpos é um movimento
uniformemente acelerado, igual para todos os corpos. Note-se que essa lei
já tinha sido enunciada por Galileu, em carta a Paolo Scarpi, em 160465,
embora sob forma diferente.
Vem então, a descrição por Salviati, da experiência mental. Admitindo-
-se, conforme Aristóteles, que os corpos caem com velocidades propor-
cionais aos seus pesos: “Se tomarmos dois corpos cujas velocidades natu-
rais sejam diferentes, é claro que, ligando os dois entre si, o mais rápido
seria parcialmente retardado pelo mais lento, e este seria de algum modo
apressado pelo primeiro”. Isto é, os dois corpos interligados mover-se-
-iam com a velocidade média dos dois. Decorre, então, que o conjunto dos
dois (mais pesado do que ambos os corpos), mover-se-ia com velocidade
menor que a do mais pesado. Só haverá, então, uma forma de visualizar
mentalmente o que aconteceria: os dois corpos isoladamente ou amarrados
entre si, deveriam cair com a mesma velocidade.
No início da segunda jornada, é retomado o tema da Resistência dos
Materiais e feita a distinção entre resistência à tração e à flexão. São dis-
cutidos então os problemas da resistência à flexão de vigas em balanço
engastadas e do efeito de alavanca, para levantamento de pesos. Os dois
problemas são aproximados porque em ambos há que se igualarem mo-
mentos de forças atuantes com resistentes – o mesmo princípio até hoje
utilizado na Resistência dos Materiais. Fernando Lobo Carneiro estudou
em todos seus detalhes esse tópico dos discorsi66, chamando a atenção
65 GALILEI, Galileu. Opere. Op. cit.(59)
66 CARNEIRO, Fernando Lobo. Galileu, Fundador da Teoria da Resistência dos Ma-

171
sobre a preocupação de Galileu pela semelhança física e pela teoria dos
modelos, inclusive fazendo considerações sobre a “debilidade dos gigan-
tes”. Chamou atenção, Lobo Carneiro, para o fato de a fórmula deduzida
por Galileu não ser exatamente igual à da atual Resistência dos Materiais
– difere de um coeficiente numérico. Porém, é possível interpretá-la de
forma a torná-la adaptável ao cálculo de vigas de concreto armado – cuja
resistência à tração é menor que à compressão.
Porém, é na terceira jornada que Galileu aborda, pela boca de seus dia-
logantes, o problema do movimento local. Aqui os discorsi atingem seu
ponto de máximo interesse tanto científico como metodológico. Depois
de considerações sobre o movimento uniforme, os personagens entram no
assunto de real interesse: o do movimento naturalmente acelerado.
A análise inicia-se com a conjetura de que, se um grave cai em mo-
vimento natural acelerado, esse deve ser o mais simples possível, isto é:
uniformemente acelerado. Feita a conjetura, ele trata de estudar geome-
tricamente o movimento uniformemente acelerado a partir do que propõe
como Teorema I, Proposição I. Este diz:
O tempo no qual qualquer espaço é atravessado por um corpo, partindo do re-
pouso e uniformemente acelerado, é igual ao mesmo tempo em que esse mesmo
espaço seria atravessado pelo mesmo corpo se ele se movesse com velocidade
uniforme cujo valor fosse a média entre a velocidade máxima atingida e a velo-
cidade de logo após o começo da aceleração.
Tal teorema é demonstrado por Salviati, mas não é dito, nos discorsi,
que o teorema foi enunciado muitos anos antes como sendo a Regra de
Merton, já mencionada no capítulo IV, deste livro. Foi dito que essa é uma
regra resultante dos estudos medievais feitos na Universidade de Oxford,
por Bardwardine e outros e, também, em Paris, por Buridan e Oresme.
Desse teorema decorre um outro: “Os espaços percorridos por um cor-
po caindo do repouso, em movimento uniformemente acelerado, estão uns
para os outros como os quadrados dos intervalos de tempo dispendidos em
atravessar essas distâncias”. Disto decorre matematicamente que:
[...] um corpo móvel partindo do repouso e adquirindo velocidade proporcio-
nalmente ao tempo, atravessará sucessivamente, em iguais intervalos de tempo,
distâncias que estarão relacionadas, umas com outras, assim como os números
ímpares a começar da unidade: 1, 3, 5, etc.
Depois disso, Salviati mostra como esses teoremas aplicam-se a um
corpo, deslizando por um plano inclinado, medindo-se as alturas, descidas
teriais. Boletim no 27 Paris: RILEM, 1965. (Edição bilíngue).

172
pelo corpo ao longo do plano inclinado.
Vem então, a experiência montada de acordo com a teoria prévia:
Numa viga de madeira com 12 cúbitos de comprimento, meio cúbito de largura e
três dedos de espessura, foi cortada uma canaleta de um pouco mais de um dedo
de largura fizemos rolar uma bola de bronze dura e lisa, tendo colocado a viga
em posição inclinada, e observando os tempos de descida.
Feita a experiência, confirmou-se o que tinha sido demonstrado nos
teoremas anteriores, sobre o movimento uniformemente acelerado. Este é
o exemplo mais claro do método experimental galileano.
Na quarta jornada, é estudado o movimento dos projéteis, estabele-
cendo-se as bases da parte da Mecânica Racional que hoje é chamada de
Balística. O movimento dos projéteis é concebido como resultante de duas
componentes: uma uniforme e que se mantém uniforme permanentemente
e outra, uniformemente acelerada. Isto é: o projétil é posto em movimento
uniforme na direção em que é lançado, porém, imediatamente atua sobre
ele o seu peso que o faz cair com o movimento natural dos graves, uni-
formemente acelerado. O movimento resultante das duas componentes dá
uma trajetória parabólica à bala. Os discorsi terminam com a tabulação
das amplitudes das semiparábolas que são descritas por projéteis dispa-
rados com uma mesma velocidade inicial, a vários ângulos de elevação.
Aqui está uma verdadeira descoberta científica: a de que a trajetória das
balas é uma parábola. Quando se considera que a parábola e a elipse são
curvas da mesma espécie e se lembra da lei de Kepler, conferindo aos
planetas órbitas elípticas em torno do Sol, não se pode deixar de visualizar
que, neste instante, a mecânica terrestre e a celeste tornaram-se uma só.
Galileu é, portanto, aquele que conferiu a todo o cosmo o mesmo caráter
mecânico. Toda a natureza foi concebida por ele como máquina, seme-
lhante as dos arsenais de Veneza, e obediente aos teoremas da Matemática.
É de se enfatizar, por fim, que o grande valor de Galileu não está, tão
somente, em ter demonstrado, a uma Igreja reacionária, que a Terra girava
em torno de si mesma e do Sol. Nem de ter descoberto as leis matemáticas
que regem o movimento local natural ou violento. Mas, de ter criado um
método de investigação científica tão revolucionário que transformou a
ciência em algo radicalmente novo. Algo que fez surgir uma nova evidên-
cia. Era, antes dele, evidente que a Terra estava parada e que ocupava um
lugar privilegiado no cosmo. Tudo que ele tentou demonstrar contraria-
va a evidência. Deveria, portanto, ser falso. No entanto, ele tinha razão.
Era uma razão “nova” que se instituíra no mundo fazendo surgir um novo

173
critério de verdade e com esse, o “mundo moderno”. Mas, o que é mais
importante, para o propósito deste livro, é que o método de Galileu exige
a expressão dos fenômenos físicos em caracteres matemáticos. Portanto
requer a matematização da natureza.

b) O método, a Matemática e a Física cartesianas


O que se está chamando “mundo moderno”, indelevelmente ligado à
“ciência moderna”, veio a adquirir forma definitiva com o aparecimento de
um curioso tipo de mentalidade. É a dos homens cheios de dúvidas sobre o
mundo, porém, pretendendo torná-lo claramente conhecido e apoiando-se,
justamente para isso, metodicamente em suas próprias dúvidas. Dois desses
homens foram: René Descartes (1596-1650) e Francis Bacon (1561-1625).
Sob suas mentalidades a ciência moderna constituiu-se definitivamente. Eles
emprestaram-lhe sua característica fundamental: a de pesquisa metódica. O
primeiro com o método racional; o segundo, com o empírico. Note-se, entre-
tanto, que Galileu já estabelecera um terceiro método: o experimental.
Como já se pode perceber, pela descrição do que se passou com Ga-
lileu, após a derrocada do movimento renascentista, sobreveio na cultura
europeia uma crise. Essa resultou evidentemente da insolvabilidade dos
problemas medievais, somada ao malogro do Renascimento, do qual re-
sultou no que poderíamos chamar de um clima de dúvida. São as antigas
crenças que desmoronam e é a dúvida que se estabelece, como aquilo que
preenche os claros deixados pelas crenças, no dizer feliz de Ortega y Gas-
set67. Não se tratava de negar algo em confronto com algo que se afirmasse,
explica o filósofo espanhol. Uma situação duvidosa não é nunca aquela em
que se sabe o que não é, porém, é aquela em que não se encontra firmeza
alguma nem no que é, nem no que não é.
Em tal situação, diz Ortega, “[...] o homem exercita um estranho o que
fazer que quase não parece tal: o homem se põe a pensar [...] quando tudo
em torno de nós falha, resta-nos entretanto, essa possibilidade de meditar
sobre o que nos falta”.
É nesse clima que se deve colocar e compreender o método carte-
siano, como um esforço para sair da dúvida no sentido de orientar-se na
busca da verdade. Observe-se que não se parte de nada firmemente esta-
belecido, como fizeram os antigos, mas procura-se algo que não se tem,
apoiando-se simplesmente na negação de tudo que se duvida. Entretan-
to, estabelece-se agora uma crença nova: que a razão é suficientemente
67 GASSET, J. Ortega Y. Ideas Y Creencias. Madri: Espasa, 1964. (Coleccion Aus-
tral).

174
capaz de discernir, por intuição, entre tudo que é duvidoso, algo claro e
distinto – portanto, nisso é possível apoiar-se.
René Descartes, no seu discurso do método68, publicado em 1637,
como prefácio a três tratados científicos: a Dióptrica, os Meteoros e a Geo-
metria, afirmando no seu subtítulo: “[...] para bem conduzir a própria razão
e procurar a verdade nas ciências”, esboça, pela primeira vez, essa atitude.
É importante notar o caráter autobiográfico e existencial do discurso69.
Ali, conta Descartes, na primeira pessoa, como encontrou, apoiando-se na
própria dúvida e utilizando-a como método, uma primeira certeza. Isto é:
uma ideia clara e distinta atingida – não através do raciocínio dedutível,
mas, através de uma intuição racional – a certeza de sua própria existência,
enquanto pensamento. “Penso, logo existo”. Entre todas as diversas varie-
dades de percepções não podia contar nada certo, pois os sentidos eram
enganosos. Nem mesmo todos os raciocínios rigorosamente ordenados, o
conduziriam a uma conclusão certa, pois que os raciocínios não nos con-
duzem além do que já sabemos implicitamente. Mas, a intuição da existên-
cia enquanto pensamos, essa é certa, é clara e distinta, pois que é impossí-
vel negá-la, pois, mesmo no momento em que a negasse, o pensamento se
afirmaria existindo. E assim estabelece-se uma primeira substância (aquilo
que subsiste por si próprio): a res cogitans (eu sou uma coisa pensante).
Descartes indica-nos, então, as regras que instituem a dúvida como
método. Diz ele:
[...] em vez desse grande número de preceitos de que se compõe a Lógica, jul-
guei que me bastaria os quatro seguintes, desde que tomasse a firme e constante
resolução de não deixar uma só vez de observá-los.
O primeiro era o de jamais acolher alguma coisa como verdadeira se
não a conhecesse evidentemente como tal, isto é, evitar cuidadosamente
a precipitação e a prevenção, e nada incluir em meus juízos que não se
apresentasse tão clara e distintamente a meu espírito, de forma a não ter em
nenhuma ocasião de pô-lo em dúvida.
O segundo, o de dividir cada uma das dificuldades que examinasse, em
tantas parcelas quantas fossem possíveis e necessárias para melhor resolvê-las.
O terceiro, o de conduzir por ordem meus pensamentos, começando
pelos objetos mais simples e mais fáceis de conhecer, para subir, pou-
68 DESCARTES, R. Discurso do Método. São Paulo: Difusão Europeia do Livro,
1962. (Coleção Obra Escolhida).
69 KUJAWSKI, Gilberto de Mello. Descartes Existencial. São Paulo: Editora Herder,
1969.

175
co a pouco, como por degraus, até o conhecimento dos mais complexos,
supondo mesmo, para isso, uma ordem entre os que naturalmente não se
dispusessem em sucessão uns aos outros.
E o último: “o de sempre organizar enumerações tão completas e revi-
sões tão gerais que tivesse a certeza de nada omitir”. (68)
Por tal método, a mente separa-se do mundo e observa as coisas como
objetos, alguns confusos, outros claros e distintos. Descartes nota que a
característica mais clara e distinta das coisas é sua extensão. Constituem,
portanto, as coisas do mundo uma substância segunda, cuja essência é a
extensão: é a res extensa.
Note-se aqui que se as coisas da natureza são pura extensão, elas são
mensuráveis e, portanto propensas a serem analisadas pela Matemática. Por-
tanto a matematização da natureza está implícita na Filosofia cartesiana.
Não é difícil perceber que foi essa a estrutura do mundo que, pelo me-
nos, algumas das ciências modernas adotaram, em princípio, como delas.
É constituída pelo sujeito observador, essencialmente pensamento, e pelos
objetos observados, essencialmente extensão mensurável. Uma vez com-
preendida uma ideia como clara e distinta, esta se constitui como “princí-
pio” e dela se poderá partir, pelo raciocínio, na conquista das conclusões. Se
o princípio é verdadeiro, a conclusão também o será. Percebe-se que essa
estruturação é semelhante a que domina o pensamento de Galileu, exceto
no que concerne à conclusão – a qual deve ser confirmada pela experiência.
Mas, também, isso não foge ao método cartesiano, embora Descartes nunca
tenha enfatizado muito o valor das experiências. Talvez tenha sido por isso
que sua contribuição, para o desenvolvimento da Matemática, tenha sido
grande e sua contribuição para a Física não tenha se mantido, pois a Mate-
mática não é dependente da experiência como a Física o é.
Surge, entretanto uma dúvida: quem garantirá que as conclusões se-
jam verdadeiras, pois são essencialmente mentais, enquanto deduzidas de
“princípios claros e distintos”. Quem garantirá que elas coincidam com o
que irá ser observado no mundo da extensão, pela experiência? Descartes
responde evocando uma terceira substância: a res infinita, Deus, criador
tanto da mente como da extensão, pois que Ele as criou necessariamente
concordes. Isto não quer dizer que não exista eventualmente a discordân-
cia, mas como erro humano. Esse provirá da sedução que exercem sobre
o sujeito as ideias confusas, provenientes das sensações apaixonadas, ou
de transviamento do pensamento, pois a alma é livre e, como tal, sujeita a
escolher um mau caminho na busca da verdade.

176
O discurso do método é divulgação do que já tinha sido mais exten-
sivamente elaborado, cerca de 12 anos antes, em latim, nas suas regulae
ad directionem ingenii70, em 1625, porém, só publicadas incompletas
após sua morte.
Desde 1618, quando se inscreveu na então recém-formada Academia
Militar do Príncipe Maurício de Nassau, pretendendo dedicar-se à Filosofia
e à Matemática nos intervalos da guerra, Descartes já vinha elaborando as
suas regras para conduzir o espírito na busca da verdade. Com essa preocu-
pação em mente, viajou pela Alemanha, Áustria e Itália, talvez envolvido
na Guerra dos 30 anos. De qualquer forma, comportava-se mais como um
espectador da ação dos homens, do que como soldado. Voltando a Paris, po-
rém, entregou-se de corpo e alma à tarefa de restabelecer a confiança naque-
le mundo em que se rejeitava toda autoridade e tradição. Sabia que isso não
podia ser feito pela imposição das crenças antigas, como a Igreja Católica
pretendia fazer, por exemplo, no processo de Galileu. Era necessário mos-
trar que seria possível, apoiando-se na própria dúvida, restabelecer a verda-
de das coisas mundanas, a confiança na ação dos homens e a fé em Deus.
Aqui, de novo, é interessante notar o uso da palavra ingenii significan-
do “espírito”, numa época em que a palavra “engenho” passava a significar
“máquina”. Por esse duplo significado pode-se intuir a conexão estabeleci-
da entre mente, entendida como razão através da Mecânica Racional, e as
máquinas. Daí a aproximação entre idealismo, racionalismo e maquinismo
que dominou o século XVII.
A intenção cartesiana, tanto no discurso como nas regulae, é eviden-
temente a de laicizar a ciência. Isto é, afirmar que qualquer pessoa é capaz,
por si própria, de investigar qualquer questão científica, desde que utilize as
regras para bem conduzir sua razão. Não será necessário recorrer à autori-
dade escolar alguma, nem conhecer a Lógica e aceitar princípios como irre-
futáveis. Pelo contrário, ela deve pôr em dúvida todo e qualquer saber dog-
mático e proceder, por si própria, na procura pela verdade. Abriu-se assim o
apetite pela pesquisa individual que caracteriza o cientista moderno. Deu-se
fim ao estudo “escolástico” baseado essencialmente na “leitura” do que fora
anteriormente escrito pelos mestres e nos “debates” e “disputas”, para resta-
belecer a pureza dos princípios e dogmas. Estabeleceu-se, assim, a ciência
moderna, como uma atividade individual de investigação, procurando sem-
pre algo de novo, mas sempre sujeita a um método imposto coletivamente.
70 DESCARTES, R. Règles pour la direction de 1’esprit. Paris: Librairie Philos-
ophique J.Vrin, 1966.

177
Embora a importância maior de Descartes, no estabelecimento da ciên-
cia moderna, esteja na sua metodologia da pesquisa científica, não se deve
esquecer que foi ele mesmo um pesquisador. Como tal sua importância
maior está na criação da Geometria Analítica71 na publicação de 1637, como
exemplo de aplicação de seu método. Seria essa, uma ciência da extensão
(comprimento, largura e altura), a substância da matéria sensível (na Física
não há vácuo, a natureza é contínua e não há átomos, crê ele). Portanto, sua
Geometria será um prolegômeno necessário a todo conhecimento físico.
Note-se a importância disso para todo cartesianismo. Desde que se mos-
trara possível algebrizar a extensão, estava assegurado o ideal de submeter
todo o domínio da res extensa à Matemática, portanto, chegar a estabelecer
uma ciência universal baseada na Análise Matemática da natureza.
A aplicação da metodologia cartesiana torna-se visível, na descoberta
de sua Geometria, quando se percebe que a questão foi dividida em partes
e que a solução progride da mais simples para a mais complexa. O livro
principia com a demonstração de que há uma relação estreita entre as ope-
rações da Aritmética (soma, subtração, multiplicação, divisão e radicia-
ção) e as propriedades de figuras geométricas. Os problemas de Geometria
poderiam, então, ser expressos em fórmulas algébricas e sua solução se-
guiria pelos processos quase automáticos da dedução algébrica.
Aliás, é de se notar que o método cartesiano não pretende introduzir
novidade na dedução matemática, pelo contrário, ele é uma generalização
do método matemático. Assim na xiv regula (onde se aplica à extensão
real dos corpos a regra anterior de dividir em parte as questões já com-
preendidas), depois de declarar que gostaria de ter como leitor alguém que
conhecesse a Aritmética e a Geometria, Descartes escreve: “[...] essa parte
do nosso método não foi inventada para os problemas matemáticos, mas
são eles que não deverão ser investigados senão tendo em vista cultivá-
-los”. Assim seu método não é mais do que uma ampliação do dedutivo,
aprendido em Euclides e Arquimedes, estendido e adaptado a todas as ou-
tras ciências.
O primeiro livro da Geometria (no qual se trata de alguns problemas
planos simples, em que intervêm retas e círculos correlacionados com
equações algébricas) termina com a abordagem analítica do célebre pro-
blema de Pappus, que ainda não tinha sido resolvido por meios puramente
geométricos. Somente uma parte do problema é, entretanto, resolvida. A
continuação do problema é mostrada só no segundo livro, que trata da
71 DESCARTES, R. La Geometria. Tradução de Pedro Rossell Soler. Buenos Aires:
Espasa-Calpe Argentina, 1947.

178
natureza das linhas curvas e sua correlação com expressões algébricas não
lineares. Assim, Descartes aplica a terceira regra enunciada no seu dis-
curso sobre o método: subir, pouco a pouco, como se fosse por degraus,
até conhecimento mais complexo. Finalmente, no terceiro livro, trata da
solução de problemas referentes a sólidos ou hipersólidos, correspondendo
às equações algébricas de terceiro grau ou superior.
A Física cartesiana tem seu início nos primeiros anos de sua estada na
Holanda, em 1630. Lá, além de escrever, como já foi mencionado, as re-
gras para direção do espírito, compôs um tratado sobre o mundo que
se perdeu. É possível que a dióptrica e os meteoros sejam parte desse
tratado, destruído quando soube da condenação de Galileu. Porém, sua
Física, como ciência organizada pelo entendimento e não pelos sentidos,
definitivamente elaborada, só foi exposta nas últimas partes de seus prin-
cípios de filosofia72, publicados em 1644. Esses reproduzem, provavel-
mente ampliado, o tratado anterior. O plano inicial do livro continha ou-
tras partes relativas aos animais e às plantas – as quais foram abandonadas
por Descartes. Na segunda parte – “Dos princípios das coisas materiais”,
Descartes primeiramente afirma que não há peso, nem dureza, nem cor e
assim por diante, mas somente extensão. Depois disso, demonstra que:
como não há vácuo, para se mover um corpo, tendo que deslocar outro ou
modificar suas distâncias recíprocas, não se pode de fato conceber o mo-
vimento absoluto de um corpo, pois é necessário entendê-lo com relação
ao outro. Assim, será indiferente dizer qual dos dois está parado e qual se
move. O movimento mede-se pelo produto da “grandeza” de um corpo
(o que posteriormente veio a se chamar “massa”) pela sua velocidade.
Enuncia, então, o princípio da quantidade de movimento constante. De-
pois disso, ele enuncia suas três leis que regem a natureza: 1) toda coisa,
permanece no estado que está, desde que nada a perturbe; 2) todo corpo
que se move tende a continuar seu movimento em linha reta; 3) se um
corpo que se move, chocar-se com um outro mais forte, não perderá nada
do seu movimento, simplesmente repercutirá, mas se encontrar um mais
fraco, transferirá a ele parte do seu movimento e conservará outra parte
para si. As duas primeiras leis formam o que se chama, hoje, de princípio
da inércia; a última, é a teoria elementar do choque, baseado no princípio
da conservação da quantidade de movimento. Note-se a importância da
teoria do choque da Física cartesiana, pois nela toda variação de movi-
mento só é possível se feita pelo choque. A Mecânica cartesiana é toda ela
uma teoria do choque.
72 DESCARTES, R. Les Principes de la Philosophie. Paris: J. Vrin, 1978. (Oeuvres de
Descartes).

179
Na terceira parte: “Do mundo visível”, é onde se encontra sua célebre
teoria dos vórtices. Os céus são fluídos onde se movem os planetas, nesses
formam-se diversos vórtices concordes, que arrastam os astros em torno
do Sol. Assim, a Terra move-se arrastada pelos vórtices. Mas, Descartes
aqui encontra uma maneira de não contradizer a Igreja, primeiro apresen-
tando seus turbilhões como hipótese, segundo apoiando-se ao princípio da
relatividade do movimento, afirma poder dizer indiferentemente que ela se
move ou está em repouso.
A quarta parte dos principia trata da Terra. Ela comporta um núcleo de
matéria estelar e uma crosta cuja superfície é modelada pelos elementos.
Sofre uma compressão, de natureza do choque, proveniente do turbilhão
solar do qual se origina seu movimento de rotação. Essa é, também, a
origem da tensão superficial dos líquidos e do peso dos graves. Aqui, tam-
bém, intervém a relatividade do movimento: as partículas do céu estão su-
jeitas a um movimento centrífugo o qual se relaciona com um movimento
centrípeto dos graves. Os corpos, na realidade, não têm peso (eles são pura
extensão), mas sua aparência de peso resulta das partículas do céu subirem
em seu lugar. Da mesma forma, um corpo flutua porque as partículas do
líquido, mais pesado, descem em seu lugar.
Da mesma forma, a luz é proveniente do material estelar concentrada
no Sol da qual irrompe a luz que não é mais que um choque dos corpús-
culos do céu sobre os corpos terrestres. A transferência de certos sólidos
e líquidos é o resultado desses poderem ser atravessados por essa matéria
sutil. Por outro lado, o calor é o resultado de uma agitação das pequenas
partículas dos corpos terrestres pela luz do sol. O calor em geral produz,
pela agitação das partículas, uma dilatação, mas, também, pode produzir a
contração de outros, por exemplo, a água.
E Descartes continua sua explicação dos fenômenos terrestres a partir
da hipótese inicial dos “turbilhões”. Ele procede segundo seu método: pri-
meiro divide em partes, depois as resolve, prosseguindo das mais simples
para as mais complexas. Percorre o caminho da hipótese aos fenômenos,
para organizar sua Física. Portanto, essa é, para Descartes, uma obra do en-
tendimento muito mais que da experiência sensível. Diz-se “muito mais”
porque, no final dos seus principia, ao tratar da natureza dos animais, das
plantas e do homem, Descartes não é mais capaz de explicá-los somente a
partir dos princípios, teve de recorrer à descrição de experiências sensíveis
para justamente explicar os sentidos humanos e as “paixões” da alma.
O curioso em tudo isso é o fato de a Física cartesiana não ter sido ela-
borada matematicamente, apesar da crença galileana de que o “livro da

180
natureza” tenha sido escrito em caracteres matemáticos. Apesar ainda, do
fato de Descartes ter sido o autor do primeiro tratado de Matemática que
possibilitou o ideal da matematização da natureza: a Geometria Analítica.
Porém, faltava o Cálculo Diferencial. Para que Newton pudesse escrever
sua Filosofia Natural teve de inventá-lo. Pois que, o processo de matema-
tização da natureza corre paralelamente ao desenvolvimento da própria
Matemática, como se o livro da natureza fosse escrito em caracteres ma-
temáticos, pelos próprios físicos e matemáticos. Contudo, a Física carte-
siana floresceu por mais de 50 anos e contribuiu para o estabelecimento
da ciência moderna73, mas não resistiu ao confronto com os princípios
matemáticos da filosofia natural, de Newton.

c) O método empírico de Bacon


A obra de Francis Bacon (1561-1626) é cronologicamente anterior à
de Descartes, porém, pelo fato de ser ele muito mais um político do que
filósofo teve seu conhecimento postergado. Dessa forma, culturalmente, o
pensamento cartesiano é anterior ao seu. O pensamento de Bacon, por seu
retardamento no tempo, vem colocar-se em pleno período barroco, embora
o próprio Bacon tivesse vivido os tempos finais do Renascimento.
O método cartesiano – até hoje chamado de racional – foi muito bem-
-sucedido nas Matemáticas e razoavelmente na Física, porém, não nas
ciências da natureza que estavam surgindo então, a partir da Medicina.
Dessas, o conteúdo empírico parecia fugir à racionalidade cartesiana. Po-
rém, na mesma atmosfera idealista e de dúvida de época barroca, um outro
método surgia, mais apropriado à investigação dos tópicos não matema-
tizados da natureza. Era justamente o método empírico, devido à Bacon.
Publica-o, Bacon, em seu novum organum74, em 1620, portanto 17
anos antes do aparecimento do discurso do método e cerca de cinco,
antes das regras cartesianas. Embora inacabado, esse livro contém o es-
sencial da Filosofia da Bacon e foi o guia de pesquisas químicas e bioló-
gicas que se fizeram a partir do final do século XVII, principalmente na
Inglaterra e nos países nórdicos.
Tanto Descartes como Bacon partiam da mesma ideia, isto é, que por
trás dos fenômenos concretos observados pelos sentidos havia uma subs-
tância inteligível, consequentemente, mental. Porquanto aqueles que pes-
73 MOUY, Paul. Le Développement de la Physique Cartésiene- 1646- 1712. Nova
York: Arno Press, 1981.
74 BACON, Francis. Novum Organum. In: FROST JR., S. E. (Ed.). Masterworks of
Philosophy. Chicago: Doubleday, 1946.

181
quisam em ciências não descobririam as coisas concretas, mas sim suas
“formas” (como diz Bacon). Para conseguir isto ambos foram concordes
em postular a necessidade de um método de como fazê-lo. Assim surgi-
ram os métodos: racional e o empírico. Tanto o racional como o empírico
demonstraram-se eficazes, porém cada um em sua área.
A “forma” é, para Bacon, aquilo que determina a natureza das coisas,
isto é, aquilo que o entendimento humano é capaz de descobrir nelas atra-
vés dos sentidos, para chegar a conhecer suas naturezas como tais: é algo
de semelhante às qualidades primeiras de Galileu e à “extensão” cartesia-
na. O caminho para chegar a conhecê-las não poderá ser nunca através da
lógica dedutiva. Diz Bacon:
[...] a lógica atualmente em uso só serve para fixar e dar estabilidade aos erros
que têm seus fundamentos nos princípios que comumente nos são dados [...]
portanto, se esses princípios são confusos e excessivamente abstraídos dos fatos,
não pode haver firmeza na superestrutura (da dedução). Nossa única esperança
está então na verdadeira indução.
Afirmando que compete ao “poder humano” transformar a natureza
das coisas e, ao “conhecimento humano” descobrir suas “formas”, Bacon
expõe sua “arte de interpretar a natureza”, para esses fins, lembrando que
o método que leva ao poder e ao conhecimento é o mesmo. Explica que só
da descoberta das “formas” pode resultar a verdade, pois a antiga ideia de
que o verdadeiro conhecimento é o das causas, esbarra com o fato de que o
conhecimento da causa final corrompe mais do que faz progredir a ciência.
A descoberta da causa final é desesperadora, a da eficiente e da material
é superficial. Porém, na linguagem científica de seu tempo, o conceito de
causa tinha perdido seu sentido antigo. A “causa de um fenômeno” adqui-
rira significado muito próximo daquele que ele chama de “forma da natu-
reza”, pois “forma” é aquilo que, uma vez dada, infalivelmente segue-se a
natureza ou repelida, a natureza infalivelmente desaparece. Essa, porém,
é exatamente a definição moderna de causa, quando se substitui o termo
“forma” por “causa” e “natureza” por “fenômeno”. Dessa perspectiva é
que Bacon propõe preparar uma história natural e experimental, na
qual não haveria a preocupação de supor nada, mas, sim, a de descobrir o
que faz a natureza ou o que ela pode ser forçada a fazer.
Para, porém, chegar ao conhecimento das “formas”, segundo Bacon, é
necessário, em primeiro lugar, livrar-se de todos os preconceitos do espí-
rito, aos quais ele chama de “idola”. A mente humana é como um espelho
tosco que recebe e reflete a imagem das coisas, não sobre um plano único,
mas sobre múltiplas facetas diversamente colocadas e, assim:

182
[...] não há ninguém que, em razão de sua educação, de seus estudos, de sua
própria natureza, não esteja sobre a influência de uma força sedutora e como que
presa de demônios familiares que decepcionam e turvam seu espírito, com uma
multidão de aparências vãs.
Esses demônios que nos enganam são de quatro tipos: os idola tribus
– preconceitos de nossa raça que tem a origem na própria natureza huma-
na. Um exemplo é o princípio “o homem é a medida de todas as coisas”.
O entendimento humano, por sua própria natureza vê as coisas com mais
ordem e uniformidade do que existem na realidade e trata de estender sua
própria ordem às coisas do mundo. É necessário evitar isso. O segundo
tipo de preconceito, os idola specus, tem sua origem na natureza própria
do corpo e do espírito, ou da “caverna”, em que cada indivíduo se encon-
tra. Exemplo disso é a predileção marcada de cada homem por uma deter-
minada ciência, o que o obriga a ver todas as coisas sobre o primado de sua
ciência predileta. O terceiro grupo de preconceitos é formado pelos idola
fori –preconceitos derivados do uso, ou mau uso, da linguagem que dá às
palavras significados diferentes dos próprios, confundindo as ideias. Final-
mente, os idola theatri são os preconceitos derivados da aceitação total da
autoridade dos sábios antigos, sem a preocupação da crítica e atualização
do que disseram.
Uma vez postos de lado esses idola é que a mente poderia chegar à ver-
dade, não só por meio do raciocínio, mas pela própria experiência sensível.
Proceder-se-ia da seguinte forma: dada uma natureza a investigar, pre-
para-se, primeiramente uma lista em que são citadas várias observações
ou experiências nas quais a natureza esteja presente embora em condições
diferentes. Depois, outra, em que a natureza dada esteja ausente. Por úl-
timo, uma terceira, na qual a natureza em investigação apareça com dife-
rentes intensidades em diversas condições. Nessas três listas é necessário
descobrir, por indução, uma forma presente quando a natureza dada esteja
presente, ausente em caso contrário e em graus, quando a natureza aparece
gradativamente. Essa será a forma (causa) procurada.
Entretanto, como a mente humana pode falhar mesmo na organização
das tabelas, será necessário submeter a investigação à prova da rejeição ou
exclusão das naturezas particulares ausentes, quando a natureza dada está
presente, ausente, ou variando em graus contrários aos com que essa varia.
Só então a forma confirmar-se-á.
Para aumentar as listas de presença, ausência e gradação, Bacon acon-
selha uma série de processos experimentais a serem feitos sobre a natureza

183
em investigação. É como se o experimentador “brincasse” com o fenôme-
no, executando: “experiências de variação”, modificando, por exemplo, a
matéria do corpo de prova, a causa que provoca o fenômeno ou as quanti-
dades em jogo. Aconselha, ainda, o “prolongamento da experiência”, repe-
tindo, a mesma experiência com o produto obtido na primeira. A “inversão
da experiência” é ainda aconselhada: se tais circunstâncias produzem tais
efeitos, verificar o contrário. A “experiência compulsiva”, em que se au-
mentam ao máximo as ações das causas, e assim por diante. Ele enumera
oito tipos de variantes das experiências ou observações já feitas, inclusive
a da “experiência arbitrária” em que é posta à prova uma relação causa-
-efeito inteiramente fora de propósito – contrariamente à ideia de Galileu
de só experimentar aquilo que a mente já pensou como verdadeiro.
No segundo livro de sua obra, Bacon toma, como exemplo do seu mé-
todo, a investigação da “forma” do calor. Preparadas as tabelas de presen-
ça, ausência e gradação e feitas as exclusões, Bacon chegou à conclusão
que, em todas as ocorrências de calor, estava presente o movimento, ex-
pansivo ou repressor, atuante sobre as menores partes do corpo. Essa era,
portanto, a forma do calor.
Entretanto, não estava dito que a indução da forma pesquisada, a par-
tir das listas de presença, ausência ou gradação, fosse unívoca. Era bem
possível que uma tendência mental individual do investigador o condu-
zisse a encontrar uma forma falsa, já por ele erroneamente antevista. Para
evitar isso e orientar metodicamente o investigador a chegar a uma in-
dução verdadeira, Bacon define 22 tipos de ocorrências mais significati-
vas do fenômeno (a que ele chama de “casos privilegiados” – instâncias
prerrogativas). Esses seriam casos que mereceriam ser pesquisados com
mais atenção que os outros. Eles seriam analisados pelo pesquisador, pre-
ferencialmente e tendo em vista as recomendações contidas nos últimos
aforismos do seu novum organum. Tais recomendações são, entretanto,
prolixas, confusas e desordenadas – o que não ajuda muito a metodologia
da pesquisa científica.
Para Bacon, em suma, o conhecimento se dá dos fatos particulares,
observados pelos sentidos, para o geral, implicado no entendimento da
natureza das coisas. Mas, não se deve confundir tal tipo de conhecimento,
com o proposto pelo empirismo antigo. Aliás, o próprio Bacon adverte que
a falsa Filosofia antiga é de três tipos: a sofística, a empírica e a supersti-
ciosa. Diz ele: “[...] a escola empírica de Filosofia deu nascença a dogmas
mais monstruosos que a sofística ou racional”. Pois ela tem seus funda-
mentos não na luz das noções comuns, mas na estreiteza e obscuridade de

184
pouca experiência. Metaforicamente compara os que fizeram ciências, até
sua época, como empíricos ou como dogmáticos. Compara-os às formi-
gas, que somente recolhem material estranho ao seu corpo e os usam em
proveito próprio, e às aranhas que constroem suas próprias teias com suas
próprias substâncias. Os cientistas, daqui por diante, deverão ser como
abelhas que recolhem o material das flores, mas as transformam e dirigem
por seus próprios poderes e para uso próprio. Assim, embora os métodos
de investigação científica, que tiveram sua origem em Bacon, continuem
a ser denominados comumente “métodos empíricos”, convém chamar a
escola filosófica correspondente de “empiricismo inglês”. Isso para não
confundir o pensamento inglês, pós-renascentista, de caráter idealista,
quer com a Filosofia helenística empírica, quer com o “empirismo” que
dominou as técnicas medievais e renascentistas.
Essa atitude abre a mente humana para a observação do que está acon-
tecendo no mundo em torno. Livrou-se assim a humanidade de ser “man-
tida, numa espécie de encantamento, alheia ao progresso da ciência, por
reverência à antiguidade”. Daqui por diante, o que se puder observar de
novo, por exemplo, nas artes mecânicas (que tinham se desenvolvido enor-
memente, longe de qualquer interesse dos filósofos da natureza) pode vir
a trazer conhecimentos dos próprios princípios sob os quais a natureza se
move. Por exemplo:
[...] como a fabricação de relógios é certamente um trabalho sutil e exato: suas
rodas parecem imitar as órbitas celestes e seus movimentos, alternados e orde-
nados, imitam o pulso dos animais, entretanto, tudo isso depende de um ou dois
axiomas da natureza.
Note-se como essa atitude é semelhante a de um Galileu preocupado
com o trabalho dos arsenais da Veneza, ou de um Descartes, preocupado
com o que se ensinava nas escolas militares e com o que acontecia na
guerra.
Contudo, como já foi mencionado, o conhecimento científico não
pode ser atingido com “pouca experiência”, é necessário uma grande
abundância de observações feitas com método, ordem e procedimentos
pré-estabelecidos. É necessário saber aonde se quer chegar e, também,
como lá chegar. Diz Bacon: “o mero tatear na escuridão confunde os ho-
mens mais que os instrui. Mas quando se procede de acordo com método
fixo, em ordem regular e sem interrupção, então se pode esperar melhor
conhecimento”. Foi então que aconselhou anotar por escrito tudo que era
constatado em “tabelas de descobertas”, pois a memória é falha. Mas, de-
pois que essas anotações de fatos particulares fossem feitas, dever-se-ia

185
tomar cuidado para não saltar às últimas conclusões. Pelo contrário, de-
ver-se-ia proceder:
[...] numa escala justa de ascensão, por estágios sucessivos não interrompidos ou
quebrados, subindo de particulares para os primeiros axiomas, e, então, para os
axiomas intermediários, um depois dos outros, para, por fim, chegar ao mais geral.

d) A necessidade do método nas ciências


Ficaram assim estabelecidos três métodos para se chegar ao conhe-
cimento objetivo das ciências. Obediente a esses métodos, a ciência mo-
derna vêm-se desenvolvendo desde o século XVII. De um lado pôs-se o
racionalismo, do outro, o empirismo. Anteriormente já se tinha examinado
o experimentalismo de Galileu. De um lado apareceu a crença na razão
metódica, como único instrumento suficiente a adequado a busca da ver-
dade; do outro, a de que só a observação sensível, embora controlada pelo
método, seria capaz de almejar tal papel. E, entre essas, o experimentalis-
mo galileano, apoiado na crença de que a mente é capaz de conjeturar cor-
retamente aquilo que irá ser confirmado por uma experiência organizada
de acordo com o que foi conjeturado.
De fato, tanto no pensamento de Galileu e Descartes, como no de Ba-
con, o conhecimento científico é o de substâncias ou formas, onde todo
elemento identificador das coisas particulares, tais como: cores, odores,
gostos e particularidades sensíveis são meras aparências subjetivas, desti-
tuídas de interesse científico. Eles poderão, no máximo, ser utilizados para
individualizar os objetos da experiência empírica, sobre os quais está sen-
do feita a pesquisa, mas, de forma alguma, estarão presentes nas conclu-
sões gerais, pois essas serão necessariamente generalizações. De qualquer
forma os objetos conhecidos serão sempre de estofo mental: extensão, for-
ma ou quantidades mensuráveis.
Tanto a metafísica racionalista como a empiricista, do século XVII,
colaboraram com essa intenção do conhecimento científico, pois que con-
cebiam a realidade também como de estofo mental. Todo dado da sensi-
bilidade seria algo pertencente à subjetividade do observador e não real,
pois que desapareceria com ela. O real objetivo só se daria quando essas
aparências fossem intelegidas em conceitos universais, preferivelmente
expressos matematicamente.
Somente no início do século XX foi que Heinrich Rickert75 denunciou
o caráter paradoxal da realidade, insuspeitado pelos metafísicos setecen-
75 RICKERT, H. Ciencia Cultural Y Ciencia Natural. Buenos Aires: Espasa-Calpe
Argentina, 1943.

186
tistas. A realidade aparente é ao mesmo tempo, contínua e heterogênea.
Isto é, nos seus processos não se pode perceber qualquer corte ou interrup-
ção, mas, sim, trânsitos continuados num fluxo perene, testemunhando sua
continuidade. Por outro lado, paradoxalmente, não se pode constatar na
realidade nenhuma homogeneidade, pelo contrário, há uma total heteroge-
neidade em tudo que é real. Nada é exatamente igual ao outro e, portanto,
constitui-se o real por indivíduos separados. Portanto, o ideal da concei-
tuação empírico-racional da realidade esbarra com esse paradoxo e é obri-
gado a transformá-la para abarcá-la. Sacrifica, assim, ora um, ora o outro
desses dois aspectos do real, quando os aborda, para conhecê-los cienti-
ficamente, utilizando ora o método racional (que preserva a continuidade
do real), ora o empírico (que preserva sua heterogeneidade). Ou a ciência
apreende o real na plenitude de sua continuidade, como nas Matemáticas,
ou, na heterogeneidade de seus objetos, como na Biologia ou Geologia.
Da primeira forma, a realidade é conhecida a partir de princípios ou
leis gerais, a partir das quais se armam, por exemplo, matematicamente as
equações diferenciais que regem os fenômenos e cujas soluções particula-
res são as aplicações práticas do conhecimento científico. Ou a realidade é
constituída de objetos ou processos heterogêneos que devem, em primeiro
lugar, ser classificados, e cujas propriedades particulares permitem a indu-
ção de conclusões generalizadas.
Entretanto, os dois métodos – racional e empírico – convergem para um
ponto comum. É que as soluções lógicas ou matematicamente deduzidas de
premissas, para serem verdadeiras, devem ser confirmadas pela experiência
e, por outro lado, as conclusões generalizadas por indução podem ser postas
sob formas matemáticas, das quais podem ser deduzidas outras conclusões.
Isto permite o método da experiência ideal de Galileu e, também os poste-
riormente chamados métodos nomotético-dedutivos. Pode-se assim passar
de um dos aspectos da realidade, sua continuidade, para o outro, sua hete-
rogeneidade, e vice-versa. Mas não se pode pretender retratar a realidade
simultaneamente como ela é em si: contínua e heterogênea. Essa tem sido a
dificuldade de se obter uma matematização total da natureza.
Em suma, qualquer que seja a maneira de conduzir uma investigação
científica, a mente pensante é colocada num centro de onde observa o
mundo e chega a conhecê-lo como verdade, seja por meio da observação
de fatos particulares, seja por meio de dedução, a partir de ideias claras e
distintas, seja por meio de conjetura confirmada pela experiência ideal. De
todas as formas, os objetos conhecidos serão sempre de estofo mental: ex-
tensão, forma, quantidades. Nunca as próprias coisas ou processos, em sua

187
integridade, complexidade ou mesmo, possível irracionalidade, poderão
ser atingidos pelo conhecimento científico.
Tanto o método cartesiano, como o de Bacon e o de Galileu vêm sendo
criticados, recentemente, como de pouca utilidade para o desenvolvimento
da pesquisa científica. A crítica ao cartesiano é mais branda, dizendo que,
se foi muito bem-sucedido na elaboração da Geometria Analítica, muito
pouco valeu para o desenvolvimento da Física. A crítica ao método de
Bacon é muito mais feroz, afirmando que nenhum pesquisador elabora
tábuas de presença ou ausência e, muito menos, faz exclusões ou rejei-
ções de experiências feitas e, ainda menos, examina os casos privilegiados.
Enquanto isso, o sucesso de Galileu resultou justamente de sua rebeldia
contra as evidências dos fatos. É verdade que os pesquisadores não usam
os livros de Descartes ou de Bacon como manuais de regras compulsórias,
e é comum sua rebeldia contra fatos evidentes, mas grandes conquistas
científicas foram feitas por homens plenamente conscientes dos métodos
científicos. Em primeiro lugar, a exigência cartesiana de partir da dúvida
e só aceitar, como exatas, as ideias claras e distintas, ou a obrigatorieda-
de baconiana de afastar os preconceitos (idola) do conhecimento, ou de
verificar experimentalmente suas conjeturas, são fundamentais para toda
e qualquer pesquisa que se queira científica. Em segundo lugar, a regra
cartesiana de dividir o tema de investigação em partes e começar pela mais
simples, subindo de degrau até a mais complexa, é condição da análise
quando se emprega a dedução matemática. Finalmente, a pesquisa das
causas de um fenômeno, pela observação ou realização de experiências,
é o que vem sendo feito nas ciências empíricas. Em suma, os métodos,
elaborados pelos primeiros cientistas modernos do século XVII, permane-
cem úteis, embora não como guias de laboratório ou de campo, mas como
orientação filosófica da metodologia da pesquisa. Por outro lado, a meto-
dologia científica e tecnológica vem sendo desenvolvida e modernizada
em seus pormenores, para permitir a pesquisa por grupos em institutos de
pesquisa. A preparação e melhoria dos pesquisadores individualmente não
deixaram nunca de basear-se na Filosofia dos métodos de Galileu, Descar-
tes e Bacon, apesar de todas as criticas que esses métodos vêm sofrendo.

e) A natureza como máquina e sua matematização


O Renascimento tinha sido uma época de exaltação da grandeza do
homem e da beleza da natureza. Há o dito que teria sido uma resposta a
Deus. Ele revelara o céu aos homens, pelas escrituras sagradas, agora, os
homens revelaram o mundo a Ele. Toda a arte renascentista revela a beleza

188
dos corpos dos homens e das mulheres e a grandeza de suas paixões. A
visão da natureza, por trás das figuras humanas feericamente vestidas, nos
quadros renascentistas, é a própria visão da plenitude idílica.
Com o barroco do século XVII, toda essa feracidade desaparece. A ar-
quitetura mantém o intenso movimento de suas formas, mas, agora contido
na sua “paixão pela ordem”. A pintura passa a retratar burgueses vestidos
de preto ou lições de anatomia. Da Reforma Protestante e da Contrarre-
forma Católica já tinha ressaltado um dos aspectos do Deus do Velho Tes-
tamento: o de um Deus distanciado do mundo, porém, impondo sobre ele
Sua lei e Sua ordem. Os antigos deuses da natureza, os silfos e a ninfas
presentes nas florestas e nas fontes, são definitivamente abolidos. Pan é
morto. E o mundo passa a ser insonso, incolor e inodoro. Cores, odores e
sabores são meras sensações, somente existente nas mentes humanas. É o
“legado do deserto”, como acreditava Vicente Ferreira da Silva76.
Essa crença de um mundo separado do divino, porém por ele criado e
governado, domina a mentalidade do século XVII. Não é difícil perceber
como essa crença determina as ideias de Galileu, Bacon, Descartes, Leibnitz
e todos os criadores da ciência moderna em franca oposição à ideia renas-
centista de um mundo animado por uma alma, ainda que externa à natureza:
a anima mundi. Agora a natureza não tem alma, nem interna nem externa.
Pois sem dúvida, foi dessa crença que surgiu a ideia da natureza como
máquina, ideia básica da Filosofia e da ciência moderna, instituídas no
século XVII. Como máquina, a natureza é constituída por substâncias
localizáveis e mensuráveis que se movem segundo leis racionais, inde-
pendentemente dos aspectos feéricos, coloridos e exuberantes com que
ela, a natureza, apresenta-se às nossas sensações. Pois essas sensações são
enganosas. Somente a razão ou a experimentação organizada pela razão,
poderão compreender e explicar os fenômenos naturais. Enfim, a natureza,
como máquina, é governada pelas leis de Mecânica Racional.
A dificuldade está em que, na mentalidade setecentista, o pensamento,
quer racional quer empírico, não pertence à natureza. Não tem dimensões
mensuráveis nem está num determinado lugar. Como pode ele então ade-
quar-se a realidade natural? Daí nasce a dúvida e a necessidade de que o
pensamento obedeça regras que o conduzam na direção da verdade. Tanto
o raciocínio como a experimentação não podem ser conduzidos arbitra-
riamente. É necessário o método que conduza o pensamento e organize a
experimentação. Mas, se a verdade é a adequação entre o que é pensado
76 DA SILVA, Vicente Ferreira. Legado do Deserto. São Paulo: Instituto Brasileiro de
Filosofia, 1968. (Obras Completas).

189
e o que é experimentado, é preciso que algo garanta a possibilidade dessa
adequação. Uma das soluções é que exista uma substância divina que, em-
bora separada da natureza e do pensamento humano, as criou, as governa e
as mantém concordes entre si. Esta foi a solução do século XVII.
Ora, a melhor maneira de conduzir o pensamento científico seria de
utilizar a Matemática. Acreditar, como acreditava Galileu, que o livro da
natureza estava escrito em caracteres matemáticos. Mas, para ler a lingua-
gem dos números, seria preciso que a experimentação fosse organizada
de acordo com a teoria matemática e que seus dados fossem medidos em
números exatos, por meio de instrumentos cada vez mais precisos. Daí
conjuga-se as ideias da natureza ser concebida como máquina e da Mecâ-
nica Racional ser essencialmente Matemática.
Tornou-se necessário poder expressar os fenômenos naturais por meio
de equações matemáticas para, resolvendo-as, encontrar soluções parti-
culares que pudessem ser conferidas com os resultados das experiências
organizadas racionalmente. A dificuldade estava em que a Matemática da
época ainda era incapaz de analisar fenômenos mais complexos como, por
exemplo, o da simples queda dos graves ou do choque entre dois corpos.
A análise infinitesimal teria, ainda, de ser desenvolvida, como o foi pelos
matemáticos do século XVIII. Fazia-se necessária uma Mecânica Analíti-
ca para compreender e explicar a máquina da natureza. Essa foi a tarefa
dos físicos-matemáticos a partir de Newton.

190
VII – A INSTITUIÇÃO DA FÍSICA MATEMÁTICA

a) A Análise Matemática dos fenômenos naturais


Embora Galileu e Descartes tenham sido os descobridores dos prin-
cípios da Mecânica, foi Isaac Newton (1642-1727) quem os enunciou,
corporificando assim a Mecânica Racional, estabelecendo-a como base da
nova Física inteiramente matematizada. Assim, iniciou-se a ciência mo-
derna síntese da Mecânica celeste de Kepler e da terrestre de Galileu, em
base à Matemática.
Transpunham-se, agora, os umbrais do último estágio do longo proces-
so de matematização da natureza que se iniciara com Pitágoras e chegara,
com a Mecânica Racional, à concepção do mundo como uma grande má-
quina – um relógio universal que funcionava obediente às leis expressas
por equações matemáticas. O próprio Deus que o criara não poderia deso-
bedecer a essas leis, pois elas eram sua própria autoridade. Contudo, para
tanto, foi necessário desenvolver um novo ramo da Matemática, capaz de
analisar e prever os fenômenos físicos como variáveis ao longo do tempo.
Até então, a Matemática, mais centrada na Geometria, era uma visão (teo-
ria) das proporções harmoniosas do mundo, mas era um tanto ineficiente
para a análise dos fenômenos, principalmente por estar nela ausente, o
tempo.
Nesse sentido, pode-se mesmo conjeturar que um dos principais propó-
sitos de Newton teria sido o de transformar a Matemática num instrumento
de análise dos fenômenos naturais. Essa análise tornou-se necessária quan-
do a Matemática, inspirada pela Mecânica, veio a se ocupar de velocidades
e acelerações, com que variavam continuamente os valores numéricos que
representavam os fenômenos. Na terminologia de Newton, isso só foi pos-
sível quando se puderam calcular os “fluxos dos fluentes”, pois ele deno-
minava ao que hoje chamamos de função, “fluentes” e suas derivadas (suas
velocidades de variação) de “fluxos”.
Dessa forma, a revolução científica do século XVII é resultante de uma
ideia da natureza como máquina, mas só se tornou possível através da
transformação da Matemática de teoria das proporções harmoniosas dos
números e figuras geométricas para a análise das variações numéricas das
equações. A Geometria e a Aritmética exibiam aspectos imobilistas – como
se de uma herança da contemplação pitagórica das formas perenes e per-
feitas. Porém, a nova Matemática era um instrumento capaz de prever os

191
movimentos mecânicos. É verdade que em Arquimedes já se pode desco-
brir nas linhas, trajetórias de pontos que se movem, mas a aplicação dessas
ideias à análise do movimento dos corpos só foi efetivada quando Galileu
estudou o movimento balístico, descobrindo nele a parábola, e, portanto, a
partir das propriedades da parábola, pôde prever o movimento dos graves.
Por outro lado, a Geometria Analítica de Descartes, algebrizando os pro-
blemas geométricos, retira-lhes o caráter estático através do cálculo. Aliás,
esse clima de transformação da Matemática, de uma disciplina contempla-
tiva para um cálculo de variações, já se vinha anunciando desde o século
XVI, mas foram Newton e Leibniz (1646-1716) que, independentemente
reunindo estudos que já se vinham fazendo, criaram a nova Matemática.
Desde então, a Matemática, centrada na Geometria Analítica e no Cálculo
Infinitesimal adquiriu o caráter analítico que tornaria possível a matemati-
zação total da natureza.
Newton nasceu no Natal de 1642, justamente no ano da morte de Gali-
leu. Entrou para o Trinity College, de Cambridge, em 1661, e bacharelou-
-se em 1665. Logo depois a Universidade foi fechada, devido à peste que
grassou na Inglaterra. Voltando para a casa de sua família em Woolsthorpe,
condado de Lincoln, pôde estudar e meditar por cerca de dois anos sem
outras preocupações. Segundo ele próprio, foram esses dois anos – 1665-
1666 –, o período fértil de sua vida, pois foi quando descobriu o célebre
binômio que leva seu nome, o Cálculo Infinitesimal, e conjeturou sobre o
movimento dos astros e sobre a luz.
Note-se que isso foi declarado por ele próprio, porém, é possível que
tenha feito tal declaração simplesmente com a finalidade de garantir prio-
ridade sobre essas descobertas.
Voltou a Cambridge como fellow em 1667, e em 1669 substituiu seu
antigo professor, Isaac Barrow (1630-1677), como Lucasian Professor of
Mathematics. Barrow tinha estudado o problema da determinação analíti-
ca da tangente a um ponto qualquer de uma curva – aliás, de maneira muito
próxima a que Fermat também o fizera. Quando a curva era representada
analiticamente por uma função igual a uma potência positiva e inteira da
variável, o problema era facilmente solúvel (vê-se aqui já a aplicação da
Geometria Analítica de Descartes, publicada em 1637). As dificuldades
apareciam quando a função era mais complexa. Assim, Barrow chegou
muito próximo do Cálculo Diferencial, pois, como se sabe, a inclinação da
tangente a um ponto de uma curva é a velocidade de variação da função
representada pela curva – a qual hoje se chama “derivada” e é a base do
Cálculo Diferencial.

192
Nessa época era Savilian Professor of Mathematics em Oxford, John
Wallis (1616-1703), que se preocupava em calcular a área compreendida
entre uma curva, representada por funções iguais a potências positivas de
sua variável e duas de suas ordenadas. Wallis publicou os resultados desses
estudos em sua arithmetica infinitorum em 1655, em que apresenta a
regra para cálculo de tais áreas. Hoje isso se chama “integração” e é a base
do Cálculo Integral.
Na época, além desses dois problemas, o das tangentes e o das áreas,
mais um terceiro estava sendo investigado por vários matemáticos, entre
eles Pascal e Fermat: o de expandir as funções, que representavam as cur-
vas, em séries de potências da variável, a fim de calcular suas tangentes e,
também, as áreas sob elas. Wallis estudara a área sob uma curva da forma
( x - x2 )n. Newton percebeu, depois de exaustivas tentativas e erros, que,
para n=1/2 as áreas sob a curva poderiam ser expressas por séries de potên-
cias das ordenadas x com lei perfeitamente perceptível, cujos termos, de-
pois de derivados, vinham a expressar a própria função (x - x 2)1/2 . Essa foi
a origem da descoberta do teorema do binômio que levou seu nome. Esse
teorema consiste na expressão do desenvolvimento em série de um binô-
mio elevado a uma potência qualquer – positiva ou negativa, inteira ou
fracionária –, em uma série de potências. As notas manuscritas de Newton
sobre a questão: de analysi per aequationes numero terminorum infi-
nitas, compostas em 1669 com base nas suas ideias de 1665-1666 (durante
sua reclusão em Woolsthorpe), só foram publicadas em 1711. Nesse traba-
lho, Newton, continuando os estudos de Barrow, mostra que a inclinação
da tangente da curva yn = xm , por exemplo, pode ser obtida expandindo-se
ambos os termos em série pelo binômio. Ele deduziu, ainda, a expressão
que dava a área sob a curva y = axm/n. Aplicou o binômio para expressar
as ordenadas de uma curva em série infinita de potências das abcissas.
Tornou-se, então, possível integrar cada um dos termos da série pela regra
de Wallis para obter a área total sob a curva. Finalmente, mostrou que a in-
tegração das áreas é uma operação inversa da determinação das tangentes,
isto é: em termos atuais, a “integral” da “derivada” de uma função é essa
mesma função. Estabelecia-se, assim, o Cálculo Integral e Diferencial.
Tudo isso se encontra em suas notas não publicadas até 1711. A primeira
menção impressa ao seu cálculo só foi feita por Newton em 1687, com a
publicação de sua obra máxima: os philosophiae naturalis principia ma-
thematica. Porém, Newton sempre afirmou que empregara esse método
desde 1665-1666, e suas notas de aula assim o atestam.
A lamentável polêmica entre Newton e Leibniz consistiu, na primeira
fase, numa amistosa disputa pela prioridade do Cálculo, mas terminou com

193
desagradáveis acusações de plágio77. A primeira notícia que se tem da po-
lêmica inicial é de um artigo da encyclopédie redigido por D’Alembert,
que se refere à carta de Newton a John Collins, datada de 10 de dezembro
de 1672, e transmitida a Leibniz, na qual Newton menciona seu método
para determinar tangentes. Em carta dirigida a Henry Oldenburg, secretário
da Royal Society, datada de 13 de junho de 1676, também transmitida a
Leibniz, Newton descreve seu binômio e sua aplicação na determinação das
tangentes. Há uma resposta de Leibniz, de 27 de agosto de 1676, na qual ele
expõe seu próprio método para a integração de funções irracionais. A corres-
pondência continua de Newton a Oldenburg, para ser transmitida a Leibniz,
em carta datada de 24 de outubro do mesmo ano, descrevendo as origens de
seu binômio nos trabalhos de Wallis. Finalmente, em 21 de junho de 1677,
há uma resposta de Leibniz a Oldenburg, ainda para ser transmitida a New-
ton, em que aparece a moderna notação do Cálculo Diferencial. Toda essa
correspondência é cordial, embora se possa perceber, por parte de ambos, o
intuito de defender sua prioridade na descoberta do Cálculo.
Em 1684, Leibniz publicou na acta eruditorum o seu “Novo Método
para Máximos e Mínimos”, assim como para tangentes, que não se detém
à frente de quantidades fracionárias e irracionais, bem como um tipo pe-
culiar de cálculo para estes problemas. O trabalho inicia-se com a primeira
exposição publicada sobre o Cálculo Diferencial. Em 1686 ele publicou,
também na acta eruditorum, o primeiro trabalho sobre o Cálculo Inte-
gral. Os principia de Newton só são impressos no ano seguinte, e, além
disso, não contêm uma exposição do método, mas sim uma aplicação dele
aos problemas de Mecânica Celeste. Note-se que, nas duas primeiras edi-
ções de seu livro, Newton afirma, em nota, que Leibniz tinha-lhe comuni-
cado um método de cálculo semelhante ao seu, salvo na terminologia e nos
símbolos. Essa nota foi suprimida a partir da terceira edição.
A diferença entre os dois era que, enquanto Newton mantinha as ideias
geométricas de quadratura e de tangente à curva, Leibniz concebia a qua-
dratura como soma de ordenadas e a tangente, como diferença. Daí o sím-
bolo ∫ para a integral de dy e dx para as diferenciais. Outra diferença é que
Leibniz aborda o cálculo sob um interesse eminentemente matemático,
enquanto Newton o faz sob o interesse de um físico.
A parte escandalosa da polêmica tem início quando Fatio de Duillier,
em 1699, levanta sobre Leibniz a suspeita de plágio. Hoje está claro que
os dois descobriram o Cálculo independentemente. A diferença de pontos
77 BIBLIOTECA CULTURAL (Argentina). El Cálculo Infinitesimal: Leibniz/Newton.
Buenos Aires: Ed. Universitaria de Buenos Aires, 1977. Introdução de José Babini.

194
de vista sob os quais ambos abordaram a questão afasta a ideia de plágio.
Se Newton teve a prioridade da concepção, como atestam suas notas, não
há dúvida de que Leibniz tem a prioridade da publicação.
Somente em 1704 Newton decidiu publicar dois dos seus manuscritos,
o tractatus de quadratura curvarum e o enumeratio linearum terti
ordinis, como apêndices à sua óptica. O primeiro é um tratado completo
do Cálculo Infinitesimal. Diz-se que ambos foram escritos naqueles anos
de tranquilidade entre 1665-1666. Em 1742 é publicado postumamente um
outro manuscrito de Newton, com a sistematização completa da sua Aná-
lise Matemática, sob o título methodus fluxiorum et serierum infinito-
rum. Diz-se que há uma tradução inglesa desse trabalho datada de 1736.

b) A gravitação universal
Foi o próprio Newton, em 1715, aos 73 anos, que atestou ter sido o ano
de 1666, quando a grande peste forçou-o a abandonar Cambridge, em que
descobrira que a força da gravidade estendia-se até a Lua. Na coleção de
seus manuscritos de Portsmouth encontra-se um que assim testemunha:

No mesmo ano [1666] comecei a pensar na extensão da gravidade até a órbita da


Lua, tendo descoberto como estimar que um globo, rodando dentro de uma esfe-
ra, pressiona a superfície dessa esfera e, pela lei de Kepler, de que os tempos de
revolução dos planetas estão na proporção sesquial (3/2) de suas distâncias aos
centros de suas órbitas, deduzi que as forças que mantêm os planetas em suas ór-
bitas deveriam ser inversamente proporcionais aos quadrados das distâncias aos
centros em torno dos quais eles resolvem. Assim comparada a força necessária
para manter a Lua em sua órbita com a força na superfície da Terra, encontrei-as
correspondendo muito proximamente78.
Este texto – ligado à história pitoresca da queda da maçã enquanto o
jovem Newton meditava sobre a gravidade e a Lua – teria sido originado
em seu temperamento ciumento, quando procurava reafirmar sua absoluta
prioridade na descoberta da lei da gravitação, mas sugere o aparecimento,
naquela época, em seu pensamento, somente de uma conjetura necessária
para que a teoria fosse elaborada mais tarde.
De fato, os tempos estavam maduros para que tal conjetura aparecesse
já em 1666. A antiga ideia de que todo movimento fosse originado num
“ímpeto” interno evoluíra para a correlação com a “gravidade” (ainda com
certa conotação de “virtude” dos graves) e daí para a força e a variação de
78 ANTHONY, H. D. Sir Isaac Newton. Nova York: Collier Books, 1961.

195
velocidade. Galileu já mostrara que os corpos pesados caem com veloci-
dade que cresce proporcionalmente aos tempos de queda, independente-
mente dos seus pesos, sob a ação continuada da gravidade. É evidente que
essa força continuamente atuante, produzindo uma aceleração constante,
prenuncia um dos axiomas de Newton: a variação do movimento é propor-
cional à força impressa. Por outro lado, tanto as especulações de Descartes
como as experiências de Galileu mostravam que, se ao plano inclinado por
onde desce uma bolinha se seguisse um plano horizontal, a bolinha rolaria
de maneira uniforme, atingindo distância tão longa quanto fosse material-
mente possível. Isso explicitava a lei da inércia: um corpo em movimento,
abandonado a si mesmo, persevera num movimento retilíneo e uniforme.
As ideias dessas duas leis já estavam, naquele tempo, no ar e, portanto,
necessariamente na mente de Newton, quando lhe ocorreu a conjetura de
estender a força da gravidade terrestre até a Lua. Porém, assimilá-la à força
exercida por um globo sobre a superfície interna de uma esfera, dentro da
qual ele gira, está ligado a uma noção muito confusa naquele tempo: a da
“força centrífuga”. Mas a conjetura de que a força que mantém a Lua em
sua órbita é a mesma que a da gravidade terrestre é genial.
É verdade que, ainda sob a velha ideia de força ligada a trabalho mus-
cular humano ou animal, tinha-se tornado evidente que o movimento cir-
cular, ainda que uniforme, de uma bola amarrada na ponta de uma corda, a
qual posta em movimento pela mão de alguém, correspondia a uma força
muscular atuante na corda. E mais ainda: que se essa força deixasse de
atuar, a bola sairia pela tangente em movimento retilíneo. Eram experiên-
cias inegáveis. Mas Newton preferiu assimilar a Lua em seu movimento
circular a um globo rodando dentro de uma esfera. Talvez para evitar a
ideia de algo como uma corda amarrando a Lua à Terra. Em ambos os
casos haveria a necessidade de algo que anulasse a tendência do globo em
sair pela tangente. Note-se que aqui comparece a lei da inércia, isto é: de
que todo corpo tenderia a permanecer em movimento retilíneo e uniforme,
e a lei da força é igual à variação de movimento, pois todo movimento
circular, mudando continuamente de direção, sugeriria uma força centrífu-
ga que o impeliria a sair pela tangente a fim de retomar o seu movimento
natural, retilíneo e uniforme.
Essas ideias foram indispensáveis para que Newton pudesse pensar em
“forças que mantêm os planetas em suas órbitas”. Porém, a dúvida está em
se ele realmente “descobriu” o cálculo de como um globo, rodando dentro
de uma esfera, pressiona a superfície dessa esfera. Isto é, se ele conhecia
a expressão que permite calcular a força centrífuga. Oficialmente, a equa-

196
ção da aceleração centrífuga, variando com o quadrado da velocidade e,
inversamente, com o raio do círculo, foi publicada por Christiaan Huy-
gens (1629-1695), em 1669, nos philosophical transactions da Royal
Society, em seu trabalho sobre a questão: “A Summary Account of the
Laws of Motions”79. Portanto, três anos depois do episódio recordado por
Newton. Porém, há notícias de que ele descobrira essa equação dez anos
antes80. Assim, é bem possível que Newton já tivesse conhecimento dessa
expressão durante sua estadia forçada em Woolsthorpe. Além disso, New-
ton já poderia ter conhecimento das especulações de Descartes sobre o
movimento de uma bola na superfície interna de um cilindro e a posição
da água num jarro mantido com movimento circular – fenômenos esses
que poderiam levá-lo a calcular, por si, a aceleração centrífuga. Aliás, é
fácil mostrar, por simples proporções e baseando-se na lei do movimento
acelerado galileano que, no caso de círculos iguais, tal aceleração é pro-
porcional ao quadrado das velocidades do movimento circular, e que, no
caso de velocidades iguais em círculos de diferentes raios, é inversamente
proporcional aos raios dos círculos. E assim teríamos a expressão da acele-
ração centrífuga como igual ao quadrado da velocidade dividido pelo raio
do círculo.
Combinando essa expressão com a terceira lei de Kepler – a dos quadra-
dos dos tempos de revolução siderais proporcionais aos cubos dos grandes
eixos das órbitas planetárias (no caso de uma órbita circular, proporcionais
aos cubos dos raios) – chega-se a concluir que a aceleração centrífuga será
inversamente proporcional ao quadrado dos raios das órbitas.
Vem então a seguinte conjetura: a força da gravidade terrestre é que,
equilibrando a força centrífuga, mantém a Lua em sua órbita. Se a força
é proporcional à aceleração, a aceleração centrífuga da Lua será igual à
aceleração da gravidade na superfície da Terra (9,8 m/s2) dividida pelo
quadrado da distância do centro da Terra ao centro da Lua, em diâmetros
terrestres. Feito o cálculo, obtém-se: 2,7 x 10-3m/s2.
Calculando-se agora a aceleração centrífuga da Lua pela fórmula de
Huygens, obtém-se valor muito próximo desse. Portanto, tal conjetura é
plausível. Note-se que ela é extensiva a todos os planetas do sistema so-
lar, pois a lei de Kepler refere-se a todos eles. Assim, podemos dizer que
Newton pretende referir-se à gravitação universal, pois em sua época o
universo não era muito diferente do sistema solar.
79 MACH, E. The Science of Mechanics - A Critical and Historical Account of its De-
velopment. Tradução de T. J.Mac-Cormack. La Salle: Open Court, 1960.
80 MACH, E.Huygens Christiaan. In: Collier’s Encyclopedia, v. 12. Nova Iorque:
Collier Publis., 1963.

197
Assim, em 1666, Newton teria concebido sua conjetura sobre a gravita-
ção dos astros. É nessa combinação da ideia confusa de força centrífuga e
da terceira lei de Kepler que está sua originalidade. Naquele momento, na
mente de Newton, a gravitação universal é algo imaginado não arbitrária,
mas plausivelmente, como que correspondendo a uma premente neces-
sidade de compreender algo urgentemente reclamado pelo que já se co-
nhecia na época. Não é uma hipótese, pois não apresenta nenhum caráter
de arbitrariedade. Não é um axioma, pois não tem o caráter de verdade
evidente por si mesma. Por outro lado também não é uma teoria que se
possa pôr como verdade demonstrada, cujas conclusões podem ser verifi-
cadas pela experiência. Trata-se tão somente de uma conjetura: uma ideia
plausível e apoiada no estado dos conhecimentos da época, a qual servirá
como base imprescindível para investigações seguintes, até a organização
da teoria newtoniana da gravitação universal.
Entretanto, por muito tempo, essa conjetura foi inoperante para que se
pudesse desenvolver a teoria. Provavelmente o que impedia era o fato de
Newton ter se fixado na noção confusa de força centrífuga de Descartes
e Huygens. Na realidade, a força centrífuga é uma ilusão de quem obser-
va do ponto de vista central, como participante desse mesmo movimento.
Desse ponto de vista, a bola girando, amarrada ao centro por uma corda,
ou o globo rodando na superfície interna de uma esfera, parece tracionar a
corda ou pressionar a esfera. Na realidade, o movimento circular observa-
do de um ponto de vista fixo externo é impelido por uma força que pode
ser decomposta em duas componentes: uma inercial tangente à trajetória
e outra centrípeta, na direção do centro de rotação, isto é: em seu movi-
mento, o corpo girante acelera-se constantemente em relação ao centro,
mas mantém-se em sua trajetória curva pela ação da resultante da força
tangencial de inércia mais a força de aceleração centrípeta. Como as forças
centrífuga e centrípeta têm a mesma expressão matemática, a conjetura de
Newton contou com uma imediata confirmação aproximada no cálculo do
movimento da Lua. Porém, a confusa noção de força centrífuga impediu-
-o de abordar três outros aspectos importantes da gravitação dos astros:
as órbitas elípticas, a lei das áreas iguais varridas em tempos iguais, e a
interação gravitacional entre todos os corpos celestes.
Segundo Bernard Cohen81, só teria sido encontrado o caminho da gravi-
tação universal no final do ano de 1679, quando Newton manteve uma cor-
respondência com Hooke – então secretário da Royal Society of London.
Hooke propôs, numa de suas cartas, decompor a velocidade de um corpo
81 COHEN, I. B. Newton’s Discovery of Gravity. In: Scientific American, março, 1981.

198
que se movesse em trajetória curva nas duas componentes, tangencial e
centrípeta, acima mencionadas. Com isso, Newton teria modificado sua
conjetura inicial: em vez de imaginar uma força de gravitação anulando a
força centrífuga, ele passou a considerar a força de gravitação como a pró-
pria força centrípeta que mantinha os astros em seu movimento rotatório.
A acusação de que teria sido Hooke quem sugerira a Newton a variação
das forças de gravitação inversamente aos quadrados das distâncias não
tem sentido, diante do que foi mencionado acima. Entretanto, percebe-se a
importância da sugestão de Hooke sobre a força centrípeta. Na opinião de
Cohen, o pequeno trabalho de 24 páginas, de motu, que Newton apresen-
tou à Royal Society em 1684 por insistência de Halley, teria sido inspira-
do pela correspondência com Hooke. Nesse trabalho, ele demonstra, pela
primeira vez, que se um corpo move-se sob uma componente tangencial
e outra dirigida ao centro da trajetória curva, então ele descreverá uma
trajetória cujas áreas varridas pelos raios vetores do centro ao corpo serão
iguais em tempos iguais (2ª lei Kepler). Além disso, em de motu, prova-se
que, se a componente centrípeta variar com o inverso do quadrado da dis-
tância, a trajetória percorrida será uma elipse (1ª lei de Kepler). A terceira
lei de Kepler, como já se procurou mostrar, estava implícita na demonstra-
ção de que o movimento tem uma componente centrípeta que varia com
o inverso do quadrado da distância ao centro. Isso configura o modelo de
Kepler: um sistema heliocêntrico em que o Sol exerce atração sobre cada
um dos planetas isoladamente.
Perturbações na órbita dos planetas Júpiter e Saturno, que contraria-
vam as leis de Kepler, quando os dois se aproximavam, ou na órbita da
Lua, devido ao efeito do Sol sobre ela, foram observados, na época, pelo
First Astronomer Royal, John Flamsteed. Isso deu ensejo a uma polêmica
correspondência entre Newton e Flamsteed no final do século XVII, a qual
chamou a atenção sobre a gravitação recíproca de todos os astros.
Afirmar, como já foi feito por certos autores, que a primeira teoria da
gravitação dos astros de Newton, sob o modelo kepleriano, era falsa, pa-
rece-me sem sentido. Toda teoria é um esquema simplificado da realidade,
em que se deixa de considerar certos efeitos considerados secundários.
Ela será verdadeira se confrontada positivamente com observação ou ex-
periência. Entretanto, essa observação empírica deverá ser organizada de
acordo com a própria teoria (no caso em questão: admitindo que os efeitos
gravitacionais dos planetas entre si são desprezíveis). Toda teoria científica
é uma verdade que se pretende universal, porém, é relativa às circuns-
tâncias pressupostas pela teoria, sob as quais é organizada a observação.
Observações posteriores organizadas de acordo com outros pressupos-

199
tos não podem falseá-la, pois simplesmente indicam uma necessidade de
ampliá-la, não podendo, porém, modificar sua validade nas circunstâncias
experimentais anteriores.
Somente numa edição revista do de motu, de dezembro de 1684, foi
que Newton considerou a gravitação universal interagindo entre os vários
planetas e seus satélites, e entre estes e o Sol. Cada um dos quais intera-
gindo na razão direta de suas massas e inversa do quadrado das respecti-
vas distâncias. Foi, então, que ele considerou as perturbações das órbitas
planetárias produzidas reciprocamente por outros astros, porém terminou
confessando-se impotente para chegar à lei exata da gravitação mútua dos
vários corpos.

c) Os philosophiae naturalis principia mathematica


O tratado de Newton, sobre a teoria universal da gravitação82, foi por
ele escrito em latim entre 1685 e 1686 e publicado pela Royal Society em
1687, sob as expensas de Halley. É dividido em três livros:

I. movimento dos corpos,


II. movimento dos corpos (em meios resistentes),
III. o sistema do mundo (sob tratamento matemático).

Tais livros são precedidos por prefácios (diferentes na primeira, segunda


e terceira edições) e possuem dois capítulos de máxima importância: “Defi-
nições” e “Axiomas ou Leis do Movimento”. Isso dá à obra a aparência de
ser dedutiva, isto é, de partir de definições e axiomas dos quais conclusões
são deduzidas com o auxílio da Matemática. Entretanto, esse esquema dedu-
tivo só vale para os dois primeiros livros e não, para o último. Nesse último,
Newton propõe, em primeiro lugar, regras de raciocínio para a investigação
da natureza por causas e efeitos e indução geral. Descreve, depois, uma série
de fenômenos observados e parte, daí, para explicar esses fenômenos com o
auxílio da teoria exposta nos dois livros anteriores.
As definições são as conhecidas proposições sobre: quantidade de ma-
téria, como massa; quantidade de movimento, como velocidade multipli-
cada por quantidade de matéria; inércia, como vis insita – força inata da
matéria – que resiste à mudança de movimento e persiste em mantê-la em

82 NEWTON, I. Mathematical Principles of Natural Philosophy. In: Britannica Great


Books, v. 34. Chicago: Encyclopaedia Britannica, 1978.

200
repouso, ou movimento retilíneo e uniforme; força impressa a um corpo
que o faz mudar seu estado de repouso ou movimento; força centrípeta,
que impele um corpo em movimento para o centro de curvatura da sua
trajetória; quantidade acelerativa da força centrípeta; e quantidade motiva
da força centrípeta.
Essas definições são seguidas pelo célebre scholium, no qual declara
que não define tempo, espaço, lugar e movimento pois são de conhecimen-
to comum; porém, o conhecimento comum é perturbado por preconceitos
e, para a remoção deles, é necessário distinguir suas noções como abso-
lutas e relativas, verdadeiras e aparentes, matemáticas e comuns. Assim,
Newton introduz as noções do tempo absoluto que flui uniformemente,
sem relação a nada externo – e a do espaço absoluto –, referido a um siste-
ma de eixos com centro no Sol e dirigido às estrelas fixas. Dessa forma é
possível imaginar um espaço único e um tempo mesmo que não houvesse
coisas ou acontecimentos. Mas é impossível imaginar fenômenos físicos
sem o tempo e o espaço, pois todo objeto ou evento insere-se neles. Isso
irá influenciar a doutrina de Kant do espaço e tempo como a priori de
qualquer experiência.
Os três axiomas, ou leis do movimento, de Newton – que se constituem
como as leis fundamentais da Mecânica Racional – são: 1º) todo corpo
mantém-se em estado de repouso ou movimento retilíneo e uniforme a
não ser que seja compelido a mudá-lo por força impressa sobre ele; 2º)
a variação do movimento é proporcional à força motiva impressa e faz-
-se na direção da linha reta em que a força é aplicada; 3º) a cada ação há
correspondente e igual reação, ou as ações mútuas de dois corpos entre si
são iguais e opostas.
A essas leis seguem-se corolários que não são mais que regras de com-
posição de forças, movimentos e quantidades de movimento de corpos ou
dos centros de gravidade de dois ou mais corpos. E o capítulo termina com
um scholium no qual Newton mostra como a teoria da queda dos corpos
de Galileu, a dos pêndulos e a do impacto de Huygens conformam-se às
três leis por ele enunciadas. Propõe-se, a seguir, a desenvolver uma teoria
da resistência do ar que corrigiria discrepâncias observadas nas experiên-
cias que comprovam aquelas teorias – as quais só seriam verdadeiras in
vacuo. Da mesma maneira, desenvolve considerações para levar em conta
a elasticidade dos corpos no impacto. E termina mostrando, por vários
exemplos, a veracidade do terceiro axioma. Enfim, o que Newton pretende
mostrar é que teorias anteriores poderiam ser deduzidas de seus axiomas
e corolários.

201
Newton inicia o seu Livro I com 11 lemas, nos quais expõe os rudimen-
tos do seu método infinitesimal no capítulo: “O método das primeiras e úl-
timas razões das quantidades, com a ajuda do qual se demonstraram as pro-
posições que se seguem”. No scholium final desse capítulo, ele justifica que
preferiu demonstrar as proposições seguintes com base nas primeiras e últi-
mas somas e sobre as razões de quantidades nascentes e evanescentes. Isto
é: sobre os limites das somas e razões, e assim “estabelecer, tão brevemente
quanto me é possível, a demonstração desses limites [...] e agora estando
esses princípios demonstrados, poderemos usá-los com muita segurança”.
E, de fato, ele os usa primeiramente na determinação das forças centrípe-
tas que aparecem nos movimentos circulares. Parece que a Proposição 3 e
seus seis corolários, mais a Proposição 4 e seus 11 corolários, constituem
os fundamentos da teoria da gravitação newtoniana. Ali são demonstradas
as leis de Kepler a partir dos axiomas de Newton, para o caso de um corpo
que se move sob a ação de uma força centrípeta, dirigida para um centro
imóvel e proporcional ao inverso dos quadrados das distâncias a esse centro
de rotação – a qual Newton vai assimilar à força da gravidade. Depois disso,
ele estuda os movimentos dos corpos em seções cônicas. Daí, em seguida,
lhe é possível mostrar como se resolvem os problemas de determinação de
órbitas, tanto o simples movimento de ascensão e queda dos corpos quanto
os movimentos de oscilação pendular.
Finalmente, na seção XI, Newton aborda o problema da atração mútua
entre todos os corpos, declarando:
[...] até aqui tratei da atração de corpos em relação a um centro imóvel, apesar
de não existir tal coisa na natureza, pois a atração é entre corpos, e a ação dos
corpos atraídos e atratores é sempre igual e recíproca, em virtude da terceira lei
do movimento, portanto, dados dois corpos, nem o atraído nem o atrator estarão
realmente em repouso, mas ambos (pelo quarto corolário das leis do movimento)
são como que mutuamente atraídos e revolvem em torno de um centro comum
de gravidade.
Depois, ele trata do problema de vários corpos cujas forças atrativas
decrescem com o quadrado das respectivas distâncias e que podem mover-
-se em torno de si em elipses, e seus raios traçados dos focos descrevem
áreas bastante proporcionais aos tempos de revolução. Newton trata espe-
cificamente do caso de três corpos. Assim, libera-se do modelo kepleriano
e inicia os estudos das perturbações nas órbitas planetárias pelo efeito gra-
vitacional dos outros astros.
Ele termina o livro provando que a força atrativa de um corpo esférico
concentra-se no seu ponto central e estende essa análise para o caso de cor-

202
pos não esféricos. Por fim, analisa o movimento de corpos muito pequenos
sob a ação de forças centrípetas correlacionadas com as várias partes de
corpos grandes.
Enfim, o que Newton demonstrou no Livro I de seus principia é o
seguinte: se alguém partisse das definições e leis ou axiomas do movi-
mento por ele propostos – supostos válidos num espaço euclidiano, no
qual o tempo fluísse independentemente de qualquer coisa –, deduziria
matematicamente as leis que regem não só os movimentos dos corpos ce-
lestes, como também a queda dos graves, os movimentos balísticos e o dos
pêndulos na superfície da Terra. Para tanto, seria necessário tão somente
assimilar a força da gravidade à força centrípeta, por ele definida de início,
e concluir que esta varia na relação inversa do quadrado das distâncias aos
centros de rotação, e, naturalmente, na razão direta das massas.
No Livro II trata-se do movimento dos corpos em meios resistentes,
não só daqueles que são resistidos proporcionalmente às suas velocidades,
como também dos que sofrem resistência em razão ao quadrado das suas
velocidades, e dos que as sofrem parcialmente de uma forma e da outra.
Então, torna-se possível o estudo do movimento circular com meios re-
sistentes. Com a consideração da densidade e da compressibilidade dos
fluidos, aborda a Hidrodinâmica, pela definição de fluido, como “um corpo
cujas partes fluem sob uma força a ele impressa e, fluindo, são essas partes
movidas entre si”. Segue-se o estudo do movimento pendular em meios
resistentes, o da resistência oposta aos corpos projetados nos fluidos, e o
da propagação do movimento através dos fluidos.
Na seção IX Newton trata do estudo do movimento circular dos flui-
dos – o qual é de suma importância para a sua refutação da hipótese
do vórtice de Descartes –, o qual era, na época, a alternativa para sua
teoria na explicação do movimento planetário. Lembre-se que Descartes
explicava o movimento dos planetas postulando que os céus eram cons-
tituídos por um fluido posto em vertiginoso movimento circular pela
rotação do Sol – um vórtice, o qual arrastaria, em seu movimento, os
astros. Em torno dos astros formar-se-iam também vórtices menores que
arrastariam os satélites, mas seriam eles mesmos arrastados pelo grande
vórtice solar.
Prova Newton, na sua Proposição nº 40, o seguinte: “Se uma esfera sóli-
da, num fluido uniforme e infinito, girar em torno de um eixo em posição e
movimento uniformes, e o fluido for forçado a girar pelo único impulso da
esfera, e cada anel do fluido continuar uniformemente em seu movimento,
então eu direi que os tempos periódicos de revolução dos anéis do fluidos

203
serão proporcionais aos quadrados de suas distâncias ao centro da esfera”.
Desse teorema decorrem 11 corolários pelos quais Newton contesta a vali-
dade da hipótese do vórtice. No scholium final, ele afirma que a finalidade
da Proposição nº 40 era investigar as propriedades dos vórtices para poder
chegar à conclusão de que as revoluções dos planetas em torno do Sol não
podiam ser explicadas pelos vórtices. Sabe-se que os tempos periódicos
das revoluções siderais são proporcionais à potência 3/2 das distâncias ao
Sol, ou dos satélites aos astros, em torno dos quais giravam. Por outro lado,
pode-se provar que, se os astros girassem por favor dos vórtices, deveriam
ter a mesma densidade e seriam movidos pela mesma lei dos vórtices (tem-
pos de revolução proporcionais aos quadrados da distância dos centros).
A hipótese de Descartes, assim, estava em desacordo com o que era
empiricamente observado, e, portanto, deveria ser abandonada. E Newton
conclui:
Portanto, é manifesto que os planetas não são arrastados em vórtices corpóreos.
Pela hipótese de Kepler, os planetas giram em torno do Sol em elipses, tendo o
Sol num dos seus focos e cujos raios vetores descrevem áreas proporcionais aos
tempos. Mas as partes dos vórtices não poderão nunca mover-se dessa forma.
E Newton simplesmente termina o Livro II do seu tratado dizendo que,
como tinha demonstrado, os movimentos dos corpos celestes poderiam
se dar em espaços livres, sem vórtices, portanto, continuaria a tratar da
questão sob o seu ponto de vista e, mais completamente, no livro seguinte.
O Livro III dos principia – “O Sistema do Mundo” – é, de alguma for-
ma, supérfluo, pois, de certa maneira, repete, sob o aspecto da Física, apli-
cando aos próprios astros, as conclusões matemáticas dos livros anteriores.
Newton hesitou em publicá-lo. Pensou publicar uma versão popular, sob o
mesmo título, e passível de ser lida e compreendida mesmo pelos que não
conhecessem Matemática. Halley o convenceu a incluir em seu tratado esse
Livro III, composto de proposições da mesma forma que os dois primeiros.
Newton convence-se e justifica, em suas próprias palavras, que o publica
para que “pudesse ser lido somente por aqueles que se tivessem feito, ante-
riormente, mestres dos princípios estabelecidos nos dois livros precedentes”.
A versão popular, não requerendo conhecimentos matemáticos, já tinha sido
escrita, porém fora arquivada e somente publicada em 1728, depois da morte
de Newton. Hoje, essa versão pode ser tida como uma espécie de divulgação.
Pode-se dispensar a leitura dos dois primeiros livros, mas não a dos capítulos
iniciais dos principia, sobre as definições e os axiomas de Newton, e, princi-
palmente, dos seus scholia – cuja importância filosófica é primordial83.
83 NEWTON, I. El Sistema del Mundo. Madri: Alianza Editorial, 1983.

204
O Livro III inicia-se com a enumeração de quatro regras de raciocí-
nio em “Filosofia” (investigação científica). A primeira é que não se deve
admitir mais causas que as necessárias e suficientes para explicar as apa-
rências. A segunda é que, para os mesmos efeitos, devem-se admitir as
mesmas causas. A terceira é que o que se observa nas experiências locais
vale para todos os corpos em qualquer parte do universo. A última é que
em pesquisa científica experimental deve-se usar a indução a partir dos
fenômenos e as conclusões serão tidas como verdadeiras até que outros
fenômenos apareçam, os quais obriguem a reformulá-las para torná-las
mais precisas, ou que os novos fenômenos sejam considerados exceções.
Logo a seguir são enumerados seis fenômenos documentados por ob-
servações, os quais servirão de base empírica para fundamentar a teoria.
Os satélites de Júpiter e os de Saturno obedecem às leis de Kepler re-
ferentes às áreas e aos períodos de revolução, em que os cinco planetas
primários circulam o Sol. Em relação às estrelas fixas, os cinco planetas
e a Terra obedecem à lei de Kepler. Os planetas primários não descrevem
áreas proporcionais aos tempos em relação à Terra, mas, sim em relação
ao Sol. A Lua obedece à segunda lei de Kepler, com pequena perturbação
devido ao Sol.
Desses fenômenos induzem-se as proposições sobre o movimento pla-
netário, comprovadas pela aplicação do que tinha sido demonstrado ma-
tematicamente no Livro I, agora se referindo especificamente à Terra e
generalizando para todos os corpos. São proposições que estabelecem a
Mecânica Celeste, com base na Mecânica Racional. Entre essas proposi-
ções há uma de interesse filosófico muito grande. É a que diz que “o mo-
vimento dos planetas pode subsistir a um tempo excessivamente grande”.
Essa proposição prende-se às considerações teológicas com que Newton
encerra o seu tratado. É interessante também notar que após dez proposi-
ções provadas enuncia-se uma hipótese: “o centro do sistema do mundo é
imóvel”, a qual é dita ser aceita por muitos: uns aceitando que esse centro
é a Terra, outros que é o Sol. Fica assim comprovado o que já afirmamos
anteriormente, isto é: que no tempo de Newton, o universo não se diferen-
ciava muito do sistema solar. Aceita essa hipótese, seguem-se proposições
dela decorrentes, das quais a mais importante é que o centro de gravidade
comum da Terra, do Sol e dos planetas é imóvel ou move-se retilínea e
uniformemente. Newton termina o seu Livro III com a análise dos movi-
mentos dos nodos da Lua, das marés e dos cometas.
Finalmente, vem o célebre scholium geral, com o qual termina o tra-
tado de Newton. Ele se inicia pela repetição da refutação da hipótese dos

205
vórtices de Descartes e pela afirmação de que não há resistência alguma ao
movimento dos astros nos espaços celestiais acima da atmosfera da Terra,
portanto, que estes continuarão em seus movimentos indefinidamente. O
importante, porém, deste scholium é o que vem a seguir, isto é: Newton
termina a sua Física com uma Teologia, aliás, semelhantemente ao que fez
Aristóteles.
Apesar de poderem continuar em suas órbitas pela simples lei da gra-
vidade, os astros não poderiam eles mesmos terem posto em operação essa
mesma lei. Trata-se de um movimento harmonioso dos planetas, de seus
satélites e dos cometas que “só poderia proceder do conselho e domínio de
um ser inteligente e poderoso” – que dominaria também outros sistemas
semelhantes em torno das estrelas fixas. Esse ser não seria a anima mundi
dos antigos, pois é o Senhor de tudo: o “Pantocrator”, pois Deus é uma
palavra que se refere aos seus servidores. É um ser eterno, infinito, abso-
lutamente perfeito, mas que não pode ser Deus sem domínio. “Ele não é
eternidade e infinitude, mas eterno e infinito; Ele não é duração e espaço,
mas Ele dura e está presente. Ele dura para sempre e está presente em to-
dos os lugares, e por existir sempre e em todos os lugares, Ele constitui a
duração e o espaço.”
Newton – de forma um tanto aristotélica – deduz, do absoluto do tem-
po e do espaço, a eternidade de Deus, dizendo: “Como cada partícula do
espaço é sempre e cada momento indivisível da duração é por toda parte,
certamente o Criador e Senhor de todas as coisas não pode ser nunca e em
nenhuma parte”.
É Deus – Senhor onipotente de tudo que existe – quem, embora simi-
larmente aos homens, vê, ouve, pensa e age, tendo poder para perceber,
compreender e atuar; não é humano nem corpóreo; e está além de todo
nosso entendimento. Mas por essas similitudes, Ele se expressa aos ho-
mens pela aparência das coisas e, dessa forma, falar Dele concerne tam-
bém à Filosofia Natural.
Newton termina o seu tratado afirmando que, se o poder dos fenôme-
nos da gravidade pode ser explicado, ele não sabe a causa desse poder.
Uma “causa que penetra o centro do Sol e dos planetas sem sofrer a menor
diminuição da sua força [...], e propaga sua virtude a distância”. E ele se
recusa a traçar uma hipótese sobre a sua natureza: Hypotheses non fingo –
“para nós, é suficiente que a gravidade realmente exista e atue de acordo
com as leis que explicamos”. E Newton acrescenta que há na natureza um
espírito sutil que faz com que os corpos se atraiam a distância, que as car-
gas elétricas se atraiam ou repilam; um espírito sutil que reflete, refrata e

206
inflete a luz, que move o corpo dos animais, propagando-se ao longo dos
nervos, dos órgãos, dos sentidos, do cérebro, e que desce aos músculos.
São coisas que não podem ser explicadas em poucas palavras, ou que não
há experiência suficiente para sua explicação.
Newton não disse, mas está implícito nas últimas páginas dos seus
principia, um princípio desde então adotado pelo corpo científico: a ciên-
cia renuncia ao conhecimento das primeiras causas e últimos efeitos dos
fenômenos naturais. Em outras palavras: o conhecimento científico é com-
pelido a determinar as causas imediatas dos fenômenos assim como os
seus efeitos posteriores, porém, desinteressa-se tanto de suas origens como
de sua finalidade.

d) A justificação do conhecimento objetivo


Com o tratado de Newton ficou estabelecida a possibilidade de um co-
nhecimento impessoal, sereno e objetivo da natureza através da Matemá-
tica. Do conhecimento empírico dos fenômenos particulares, conveniente
e metodicamente ordenados pelo intelecto segundo categorias prévias à
experiência, chegar-se-ia pela indução às leis gerais. Essas serviriam como
axiomas de uma dedução matemática, pela qual se provariam sucessiva-
mente proposições sob a forma de teoremas ou problemas, partindo das
mais simples e utilizando as já provadas para provarem-se as mais comple-
xas, que seriam verdadeiras se se adequassem aos fenômenos observados.
Evidentemente isso combinava o método racionalista cartesiano de
partir de ideias claras e distintas e ascender das ideias mais simples às
mais complexas por dedução com o empirismo baconiano de, em primei-
ro lugar, despir-se de todo preconceito para, depois, procurar a causa do
fenômeno enumerando todas as circunstâncias em que ele estivesse pre-
sente, ausente ou aparecesse gradativamente. Ora, essa pesquisa de cau-
sas não difere essencialmente da indução de leis gerais. E, por último,
conformava-se com o método galileano de “ler”, na natureza, as fórmulas
matemáticas que caracterizam o fenômeno e, depois, confrontá-las com a
experiência ou a observação, organizadas de acordo com a “teoria” (visão
matemática da natureza) para obter a resposta: sim ou não, se a “leitura”
fosse correta ou não.
O que Newton viveu, mas não confessou em seu tratado, é que ne-
nhuma teoria nasce pronta, nem as observações e experiências se dão es-
pontaneamente. Há um processo de gestação das teorias e de seleção das
observações que se dá a partir de uma conjetura inicial, como a de Newton
em seus dois anos de reclusão em Woolsthorpe (1665-1666). Uma conje-

207
tura é um complexo de ideias e pensamentos que surge da necessidade de
compreender algo quando ainda não se pode determiná-lo analiticamente,
mas o estado de conhecimentos do momento o exige. Ela brota da expe-
riência vivida do fenômeno, em conjunto com a intenção racional aliada à
imaginação criadora, para encontrar uma solução plausível.
Porém, as dúvidas sobre a possibilidade do conhecimento objetivo da
natureza eram enormes nos séculos XVII e XVIII. Primeiro surgiu a im-
prescindível necessidade do método e das regras para guiar o intelecto
na busca da verdade – quer racional quer empiricamente. Mas do próprio
método cartesiano surgiu a primeira grande dúvida: se, como concluiu
Descartes, pensar e existir se coimplicam, existência e subjetividade são a
mesma coisa, e a realidade será ordenada pela consciência e somente por
ela. Como, então, é possível a objetividade do conhecimento da natureza?
Por outro lado, a segunda grande dúvida estava em que, como mostrou Ba-
con, a descoberta de algo novo na natureza não pode ser feita pela análise
racional, pois ela parte de axiomas que já, necessária e potencialmente,
contêm em si o que se explicita na conclusão. Para que o conhecimento
encontre algo de novo, é necessário partir da observação dos fenômenos.
Mas só se conhecem os fenômenos um por um, de forma particular. Como
será possível, então, do conhecimento particular chegar ao geral? Entre-
tanto, os principia de Newton mostraram que o conhecimento objetivo da
natureza era possível.
Por outro lado, é possível conjeturar que a cultura europeia do século
XVII teria sido dominada pela crença de que o pensamento estaria mais
próximo do eu pensante do que da coisa pensada. Dessa crença teria brotado
tanto a ciência moderna, a partir de Galileu, como a Metafísica Racionalista
e a teoria do conhecimento empírico. Foi esse o germe do idealismo, embora
tanto no racionalismo continental como no empirismo inglês tivessem per-
manecido resquícios do realismo anterior. No cartesianismo, a doutrina das
três substâncias aponta a extensão, a mente e Deus como coisas em si e por
si. Em Leibniz, a doutrina das mônadas as apresenta como algo de real por
trás das aparências sensíveis. O empirismo inglês leva a admitir vivências
iminentemente reais no eu que as vivencia. Portanto, para chegar à plena ex-
plicação das potencialidades da crença idealista, seria necessário levar tanto
o racionalismo como o empirismo às suas últimas consequências.
Isso preocupava os filósofos e, entre eles, um jovem que habitava Kö-
nigsberg, na periferia dos centros de investigação científica ou filosófica
da época. Esse jovem era Immanuel Kant (1724-1804), que estudara pro-
fundamente o tratado de Newton, a ponto de, em 1756, 29 anos após a

208
morte deste, tentar publicar um ensaio que pretendia estender a teoria de
Newton à origem do universo. O ensaio era a história geral da nature-
za e teoria do céu84, no qual propunha uma hipótese nebular, baseada na
gravitação universal.
De acordo com a hipótese kantiana, o universo tem origem com a dis-
persão total da matéria em um caos completo. Há uma nuvem de átomos
que se atraem segundo as leis da gravidade, põem-se em movimento rota-
tivo e chocam-se entre si produzindo calor. Pelo resfriamento e atração, a
nuvem gasosa se contrai e aumenta a velocidade rotativa gradualmente até
achatar-se num plano e separar-se em anéis concêntricos. Esses anéis se
convertem em planetas e, seus anéis, em satélites. Tudo de acordo com leis
mecânicas. Entretanto, como a matéria não se pode mover por si mesma,
Kant – já no prefácio ao seu ensaio – coloca Deus como o necessário or-
denador da natureza. Cumpre-se o que se mencionou acima sobre o conhe-
cimento científico. Encontra-se uma explicação para o fenômeno conheci-
do, mas sua origem, além de afastar-se, permanece fora do conhecimento
científico. Esse mesmo mecanismo poderia ser estendido às estrelas da
Via Láctea e, também, aos objetos celestes descobertos naquela época: as
nebulosas, outros sistemas em formação ainda no estágio nebular.
Tudo isso complementa a ideia newtoniana de que tudo que não é in-
ferido dos fenômenos é mera hipótese e não conhecimento objetivo da
natureza. As ciências, como o conhecimento comum, dirigem-se aos fe-
nômenos e não à realidade última. Mas a justificação filosófica da possi-
bilidade do conhecimento objetivo só se faz quase 30 anos depois, com a
publicação, em 1781, por Kant, de sua crítica da razão pura85.
A leitura dos principia de Newton convenceu Kant de que era possível
o conhecimento objetivo da natureza. Tornara-se claro que quase todos os
conhecimentos começam com a experiência, porém, há alguns que não
têm exclusivamente essa origem, pois é possível admitir que o conheci-
mento empírico seja composto dos dados da sensibilidade, e mais algo que
o entendimento adiciona a esses dados. Que exista esse algo a mais é fácil
compreender, por exemplo, pelos três axiomas ou leis do movimento de
Newton. São três proposições iniciais que, embora inspiradas em conje-
turas ou experiências ideais de Galileu, pretendem uma validez universal
estranha a qualquer juízo proveniente exclusivamente de experiências par-
ticulares.
84 KANT, I. Historia General de la Naturaleza Y Teoría del Cielo. Buenos Aires: Juá-
rez Editor, 1969.
85 KANT, I. Critique of Pure Reason. Londres: J. M. Dent & Sons, 1940.

209
Além disso, o scholium inicial dos principia mostrara que, se subtrair-
mos de um corpo todas as suas determinações, como cor, clareza, forma,
peso, transformações, movimentos etc., ficarão o espaço que ele ocupa e
o tempo em que ocorre – termos esses anteriores a qualquer experiência.
Newton mostra que conhecimentos como esses transcendem o mundo sen-
sível, mas fazem parte da investigação científica. Kant os chama de a priori.
A crítica da razão pura é que detém os princípios desses conheci-
mentos a priori. E Kant chama de transcendental o conhecimento que se
ocupa não das coisas em si, mas do modo de conhecê-las a priori. Assim,
a primeira parte de seu livro é uma teoria transcendental dos elementos –
constituída de uma Estética e de uma Lógica Transcendental. Na Estética,
ele trata das formas a priori da sensibilidade (daí o nome Estética), que são o
espaço e o tempo. Esses, de forma alguma são conceitos derivados da expe-
riência: são instituições da mente. Na observação ou na experiência, nossos
sentidos percebem algo que é imediatamente “colocado”, pelo intelecto, no
espaço e no tempo. É então que aparece o fenômeno. Em suma: os fenô-
menos são os dados da sensibilidade ordenados no espaço e no tempo pelo
intelecto. Portanto, a mente pensante veio imprimir nas coisas e nos eventos
a estrutura do espaço e do tempo. Logo, ver-se-á qual é essa estrutura.
Há no conhecimento uma relação interativa sujeito-objeto na qual ne-
nhum dos dois polos subsiste sem o outro. O objeto não é transcendente
(independente) do sujeito, pois o sujeito não atinge o objeto em si e somen-
te por si. Por outro lado, a mente que conhece não está sozinha no processo
do conhecimento: ela necessita de algo externo que estimule sua percep-
ção. A esse tipo de relação entre sujeito e objeto Kant chama de “transcen-
dental”. Isso torna o conhecimento objetivo possível. Não se conhecem,
no conhecimento objetivo, as coisas em si e por si, mas sim os fenômenos,
isto é, aquilo que aparece para os sentidos.
A Lógica Transcendental de Kant é dividida numa Lógica Analítica
e numa Lógica Dialética. Na Analítica, depois de procurar nos conceitos
suas possibilidades a priori, Kant passa a tratar dos juízos formados pelos
conceitos (colocando-os como sujeito e predicado ligados pela cópula é, e,
eventualmente, por complementos esclarecedores) como enunciando algo
sobre a realidade dos fenômenos. Na Lógica tradicional86, os juízos são
divididos, segundo o que é predicado do sujeito, em quatro classes: quan-
tidade (individual, particular e universal); qualidade (afirmativa, negativa
e infinita); relação (categórica, hipotética e disjuntiva); e modalidade (pro-
86 Por exemplo, em: ROMERO, F. Lógica. Capítulo IV – El Juicio. Buenos Aires: Es-
pasa Calpe Argentina, 1962.

210
blemática, assertória e apodítica). Partindo da ideia de que exarar um juízo
é o ato de assentar a realidade por ele expressa, Kant extraiu de cada uma
dessas classes de juízo uma “forma” correspondente da realidade assen-
tada. E chama essas “formas” de “categorias do entendimento”. São elas,
correspondendo na mesma ordem de classificação: unidade; pluralidade;
totalidade; realidade; negação; limitação; propriedade; causalidade e reci-
procidade; possibilidade; existência e necessidade.
Agora, os juízos são “organizados” pela “razão pura” segundo as “ca-
tegorias do entendimento”. Isto é, a realidade é o âmbito no qual os fenô-
menos combinam-se, transformam-se, antepõem-se e evoluem. Uma vez
expresso um juízo sobre esse processo, estabelece-se a realidade. Mas não
basta a simples enumeração dos fenômenos observados para que isso se
dê. É necessário que o juízo os organize segundo as categorias. E essas
categorias não provêm da experiência ou da observação, não são sensações
provenientes das coisas, elas são inteiramente “colocadas” pelo entendi-
mento; são a priori. Esses juízos, religando conceitos sobre os fenômenos
organizados pela mente segundo as categorias, estabelecem a realidade.
Eles é que irão constituir os elementos do “conhecimento objetivo” – o
qual será, portanto, sempre fenomenológico, porém ordenado por “for-
mas” a priori.
Em outras palavras: diante dos fenômenos, o entendimento os or-
ganiza numa das categorias acima mencionadas para expressá-los em
juízo. Eles serão únicos ou totais, próprios ou possíveis, causados ou
necessários etc. Enfim, os dados da sensibilidade, colocados no tempo
e no espaço, são recebidos pelo entendimento e estruturados de acordo
com algo que não vem da experiência, que transcende a mente indivi-
dual e pertence à “razão pura” comum a todas as mentes. Por exemplo:
o juízo individual “A é B” corresponde à categoria da unidade; ao juízo
universal: “todo A é B” corresponderá à categoria de totalidade; ao juí-
zo hipotético: “se A então B” corresponderá à causalidade, e assim por
diante. Dessa forma, a função dos juízos é “pôr” a realidade e determi-
ná-la. Ser real objetivamente é ser sujeito de juízos, segundo o idealismo
transcendental de Kant.
Examinando, agora, os juízos, verifica-se, entretanto, que, em alguns
deles, o predicado está inteiramente contido no sujeito, por exemplo, “o
triângulo tem três ângulos”. São os chamados juízos analíticos. São tau-
tologias que nada acrescentam ao conhecimento. Por outro lado, há juízos
chamados sintéticos que acrescentam algo ao nosso conhecimento. Neles,
o conceito do predicado não está contido no do sujeito, por exemplo: “o

211
calor dilata os corpos”. Os juízos analíticos, sendo tautológicos, são neces-
sários e universais, e isso é válido em qualquer lugar e tempo. À primeira
vista, os juízos analíticos seriam todos a priori, e os sintéticos, como de-
pendem da experiência, seriam todos a posteriori. Os primeiros seriam tão
somente justificados pelos princípios de identidade e de não contradição;
enquanto que os segundos acrescentam algo ao novo conhecimento e só
seriam justificados pela experiência.
Agora, se as ciências alargam o campo do nosso conhecimento ob-
jetivo, elas devem ser constituídas por juízos sintéticos. Mas serão esses
juízos todos a posteriori? Não se pode aceitar isso porque a ciência é cons-
tituída por uma série de proposições verdadeiras, necessárias e universais.
Portanto, é necessário que existam juízos sintéticos a priori – os quais
constituirão as proposições nas quais se baseia o conhecimento científico.
Com efeito, examinando as proposições básicas da Geometria e da
Aritmética verifica-se que elas não poderão ser compreendidas como me-
ras tautologias; elas acrescentam algo de novo ao conhecimento. Na Geo-
metria, elas não poderão ser compreendidas senão através da intuição a
priori do espaço, assim como as da Aritmética, sem a noção de sucessão,
através da intuição a priori de tempo. Assim, as proposições básicas (axio-
mas e teoremas) das Matemáticas serão juízos sintéticos a priori.
As Matemáticas, como teorias do espaço e do tempo, constituem as-
sim um sistema de fórmulas que impõe sua estrutura a toda percepção
sensível. Portanto, o conhecimento objetivo da natureza conformar-se-á a
tais fórmulas, todas elas independentes da experiência, porém impondo-se
formalmente aos fenômenos.
Na Física, entretanto, os dados da sensibilidade poderiam, eventual-
mente, agrupar-se em nossas mentes como puras sensações, mas isso não
é verdade, como foi mencionado acima a respeito das categorias do en-
tendimento. Por exemplo: as leis gerais podem ser entendidas como gene-
ralizações feitas pela organização de juízos particulares pelas “categorias
do conhecimento” causalidade e totalidade. Portanto, são juízos sintéticos
a priori. Além do mais, na Mecânica Racional, são postos princípios a
priori , semelhantemente aos da Matemática – aos quais devem sujeitar-se
todos os fenômenos. Esses princípios não são derivados da experiência,
pelo contrário: para se compreenderem as experiências, elas devem ser
enquadradas neles. Como toda a Física depende da Mecânica, resulta que a
Física e, em suma, todas as ciências, fundamentam-se em juízos sintéticos
a priori.

212
Finalmente, Kant aborda, no capítulo “Dialética Transcendental” da
sua crítica da razão pura o problema da Metafísica; isto é, o problema
da necessidade inata ao homem de procurar compreender, além dos fenô-
menos, suas causas e necessidades últimas – a realidade radical, subjacen-
te a qualquer aparência, tais como a imortalidade e as ultimidades; Deus,
enfim. Ele mostra que juízos sobre tais entidades aparecem aos pares em
sentenças contraditórias e que, entretanto, cada uma delas pode ser pro-
vada racionalmente. Kant mostra também que todos esses pares de sen-
tenças que ele chama de “aporias” contrariam as regras do conhecimento
objetivo, seja tomando a “coisa em si” como fenômeno, seja deixando de
aplicar as categorias do conhecimento corretamente. Portanto não consti-
tuem, na realidade, conhecimentos. Sua afirmação está fora do campo do
conhecimento objetivo, porém, sua negação também o está. Dessa forma,
as considerações de ordem teológica no final dos principia de Newton não
constituem conhecimento objetivo, mas também não são passíveis de ser
negadas no âmbito desse conhecimento. Aliás, na continuação de sua obra,
Kant irá fundamentar a Metafísica não no conhecimento, mas na ação, na
vontade e na moral humanas – no que ele chama de “a prática”.
Mas a Metafísica é, para Kant, também uma teoria dos princípios a
priori das ciências. Cinco anos depois da publicação da sua crítica da ra-
zão pura, ele publica seus primeiros princípios metafísicos da ciência
da natureza87, no qual aplica seu criticismo da razão pura à procura de
princípios que reúnam legitimamente os diferentes resultados experimen-
tais das ciências naturais.
Dessa forma, Kant justificou a ciência moderna como uma forma de
conhecimento objetivo experimental, porém organizado a partir de cate-
gorias mentais anteriores a qualquer experiência. Além disso, deu sentido
ao processo de matematização da natureza – o qual se está aqui tentando
examinar historicamente. Se as Matemáticas são ciências cujos princípios
são a priori, como mostrou Kant, como é possível que a natureza objetiva
conforme-se às suas teorias? Kant responderia a essa dúvida com sua “ana-
lítica transcendental”. A ciência da natureza não é um mero enumerar dos
fenômenos naturais, e nem esses fenômenos se apresentam já organizados.
O entendimento os organiza segundo suas categorias, conformando-os lo-
gicamente no espaço e no tempo. Ora, como a Geometria e a Aritmética
são teorias desenvolvidas a partir das intuições a priori de espaço e tempo,
serão as Matemáticas que irão tornar possível o conhecimento objetivo
87 KANT, I. – Premiers Principes Métaphysiques de la Science de la Nature. Paris: J.
Vrin, 1982.

213
dos fenômenos naturais. Aliás, os principia de Newton já mostravam isso
claramente. Em suma: o processo de matematização da natureza, encetado
por Galileu e realizado por Newton, seria resultante da organização, pelo
intelecto, dos fenômenos observados pelos sentidos humanos na natureza.

e) A Análise Matemática e a Revolução Francesa


O século XVIII foi o século da instituição definitiva da Geometria Ana-
lítica e do Cálculo Infinitesimal como instrumentos de análise dos fenô-
menos naturais. A inauguração do edifício acabado do Cálculo foi levada a
efeito por Leonardo Euler (1707-1783), porém, a habitação desse edifício
foi feita durante a Revolução Francesa.
É por demais significativo que o episódio dos seis grandes matemáticos
franceses que completaram a Análise Matemática ao mesmo tempo que
viviam e colaboravam com a Grande Revolução tenha tido um início sim-
bólico em 1738, 51 anos antes da Tomada da Bastilha, quando François-
-Marie Arouet Voltaire (1694-1778) publicou seus éléments de la philo-
sophie de newton. Ele se refugiara, fugindo da prisão e do escândalo, no
castelo de Mme. du Châtelet, em Cirey, na região da Champagne. Assim
iniciava sua longa ligação com essa bela e inteligente jovem que foi, du-
rante 15 anos, sua companheira e conselheira. Aliás, nessa época, Mme. du
Châtelet aprendia inglês para traduzir Newton. Com isso, o newtonismo
ter-se-ia tornado tão popular que, dizem, aparecera em Paris como o tema
dominante da época: “o newtonismo para damas”. De qualquer forma,
Voltaire foi o responsável pela substituição, na França, do cartesianismo
pelo mecanicismo materialista. E, com isso, o caminho da análise racional
de todos os fenômenos não só naturais, mas também culturais, foi aberto.
Desde os tempos de Galileu que a Matemática, especialmente a Geo-
metria, deixara de ser a teoria das proporções harmoniosas da realidade
– da qual a Perspectiva era a sua última expressão – para vir a ser um
instrumento para a análise dos fenômenos naturais. Newton foi o princi-
pal institucionalizador disso, principalmente pela utilização da Geometria,
aliada ao seu “Cálculo dos fluxos e fluentes”, na análise do fenômeno da
gravitação. Com isso, ele veio a realizar o ideal galileano de tornar a natu-
reza totalmente compreensível por meio de equações matemáticas.
Mas a teoria de Newton não comoveu somente os matemáticos. Ela
atingiu também profundamente o interesse dos filósofos, compelindo-os
não só, como no caso de Kant, a justificar o fato da possibilidade do conhe-
cimento objetivo, mas também impelindo-os paulatinamente a uma visão
materialista da realidade. Dessa visão resultaria a incorporação da ciência

214
nos domínios da cultura e, especialmente, no da política.
Os enciclopedistas, seguindo Voltaire, tornaram-se propensos a crer
que as leis de Newton, além de organizar a matéria inanimada, reduzida
a um sistema de partículas atuando entre si mecanicamente, aplicavam-se
também à vida e à organização social dos homens.
Entretanto, para que essas leis se tornassem operativas e pudessem ser
voluntariamente aplicadas, era necessário desenvolver a Geometria Ana-
lítica e a Análise Infinitesimal, as quais, aliadas à concepção materialista
e mecanicista da natureza, seriam os instrumentos indispensáveis para a
análise e o cálculo dos fenômenos, tanto os físicos como os vitais ou so-
ciais. Só assim o mecanicismo materialista poderia impor o domínio total
da deusa razão tanto sobre a natureza como sobre a cultura.
Quando o professor de Euler, Johan Bernoulli (1667-1748), e seus fi-
lhos, também matemáticos, Daniel e Nicolas – aos quais cabe grande parte
da tarefa da evolução da Matemática –, foram convidados por Catarina I,
da Rússia, à Academia de São Petersburgo, Euler os acompanhou. Mas
em 1741 ele aceitou o convite do rei Frederico II para a Academia de
Berlim. A inauguração do edifício da Análise Matemática deu-se, nessa
época, com a publicação em 1748 da sua introductio in analysin infi-
nitorum. É nesse livro que aparecem, pela primeira vez, não só a ideia de
função como fundamento da Análise Matemática, mas o novo tratamento
do Cálculo Diferencial e do método dos fluxos, transformando-os nesse
ramo da Matemática que se chamou de “Análise”. Tal desenvolvimento
do Cálculo, aliás, foi feito na esteira da conotação de Leibniz, e não na
de Newton. Foi isso que tornou possível aos matemáticos franceses do
final do século XVIII a reformulação da teoria gravitacional newtoniana,
no sentido de torná-la possível de calcular, explicar e prever os detalhes
e anomalias aparentes do movimento dos astros. Além disso, a Análise
tornou possível a esperança de aplicação das Matemáticas na solução dos
problemas da técnica.
Euler realizou parte desse seu trabalho na Academia de Ciências de
Berlim. Mas parece que o ideal da aplicação prática da Análise não foi, a
princípio, bem-sucedido. É o que transparece numa carta de Frederico II à
Catarina II, da Rússia – outra grande protetora dos sábios da época. Quei-
xava-se ele da incompetência de Euler, como sendo incapaz de projetar
corretamente o sistema hidráulico das fontes do jardim real de Sanssouci.
Esse episódio mostra que, embora a Análise Matemática estivesse sen-
do cada vez mais bem-sucedida na explicação dos fenômenos físicos e

215
celestes, fracassava ainda quando empregada para a solução de problemas
técnicos. Aliás, tais fracassos persistiriam até o início do século XX e só
seriam inteiramente removidos após a Segunda Guerra Mundial, com o ad-
vento da computação eletrônica. Foi isso que retardou o advento da Tecno-
logia (como a aplicação de teorias científicas aos problemas da técnica) até
quase os nossos dias. No entanto, essa dificuldade já teria sido anunciada
pelo próprio Galileu, simultaneamente com o estabelecimento da ciência
moderna, em seus discursos sobre duas novas ciências – quando ele
pretendeu resolver problemas de Resistência dos Materiais, com o auxílio
da Mecânica Racional.
Não se deve esquecer, porém, que o atual sucesso das aplicações da
Matemática avançada aos problemas tecnológicos deve-se a Euler, prin-
cipalmente quando ele formulou também o Cálculo das Variações – bási-
co para a atual computação eletrônica. Foi ele também, quem introduziu,
pela primeira vez, a Análise Matemática na resolução dos problemas da
Mecânica, criando a Mecânica Analítica, em 1736, quando ainda em São
Petersburgo publicou a sua mechanica sive motus scientia analytice.
Foi então que se demonstrou, pela primeira vez, que um sistema de
massas concentradas em pontos geométricos, referidos a coordenadas car-
tesianas e sujeitos a forças quaisquer, poderia ser descrito por equações
diferenciais, as quais serviriam como equações gerais da Mecânica. Equa-
ções diferenciais são aquelas que relacionam não só as variáveis como
também suas velocidades de variação.
Em 1766, Euler voltou à Rússia a convite de Catarina II, onde perma-
neceu até sua morte, em 1783. Dois anos depois de ter chegado à Rússia,
perdeu a vista, mas não interrompeu suas atividades. Dedicou-se a rever
suas obras, entre elas a da Mecânica dos Sólidos e da Teoria da Elasticida-
de aplicando à solução de tais problemas o recém-criado Cálculo das Va-
riações. Abriu então definitivamente o caminho para a aplicação da Aná-
lise Matemática aos problemas mais complexos da Mecânica e da Física.
Foi o desenvolvimento da Matemática, nessa linha, que serviu de base
para a análise dos problemas de Engenharia levados a efeito, primeiro,
na École Polytechnique e, posteriormente, nas Technische Hochschulen
germânicas, já no século XIX. Contudo, para que essa linha de pesquisa
atingisse pleno sucesso, demorou muito. Até há bem pouco tempo, havia
a controvérsia da eficiência da Engenharia, quando aplicada em bases ma-
temáticas. O ditado “na prática a teoria é outra” reflete essa atitude. Mas
o nome dos grandes matemáticos, a partir de Euler, permaneceu ligado a
várias realizações tecnológicas.

216
Por outro lado, fiel ao clima da “Ilustração” – em que o saber não era
prerrogativa exclusiva dos filósofos e cientistas, mas discutido nos salões
mundanos e ensinado aos reis, nobres e seus descendentes pelos sábios –,
Euler publicou, em São Petersburgo as cartas que escrevera entre 1760 e
1762 à jovem futura princesa de Anhalt-Dessau sob o título cartas a uma
princesa alemã88. A publicação dessas cartas constituiu-se como uma di-
vulgação, para pessoas menos instruídas, dos problemas filosóficos e cien-
tíficos, entre os quais os de maior interesse na época: a questão da atração
gravitacional dos corpos a distância e o da divisibilidade da matéria com
relação à teoria leibniziana das mônadas.
Em meados do século XVIII, a ilustração francesa, considerando como
definitivamente estabelecida, por Newton, a possibilidade do conhecimen-
to objetivo da natureza, julgou que seria aquele o momento de estabele-
cer definitivamente o rol das coisas conhecidas através de um dicionário
universal. Denis Diderot (1713-1789) e Jean D’Alembert (1717-1783)
propuseram-se, então, a editar a famosa encyclopédie, também sugesti-
vamente chamada de dictionnaire raisonné des sciences, des arts et
des métiers – isto é, abarcando todo conhecimento científico, artístico e
técnico. Era como se eles pretendessem reunir todo conhecimento não só
filosófico, mas também prático, no âmbito da investigação científica à ma-
neira baconiana, sem, entretanto, abandonar a análise cartesiana.
No prospecto89 que precedeu a publicação dos primeiros volumes da
encyclopédie, Diderot expõe o plano da obra. Ela não seria uma tradu-
ção da enciclopédia inglesa de Chambers, recentemente publicada e que
já estava em sua quinta edição. Pretendia ser mais do que aquela. Teria a
pretensão de unificar todos os ramos do saber e das técnicas sob um único
ponto de vista, o de Francis Bacon, que, cerca de 150 anos atrás, lançara o
seu plano de unificação do saber humano.
O entendimento, para os enciclopedistas, assim como para Bacon,
consistiria de memória, razão e imaginação. A expressão da primeira
seria a História; a da segunda a Filosofia (entendida também na época
como ciência); e a da terceira, a Poesia. Na História se incluiria, além da
sagrada, da eclesiástica e da civil (antiga e moderna), também a História
Natural. E, nessa última, um dos ramos seria o das Artes, Ofícios e Ma-

88 EULER, L. Reflexiones sobre el Espacio, la Fuerza y la Materia. Madri: Alianza


Editorial, 1985.
89 DIDEROT e D’ALEMBERT. Enciclopédia ou Dicionário Racionado das Ciências,
das Artes e dos Ofícios por uma Sociedade de Letrados. São Paulo: Editora UNESP,
1989. Discurso Preliminar e outros textos.

217
nufaturas (como natureza utilizada). Na Filosofia, se incluiriam, como
ciência dos homens, a Pneumatologia, ou Ciência da Alma, a Lógica e
a Moral; e, como ciências da natureza, as Matemáticas (incluindo des-
de as Matemáticas puras, a Mecânica, a Ótica, e a Acústica até a Arte
das conjeturas, como a Análise do Acaso) e a Física Particular (desde
a Zoologia e da Astronomia, incluindo a Astrologia, até a Botânica, a
Mineralogia e a Química). Finalmente, a Poesia, incluindo a narrativa, a
dramática e a parábola. E assim se reunia o conhecimento num sistema
único, como era o ideal da época. E todos aqueles que desejassem ad-
quirir saber poderiam substituir toda uma biblioteca por uma única obra:
a encyclopédie. Essa seria escrita por um grupo de “letrados”, entre os
quais se encontravam homens como Voltaire, Rousseau e Condorcet. A
D’Alembert coube os verbetes de Matemática e de Física e a Diderot os
das Artes, Ofícios e Manufaturas. Diderot valeu-se do testemunho de
operários e artesãos e de conhecimentos por ele mesmo adquiridos no
trato das máquinas e dos instrumentos. Confessou Diderot, no seu pros-
pecto, que fora relativamente fácil conseguir a colaboração de filósofos
e cientistas; o mais difícil fora conseguir informação sobre as Artes e
Ofícios. Daí a necessidade de ilustrar a encyclopédie com numerosas e
primorosas gravuras de máquinas e artefatos.
O “Discurso Preliminar dos Editores”, redigido por D’Alembert e que
abre a encyclopédie, editada de 1751 a 1772, é uma verdadeira decla-
ração de princípios dos filósofos franceses que foram denominados en-
ciclopedistas. Antes de apresentar o plano de elaboração e denominar os
autores, D’Alembert desenvolve sua teoria do conhecimento a partir da
constatação da existência de nossas sensações, que, prosseguindo por de-
graus, atinge tudo que é possível conhecer.
A influência do empirismo inglês, desde Bacon até John Locke, sobre
Diderot e D’Alembert é notável. O conhecimento para eles dá-se direta-
mente através das sensações. Elas nos fazem conhecer, em primeiro lugar,
a nossa existência; em segundo lugar, a existência dos nossos corpos; e, por
fim, a dos objetos exteriores a nós, inclusive dos outros corpos semelhantes
aos nossos. É a descoberta desses outros corpos semelhantes a nós que nos
leva à necessidade de comunicar-nos com eles e daí o aparecimento dos
símbolos, tais como as palavras que nos permitam tal comunicação. Mas
a influência do idealismo se fez sentir imediatamente. Diz D’Alembert:
“Podemos concluir por nossas sensações que há seres exteriores a nós, mas
esse ser que chamamos ‘matéria’ será ele semelhante à ideia que formamos
dela?”. Isto é, tanto para Diderot como para D’Alembert, a existência de
corpos exteriores a nós envolve dificuldades insolúveis. Dizer, como Des-

218
cartes, que somente a extensão dos corpos subsiste por si mesma, indepen-
dentemente de nós, também não os comove. Diz D’Alembert: “Em uma
palavra, a própria sensação que nos faz conhecer a extensão como essência
da matéria e a maneira como formamos sua ideia permanecerá sempre nas
nuvens”. Em que consiste propriamente a noção de extensão? É essa, para
eles, uma pergunta sem resposta.
Se a única maneira de conhecermos é pelas sensações, é o manuseio das
coisas que nos leva a conhecê-las. Daí a ideia dominante dos enciclope-
distas de que toda ciência particular nasce de uma técnica correspondente.
É uma ideia expressa por Diderot que todos os nossos conceitos designam
fatos de experiência ordenados em classes. Assim, a tarefa da ciência seria
a comunicação dessas classificações de fatos por meio de símbolos. Ora, a
simbologia apropriada é a Matemática, capaz de descrever adequadamente
os fatos da natureza.
É esse o ideal básico do processo histórico que propomos chamar de
“matematização da natureza” – o qual se inicia com os pitagóricos, quando
esses veem a natureza como harmonia numérica. Essa vem atingir a Ilustra-
ção com a crença de que a descrição simbólica de todo fenômeno natural é
conseguida melhor por meio de equações matemáticas deduzidas da expe-
riência sensível. Como a ideia de natureza como máquina domina o pensa-
mento dos enciclopedistas, a Mecânica Racional seria a rainha das ciências.
Nesta linha, no traité de dynamique publicado em 1743, D’Alembert
procurou estruturar uma Mecânica Racional sem recorrência à verdade da
razão, opondo-se a Leibnitz. Ele procura estabelecer uma Dinâmica evi-
tando partir da ideia de força – para ele, carregada de características meta-
físicas. Parte de uma cinemática, envolvendo as noções de espaço, tempo e
movimento, derivadas, segundo ele, da experiência sensível. A Mecânica,
assim constituída, seria a rainha das ciências, da qual todas as outras de-
penderiam diretamente.
Nos seus elements de philosophie, publicados em 1759, D’Alembert
desenvolve sua Epistemologia. Nessa obra, as ciências partem de princí-
pios claros, evidenciados pela experiência sensível, os quais preferencial-
mente devam levar à organização de equações que descrevem os fenôme-
nos cujas soluções, para ser consideradas verdadeiras, deverão adequar-se
à observação experimental. Afirma ele textualmente: “um só artigo, no
qual a observação desmentisse o cálculo, faria desabar o edifício”.
Assim foi D’Alembert, que, além de filósofo, era matemático: um dos
principais colaboradores do processo de matematização da natureza, com

219
uma nova interpretação do “princípio dos trabalhos virtuais” – o qual ins-
titui que um sistema de força estará em equilíbrio quando, ao se darem
deslocamentos virtuais dos pontos de aplicação das forças, o trabalho re-
sultante (soma das forças multiplicadas pelos respectivos deslocamentos
virtuais) é nulo. D’Alembert generalizou o princípio, afirmando que, se
o sistema não estivesse em repouso, poder-se-ia considerar as reações de
inércia (massas multiplicadas pelas respectivas acelerações), e, aplicando-
-se o princípio dos trabalhos virtuais, encontrar-se-ia um sistema em equi-
líbrio dinâmico. Ora, esse novo princípio (chamado agora de D’Alembert)
reúne em si os três axiomas de Newton: o da inércia, o da força propor-
cional à aceleração e o da reação igual e contrária à ação. Portanto, ele
já anuncia a possibilidade de uma equação pela qual todos os problemas
de Dinâmica pudessem ser resolvidos. Isto é: uma equação básica para a
constituição de uma Mecânica Analítica – com o auxílio da qual pudessem
ser resolvidos não só os problemas da Física e da Astronomia, como tam-
bém os de Mecânica Aplicada. Além disso, reuniria a Dinâmica à Estática.
Durante a Revolução Francesa apareceram matemáticos de excepcio-
nal importância: Joseph Louis Lagrange (1736-1813); Marie-Jean Antoine
Nicolas de Cariat – marquês de Condorcet (1743-1794); Gaspard Monge
(1746-1818); Pierre Simon – marquês de Laplace (1749-1827); Adrien-
-Marie Legendre (1752-1833); e Lazare Carnot (1753-1823), que não só
estabeleceram a Matemática na forma atual, como também tomaram parte
ativa na Revolução. Pela sua atuação, tanto civil como militar, nos su-
cessivos episódios do movimento, eles são até hoje conhecidos como os
“matemáticos da Revolução Francesa”.
É notório que a intenção desses “matemáticos da Revolução” era sis-
tematizar os princípios da Matemática anterior, de forma a torná-la um
instrumento útil à análise dos fenômenos da natureza. Dada a ideia me-
canicista que dominava a concepção do mundo de então, decorre que a
Mecânica, celeste ou terrestre, seria a ciência a partir da qual todos os
fenômenos naturais seriam explicados.
Porém, a Matemática assim constituída exige a quantificação dos fe-
nômenos naturais, isto é: a mensuração de todas as dimensões, quantida-
des e parâmetros dos fenômenos naturais. É muito sugestivo, assim, que
o trabalho desses matemáticos, logo após o início da Revolução Francesa,
tenha sido recrutado para a reforma dos pesos e medidas, proposta por Tal-
leyrand já em 1790. Criou-se uma comissão da qual faziam parte Lagrange
e Condorcet. Nesse momento, Legendre estava engajado na triangulação
da França. A perfeição desse seu trabalho é que levou a Comissão a adotar

220
como unidade de medida a décima milionésima parte do quarto do meri-
diano terrestre: o metro. Assim surgiu o sistema métrico.
Qual seria, então, a razão histórica, por que homens dedicados a uma
atividade tão abstrata como a Matemática – em geral exercida por pes-
soas tão alheias e distraídas das coisas do mundo – virem a atuar tão apai-
xonadamente em comitês e guerras revolucionárias? É verdade que eles
atravessaram o período revolucionário e vieram a morrer na tranquilidade
da “senectude”, com suas obras matemáticas concluídas. Com exceção de
Condorcet, que se suicidou na prisão em pleno Terror, sofrendo as con-
sequências do holocausto, por cuja preparação ele mesmo colaborara. É
verdade também que todos eles já tinham sido consagrados como gran-
des matemáticos antes da Revolução. Mas note-se que essa atividade pré-
-revolucionária prendia-se àqueles anos de preparação mental dos ideais
revolucionários conduzidos pelos autores da encyclopédie.
Mas as grandes obras desses homens foram publicadas entre 1789 e
1797, isto é, em pleno período revolucionário. A mecanique analytique,
de Legendre, é de 1788; as feuilles d’analyse, de Monge, é de 1795; a
exposition du système du monde, de Laplace, é de 1796; os éléments de
géométrie, de Legendre, é de 1794; a réflexion sur la métaphysique
du calcul infinitésimal, de Carnot, é de 1797. Assim, é como se eles
tivessem tido sua preparação ideológica com os enciclopedistas, ideólogos
da Revolução, mas que fosse a própria atividade revolucionária que tivesse
inspirado e instigado a criatividade de tais homens. Depois de passado o
período violento, durante a era napoleônica, e mesmo após essa, com a Res-
tauração Monárquica, eles passaram a gozar de suas próprias glórias, mas
já com a criatividade diminuída. Com exceção de Laplace, que publicou
sua théorie analytique des probabilités em 1825, dez anos após a queda
de Napoleão, e de Legendre, com sua théorie des nombres de 1830.
Mas quanto à própria atuação revolucionária, é necessário distinguir
três deles: Carnot, Condorcet e Monge, como militantes diretos das lutas
revolucionárias, arriscando suas próprias vidas. O único que morreu na
Revolução foi Condorcet, mas Carnot e Monge estiveram próximos da
guilhotina. Condorcet era de família aristocrática, assim, recebera instru-
ção para se tornar militar, porém, preferiu a vida de estudioso junto a Vol-
taire e D’Alembert. Já Monge, pelo contrário, era de família pobre, mas
conseguiu ser professor de Matemática na Escola Militar de Mézières e,
assim, inseriu-se entre os militares. Carnot, embora não sendo nobre, era
de família qualificada para poder ingressar, graduar-se na mesma Escola
Militar e entrar para o exército.

221
Condorcet aspirava estender o ideal da matematização da natureza, tão
caro aos matemáticos da Revolução Francesa, à análise da sociedade. É
dele a intenção original de aplicar a teoria das probabilidades aos estudos
sociais. Até então, as probabilidades só tinham encontrado aplicação nos
jogos simples de azar, apesar das muitas propostas de aplicá-las à políti-
ca. A prioridade de Condorcet está em ter partido do princípio de que as
decisões político-sociais seriam tomadas por maioria de votos. Isso leva à
concepção do homem como Homo suffragans, cuja única relação com o
outro e com o mundo seria pelo voto. A partir desse princípio, Condorcet
procurou elaborar uma “Matemática Social” que tinha por objeto o com-
portamento humano em face às coisas do mundo, quando este calcula as
vantagens e as desvantagens de uma certa escolha90.
Monge era plebeu e do grupo dos jacobinos. A Assembleia Constituin-
te atribuiu-lhe um posto importante na reforma dos pesos e medidas, em
1790. Foi nomeado ministro da Marinha em 1792 e, nessa qualidade, as-
sinou o decreto de execução de Luís XVI. Exonerado da Marinha, tomou
parte ativíssima na questão do suprimento de pólvora para o arsenal militar
da Revolução. Sua mentalidade, porém, não era radical. Era um homem
que compreendia tanto a posição dos conservadores como a dos revolucio-
nários e, por isso, era atacado por ambos. Em 1794, tomou parte na forma-
ção de uma Comissão de Obras Públicas, da qual resultou a necessidade
da organização de escolas superiores de Engenharia. Daí a criação da Éco-
le Polytechnique. Mas ele mesmo tomou para si a incumbência de atuar
como professor desses novos profissionais e o fez de maneira inovadora,
introduzindo uma nova disciplina, a Geometria Descritiva. Note-se que se
Monge não fosse politicamente tão ativo na Revolução, provavelmente a
École Polytechnique não teria sido um tão grande sucesso. Tornou-se uma
escola revolucionária, pois se propunha a ensinar Matemática, para que
esta pudesse ser útil ao aprendizado de técnicas. Depois de concluídos os
cursos científicos da Polytechnique, os alunos podiam ingressar em esco-
las profissionais, onde aprenderiam a resolver problemas técnicos com a
utilização dos conhecimentos matemáticos. Ora, é possível ver nisso uma
realização da crença que dominava a mentalidade dos enciclopedistas: a
crença de que tudo que tinha sido feito pela habilidade dos artesãos po-
deria, agora, ser realizado por meio de conhecimentos científicos. Monge
vivia na própria carne essa crença, pois, ao mesmo tempo em que era po-
lítico reformista, era também um matemático, criador da Geometria Des-
critiva e aperfeiçoador da Geometria Analítica, como está comprovado nas
90 CONDORCET. Matemáticas Y Sociedad - Introduccion Y seleccion de Roshdi Ra-
shed. México: Fondo de Cultura Economica, 1990.

222
feuilles d’analyse, de 1795. Essa atividade de Monge foi, também, mais
tarde documentada num artigo do journal de l’école polytechnique
sobre a application d’algèbre à la géométrie.
Ensinava ele também na recém-criada École Normale, onde se pre-
tendia ensinar técnicas. Foram as notas de aula de Geometria Descritiva,
dadas por Monge na École Normale, que foram publicadas como o pri-
meiro livro de Geometria Descritiva vindo a lume. Como a Geometria
Descritiva foi a parte da Geometria que mais oferecia vantagens práticas
de aplicação na Engenharia e na Arquitetura, pode-se dizer que o go-
verno da Revolução Francesa foi o primeiro que instituiu a Tecnologia,
entendida essa como a utilização de teorias, métodos e processos cientí-
ficos na solução de problemas da técnica. Monge terminou a vida como
um bonapartista apaixonado.
Lazare Carnot foi quem salvou a França da invasão estrangeira duran-
te a Revolução Francesa. Foi ele quem reorganizou o exército francês e
tornou vitorioso o movimento. Apesar de apaixonadamente republicano,
era um homem de equilíbrio emocional notável – como o atesta o céle-
bre episódio em que ele absolveu monarquistas de terem misturado vidro
moído ao trigo destinado ao exército. Entretanto, votou pela execução de
Luís XVI. Contudo, sua cabeça esteve prestes a rolar antes da vitória do
exército francês sobre os invasores. A vitória não só salvou a França, mas
também a vida de Carnot. Conseguiu, assim, vencer todos os movimen-
tos revolucionários antagônicos. Tomou parte na Assembleia Nacional, de
onde passou à Assembleia Legislativa e à Convenção Nacional, e, depois,
ao Comitê de Segurança Pública, ao Conselho dos Quinhentos e, finalmen-
te, tomou parte do Diretório. Seu único fracasso político foi quando, em
1797, recusou-se a participar de um golpe de Estado contra o Diretório.
Foi banido e expulso do “Institut”.
Interessado, como o seu colega Monge, no ensino técnico-científico,
tomou parte ativa na organização da École Polytechnique, embora nunca
tenha sido lá professor. Mas quando foi afastado da política, escreveu suas
três obras notáveis: réflexion sur la métaphysique du calcul infinité-
simal, de 1797; de la correlation des figures de géométrie, de 1801;
e géométrie de position, de 1803, um clássico da Geometria pura. Talvez
o livro mais influente de Carnot tenha sido sua reflexion, pois por esse
livro é que se iniciou a introdução do rigor no Cálculo Infinitesimal, até
então considerado algo muito nebuloso.
O Grupo dos Três Ls, como é chamado o grupo de Lagrange, Laplace e
Legendre, não tomou parte militante na Revolução Francesa. Eles desem-

223
penharam funções técnicas e científicas em várias transformações levadas
a efeito pela Revolução, mas não atuaram como políticos. Entretanto, sua
atuação como matemáticos foi orientada bem de acordo com os ideais re-
volucionários, no sentido já delineado desde Voltaire, de trazer a Matemá-
tica à posição de instrumento para a resolução de problemas referentes ao
bem-estar do povo.
Há quem diga que a Matemática do século XVIII, inclusive a da Re-
volução, foi de transição entre a do século XVII – quando a ideia de que o
livro da natureza fora escrito em caracteres matemáticos, e que, para lê-lo,
teria sido necessária a instituição do Cálculo e da Geometria Analítica –
e a do século XIX – em que a tarefa dos matemáticos passou a ser a de
conferir rigor matemático à Análise Matemática, criada no século XVIII.
Mas ninguém pode negar que as obras de Lagrange, Laplace e Legendre
– apesar de seu aspecto utilitário para as ciências, especialmente a Física
e a Astronomia, e também para a Engenharia em bases científicas, que des-
pontava então – são monumentos de beleza formal, independentemente do
seu valor como verdade ou como instrumento.
Em suma, é certa a convicção que a “crença burguesa” de que tudo que
fosse feito pelo homem poderia ser realizado cientificamente encontrou
sua instituição pela Matemática da Revolução. Foi por meio dela que se
tornaram possíveis as aplicações do Cálculo e da Geometria aos proble-
mas de Engenharia. Mas de nenhuma maneira se pode negar a beleza des-
comprometida da mecanique analytique, da exposition du système du
monde ou da theorie analytyque des probabilités.
O fenômeno que aqui se está propondo chamar de “matematização da
natureza” está muito bem expresso nas obras dos Três Ls da Matemática
revolucionária. A primeira delas é a mecânica analítica, publicada em
178891, na qual Lagrange coloca os princípios da Mecânica, já estabele-
cidos anteriormente por Newton e D’Alembert, sob forma diferencial, e
propõe a solução de qualquer problema mecânico pela integração de equa-
ções diferenciais.
Na primeira parte do tratado, Lagrange estabelece como equação geral
da Estática, o próprio princípio dos trabalhos virtuais, colocado em forma
diferencial. Os deslocamentos virtuais – que ele chama de velocidades vir-
tuais – são expressos como diferenciais das trajetórias virtuais dos pontos
de aplicação das forças.
Se o sistema de forças em equilíbrio for referido a três eixos retangula-
91 LAGRANGE, J. L. Mécanique Analytique. Paris: Mallet-Bachelier, 1857.

224
res, sendo as coordenadas dos pontos de aplicação das forças (x, y, z) e as
componentes das forças aplicadas na direção dos três eixos (X, Y, Z), então
os deslocamentos virtuais serão diferenciais (dx, dy, dz). Assim, o sistema
estará em equilíbrio estático se a equação tornar-se:
(Xdx + Ydy +Zdz) = 0
Essa seria a equação fundamental da Estática, com o auxílio da qual se
poderia resolver todos os problemas estáticos.
Na segunda parte do tratado – a Dinâmica –, a fórmula fundamental
seria a equação diferencial, resultante da colocação sob forma diferencial
do princípio de D’Alembert – o qual, como já foi dito, é uma interpretação
do princípio dos trabalhos virtuais sob o ponto de vista dinâmico.
Se um sistema de forças aplicadas, como o mencionado, não estiver
em repouso, cada ponto material de massa m sofrerá uma aceleração cujas
componentes serão as derivadas segundas, em relação ao tempo, das coor-
denadas desses pontos. Disso resultarão forças de inércia (massas X ace-
leração) que atuarão como reações de inércia ao movimento. Então, é fá-
cil ver que a equação de equilíbrio acima mencionada se transformará na
equação fundamental da Dinâmica:
( X − max)dx + ( Y − may )dy + ( Z − maz )dz = 0
Agora, as forças de componentes X, Y, Z formarão um campo de forças
que deterá uma energia (capacidade de produzir trabalho) que é desdobra-
da em duas: uma energia potencial V (proveniente do nível energético de
posição dos seus pontos materiais) e uma energia cinética T (proveniente
da velocidade com que se movem seus pontos materiais) – função somen-
te das velocidades dos pontos materiais do sistema. Lagrange introduziu
uma nova função: a função de Lagrange L, igual à diferença entre as duas
( L = V − T ). Pois bem, por meio de operações matemáticas, a partir das
definições acima, Lagrange estabeleceu suas três equações diferenciais,
com o auxílio das quais tornou-se possível resolver analiticamente qual-
quer problema de Dinâmica.
São elas:
( )
e mais duas semelhantes para y e z.
O interessante é que essas equações são válidas para qualquer sistema
de coordenadas que se possa estabelecer.
Efetivamente, com essas equações, Lagrange resolve, a seguir, no seu

225
livro, problemas referentes aos sistemas de corpos livres, sujeitos à força
de atração entre si, e de corpos vinculados agindo uns sobre os outros
de uma maneira qualquer. Aplica depois suas equações aos problemas de
Hidrodinâmica referentes ao movimento de fluidos incompressíveis, com-
pressíveis ou elásticos. E assim fica estabelecida uma Mecânica Analíti-
ca. Isto é: uma forma de resolver os problemas da Mecânica a partir de
equações diferenciais – as quais poderão ser resolvidas pelos processos da
Análise.
Quando Laplace publicou, em 1796, sua exposition du système du
monde, o Terror tinha terminado e governava, a França, o Diretório. O
jovem general Bonaparte já se distinguia pela repressão de movimentos
tanto de extremistas revolucionários como de monarquistas, estabelecendo
um período livre de perturbações da ordem.
O livro de Laplace não é uma exposição matemática, mas sim, uma
dissertação ao alcance daqueles que não sabiam ler as equações que es-
tavam sendo estabelecidas na Mecânica, em relação ao movimento dos
astros. A obra inicia-se nos Livros I e II, com o estudo, sob base fenomeno-
lógica, dos movimentos aparentes e reais dos corpos celestes para chegar,
no Livro III, ao estabelecimento das leis do movimento e do equilíbrio
dos corpos. Expõe o princípio dos trabalhos virtuais e o de D’Alembert, e
rende homenagem a Lagrange dizendo:
Foi isso que Lagrange fez, e dessa maneira ele reduziu a pesquisa do movimento
de um sistema qualquer de corpos à integração de equações diferenciais. Desde
então, o objeto da Mecânica foi completado, e cabe à Análise pura avaliar a
solução dos problemas92.
Isto feito, Laplace tenta reconhecer as forças que animam o Sistema
Solar para chegar, no Livro IV, a uma teoria fenomenológica da Gravida-
de Universal. Finalmente, no último capítulo, tenta estender sua teoria da
gravitação universal à atração molecular – o que se demonstrou posterior-
mente totalmente descabido. E a obra termina num último Livro V, com
um sumário da história da Astronomia.
A célebre hipótese de Laplace sobre a origem do sistema solar a partir
de uma nebulosa primitiva (a mesma que a de Kant) não figura no texto
do livro. Ela aparece somente numa nota final. É uma conjetura de que
os planetas se formariam pela condensação de uma zona de vapor, como
que uma extensa atmosfera em torno do núcleo solar. Essa atmosfera seria
92 DE LAPLACE, M. M. Exposition du Système du Monde. Paris: Bachelier, Sixième
Edition, 1835.

226
posta em rotação pelo próprio movimento rotatório do Sol. Esse movimen-
to aqueceria o vapor por efeito do choque entre suas partículas. O movi-
mento de rotação aumentaria à medida que se fosse dando o resfriamento.
A atmosfera, assim em rotação, separar-se-ia em anéis, como mostra o
exemplo atual de Saturno; porém, as moléculas desses anéis continuariam
a circular em torno do Sol na medida em que suas forças centrífugas igua-
lassem seus pesos. Nesses anéis, certas zonas mais densas se romperiam,
mas continuariam a circular em torno do Sol, como globos. Nestes, se
formariam, por resfriamento, núcleos e atmosferas circulantes, os quais vi-
riam a formar os planetas e, por processo análogo, seus eventuais satélites.
Os cometas seriam corpos estranhos ao sistema solar, atraídos esporadica-
mente pela força gravitacional do Sol.
Depois disso, Laplace, embora não mostrando aptidões, foi ministro de
Napoleão e, na mesma época, o instituidor da teoria matemática das pro-
babilidades, com a sua theorie analytique des probabilités, publicada
em 1812. Mas a sua maior glória está na publicação dos cinco volumes
da mécanique céleste, que apareceram sucessivamente de 1799 a 1825.
Com as equações da Mecânica de Laplace foi possível explicar problemas
até então insolúveis, tais como: as perturbações nas órbitas de Saturno e
Júpiter – por influências mútuas –, e as acelerações de velocidade na tra-
jetória da Lua. Mostrou-se, assim, que os movimentos do Sistema Solar
eram autorreguláveis e, portanto, eternos.
Embora sua escola tivesse sido violentamente atacada depois da restau-
ração da monarquia em 1815, Laplace continuou sendo aquele que mostra-
ra ser o Sistema Solar dinamicamente estável. Não necessitava, portanto,
da intervenção divina para pô-lo em movimento nem para dar sentido à sua
origem ou finalidade. Sua teoria foi, portanto, um dos principais suportes
do materialismo mecanicista que sucedera ao newtonismo. Por outro lado,
é possível entender as conclusões de Laplace como confirmação da justifi-
cação kantiana dos limites do conhecimento objetivo. Isto é, que as ques-
tões de origem e finalidade estariam fora do conhecimento: não poderiam
nem ser afirmadas nem negadas.
Uma outra contribuição importante de Laplace foi o estabelecimento
da equação diferencial que leva seu nome. É uma equação que descreve
todo fenômeno de fluxo contínuo, em que a intensidade da corrente que
flui é proporcional ao potencial que a faz fluir. Vários fenômenos físicos,
entre eles o do fluxo de água através de um meio permeável, são descritos
por essa equação. Desde Euler e D’Alembert, já tinham aparecido várias
outras equações diferenciais capazes de descrever fenômenos da natureza,

227
entre elas, por exemplo, a das cordas vibrantes, capaz de descrever fenô-
menos de vibrações ou ondulatórios. Mas apesar de os fenômenos da natu-
reza serem incontáveis, as equações diferenciais não são muitas. Cada uma
delas se aplica a vários fenômenos diferentes, uma vez que a teoria sobre
o fenômeno será a conjugação de uma parte formal (a equação) com uma
parte significativa (o significado físico dos símbolos da equação). Assim, a
mesma equação poderá reger fenômenos diferentes, pois em cada um deles
os significados dos símbolos formais serão diferentes.
Desde então, o problema dos físicos é o de encontrar uma equação
diferencial que descreva o fenômeno pesquisado. Uma vez encontrada a
equação, segue-se o trabalho quase mecânico de integrá-la dentro das con-
dições de limites em que o fenômeno aparece. Por meio de tal operação
de integração pode-se calcular o que ocorrerá em dadas circunstâncias e,
então, armar uma experiência que simule estas circunstâncias e medir ou
observar o que acontece. Se o que foi observado na experiência concordar
com os resultados dos cálculos, a teoria estará correta.
Note-se que as equações diferenciais, conjugando em si Geometria e
Aritmética, vêm reforçar o ideal kantiano do conhecimento dos fenômenos
a partir de princípios a priori das Matemáticas. Porém, não se pode preten-
der que a simples expressão matemática defina os fenômenos: é necessá-
rio, ainda, que se atribuam significados físicos aos símbolos matemáticos.
Contudo, se a experiência é a fonte, o conhecimento científico será a
expressão matemática que lhe confere unidade sintética.
Toda a dificuldade está, entretanto, em que nem todas as equações dife-
renciais têm solução conhecida ou podem ser integradas analiticamente. Por
outro lado, as soluções devem todas obedecer às condições de limites, o que
só é fácil de conseguir quando essas são simples. Na maioria dos problemas
da prática, tais condições são complexas e irregulares. Daí o fato de as solu-
ções das equações diferenciais só se adaptarem a casos muito esquemáticos
e de os casos reais ficarem fora de solução ou serem esquematizados para
se enquadrarem em esquemas às vezes muito longe do real. Essa é uma das
razões pelas quais o cálculo analítico tão bem-sucedido, por exemplo, nos
cálculos astronômicos – pois nesses as condições de limites são simples –,
não conseguiu sucesso completo nos problemas tecnológicos. Essa dificul-
dade só foi resolvida muito mais tarde, com o advento do Cálculo Numérico
das equações sem necessidade da sua integração analítica.
Como é muito bem conhecido, a teoria da gravitação universal baseada
na Mecânica Analítica, foi verificada cerca de 50 anos depois do advento

228
das teorias de Lagrange e Laplace por Le Verrier, professor da École Poly-
technique, o qual tinha feito cálculos extensivos sobre as perturbações nas
órbitas do planeta Urano com base nas equações de Mecânica Analítica.
Desses cálculos resultou a massa e a posição de um planeta extraurânico.
O astrônomo Galle observou o planeta desconhecido, que veio a se chamar
Netuno.
Desde então, ficou patente que uma teoria, embora matematicamente
correta, irá adquirindo veracidade cada vez maior à medida que vai sendo
verificada por previsões comprovadas experimentalmente. Portanto, a ver-
dade de uma teoria científica é sempre relativa às condições e à variedade
de situações em que foi verificada.
Por outro lado, percebeu-se que a expressão matemática dos fenôme-
nos naturais não se restringia àquilo que já era conhecido. Essas expres-
sões poderiam revelar fenômenos ainda não percebidos.
Esse fato é comentadíssimo na História da Ciência, como exemplo de
verificação definitiva de uma teoria já estabelecida. O que, porém, não é
mencionado, é que, em 1855, o mesmo Le Verrier retomou o problema de
explicar as perturbações na órbita de Mercúrio. Ele postulou a existência
de um anel de asteroides entre esse planeta e o Sol. Houve a notícia de que
um astrônomo amador teria encontrado um desses asteroides maiores –
que foi imediatamente denominado Vulcão. Porém, tal descoberta não foi
confirmada. Assim, ficou claro que as previsões matemáticas podem não
ser confirmadas pela experiência.
A anomalia na órbita de Mercúrio consiste num avanço do seu periélio
superior ao que seria produzido pelos outros planetas. O avanço do pe-
riélio observado é de 10 minutos por século, enquanto que, por cálculo,
ele deveria ser de apenas 9,5. O resíduo de exatamente 35 segundos por
século não pode ser explicado pela teoria de Newton. Somente em 1915
essa anomalia da órbita de Mercúrio veio a ser explicada pela Teoria Geral
da Relatividade de Einstein. O que veio a ser exemplo de que uma sólida
teoria, perfeitamente verificada, necessita muitas vezes ser complementa-
da por uma teoria mais geral. Contudo, a teoria de Newton continua sendo
válida para todas as condições em que foi verificada.

f) O rigor da Matemática
O século XIX foi o da preocupação, por parte dos matemáticos, com o
rigor da sua ciência. O desenvolvimento da Análise Diferencial chamava
a atenção dos matemáticos para a justificação rigorosa de seus princípios.

229
Havia uma Matemática Abstrata, de interesse próprio dos matemáticos, e
uma Matemática Concreta, a qual, através da Mecânica Analítica, seria o
instrumento da matematização da natureza.
Quem primeiro preocupou-se com o aprimoramento do rigor matemá-
tico foi Carl Friedrich Gauss (1777-1855), pois declarou que só publicaria
suas descobertas depois que elas amadurecessem até a perfeição. Pauca
sed matura era seu lema. Em sua tese de doutorado pela Universidade de
Helmstedt, em 1798, já desenvolvera o conceito de números imaginários
e complexos, embora a representação gráfica dos números complexos já
tivesse sido descoberta anteriormente. A partir de sua tese, desenvolveu
uma teoria geral dos números, publicada sob o título de disquisitiones
arithmeticae em 1801.
Em 1827, Gauss iniciou um novo ramo da Geometria: a Geometria Di-
ferencial. Em suas disquisitiones generales circa superficies curvas,
Gauss introduz o estudo analítico das superfícies concentrando-se no estu-
do das propriedades das curvas ou das superfícies em torno de um ponto,
definindo sua curvatura e as propriedades de famílias de curvas, traçadas
sobre a superfície, em termos de derivadas parciais.
A contribuição de Gauss para a análise dos fenômenos da natureza deu-
-se, também, na teoria dos campos de força gravitacionais, elétricos e mag-
néticos, com sua definição precisa dos potenciais, das curvas equipotenciais e
das linhas de forças. Na fórmula que tem o seu nome (em geral associado aos
de Green e Stokes) define-se um fluxo, através de uma superfície fechada,
num campo de força. A correlação entre a Análise Matemática dos campos
de força e a Geometria Diferencial foi evidenciada nas aulas de um sucessor
de Gauss em Göttingen: Georg Friedrich Bernhard Riemann (1826-1866) e
publicada em seu livro gravidade, eletricidade e magnetismo.
Outro matemático que muito contribuiu para o aperfeiçoamento do ri-
gor matemático foi Augustin-Louis Cauchy (1789-1857), principalmente
no que se refere aos conceitos de limite e de derivada, como limite da rela-
ção entre o incremento da função e o da variável, quando esse se avizinha
de zero, diferindo desse tão pouco quanto se queira. Cauchy deu rigor à
teoria dos determinantes e à das funções a variáveis complexas.
Niels Henrik Abel (1802-1829), Carl Gustave Jacob Jacobi (1804-
1851), Bernhard Bolzano (1781-1848) e Jean-Victor Poncelet (1788-1867)
são os principais artífices do rigor matemático, sem o qual o processo de
matematização da natureza teria estancado, principalmente no que diz res-
peito às transformações matemáticas que levam a resultados insuspeitados.

230
O surgimento das Geometrias não euclidianas, por exemplo, muito
deve aos trabalhos de Gauss e de Riemann na Matemática Abstrata, embo-
ra simultaneamente ela tenha surgido num contexto distante dos círculos
europeus. Nicolai Lobachevsky pronunciou, em 1826, uma conferência
sobre a demonstração rigorosa do teorema das paralelas. Tudo faz crer que
ele acreditava ser possível provar o postulado de Euclides, entretanto, pu-
blicou em 1829 seu artigo Sobre os princípios da Geometria, pelo qual
mostrava que era possível organizar uma “Geometria Imaginária” sem
contradições lógicas, com base na postulação de que, por um ponto fora de
uma reta, seria possível traçarem-se inúmeras paralelas.
Gauss tinha um amigo: Farkas Bolyai, cujo filho, János Bolyai (1802-
1860), também se esforçava para resolver o problema das paralelas. Ao
mesmo tempo que Lobachevsky concluiu pela impossibilidade da prova
do postulado de Euclides e desenvolveu uma “Ciência Absoluta do Espa-
ço”, nas mesmas bases que a do matemático russo.
Em 1854, Riemann, na sua tese de livre-docência na Universidade de
Göttingen, seguiu as ideias não publicadas de Gauss, sob o título sobre as
hipóteses dos fundamentos da geometria, e propôs que se entendessem as
Geometrias como estudos de espaços quaisquer, curvos ou pluridimensionais
com base na expressão da distância infinitesimal entre dois pontos próximos.
Observe-se que um modelo desse espaço é a superfície de uma esfera,
na qual uma reta corresponde a um círculo máximo, pois, por um ponto
dado fora do círculo máximo, não é possível traçar outro círculo máximo
que não corte o primeiro nos polos. Na superfície esférica, a soma dos
ângulos de um triângulo é maior que dois ângulos retos, enquanto que, na
Geometria de Lobachevsky, ela é menor.
Um outro ramo da Matemática em cujo texto o rigor foi introduzido
no século XIX, foi o da Análise Probabilística. Os inventores do Cálculo
das Probabilidades foram Pascal e Fermat, numa época em que já “havia
razões que a própria razão desconhecia”, porém não se dispunha de instru-
mentação adequada para analisá-las. Em 1657, Huygens publicara o seu
de ratiociniis in ludo aleae, no qual procurava-se encontrar alguma ra-
cionalidade no que acontecia no jogo de dados. A teoria das probabilidades
começa a adquirir forma matemática elaborada em 1718, com o trabalho
de De Moivre, the doctrine of chances or a method of calculating
the probability of events in play.
Em 1785, Condorcet publica seu essai sur l’application de l’analyse
à la probabilité des décisions redues à la pluralité de voix. Contudo,

231
é ainda algo que foge à descrição dos fenômenos naturais. Só quando, em
1812, Laplace publica a sua théorie analytique des probabilités, é que
se começa a entender as probabilidades como aptas para a análise desses
fenômenos.
Dois anos depois da publicação de sua teoria analítica, Laplace publi-
cou seu ensaio filosófico sobre as probabilidades, em que declara sua
crença num determinismo radical na célebre passagem em que diz que se
houvesse uma inteligência perfeita que dispusesse de todos os dados que
animam num determinado momento a natureza, poderia com precisão pre-
ver tanto o futuro como descrever o passado93. Porém, como não existe tal
inteligência, julga acertado recorrer às probabilidades para escolher entre
várias causas possíveis a mais provável. Portanto, para ele não há acaso na
natureza. Há somente ignorância dos homens no seu conhecimento.
Contudo, as probabilidades vêm a ser aplicadas à análise da natureza
como teoria dos erros, isto é, desvios em torno da média de medidas de
grandezas naturais. É assim que elas aparecem na célebre fórmula chapeau
de gendarme, de Gauss. Com isso, o puro acaso passa a ter vigência na
natureza.
Entrementes, William Rowan Hamilton (1805-1865) publica, em 1835,
seu trabalho sobre um método geral em dinâmica, no qual introduz sua
função H (soma da energia potencial, função das coordenadas do ponto
material, e da energia cinética, função dos movimentos desse ponto). As
variáveis da função H foram posteriormente generalizadas em qi, coorde-
nadas espaciais, e pi, componentes dos movimentos. H(qi, pi) veio a ser
considerada função de ponto de um espaço 2i – dimensional, que tomou o
nome de “espaço-fase” e é expressa pelas equações:

as quais vieram a ter um papel importante não só no desenvolvimento


da Mecânica Analítica, mas principalmente, na futura Mecânica Quântica.
Depois de sua morte, foram publicados, em 1866, seus elementos dos
quatérnios, nos quais Hamilton introduz um novo ente matemático: os
“quartérnios”, conjuntos ordenados de quatro números, satisfazendo re-
gras de igualdade, adição e multiplicação capazes de representar quanti-
dades com grandeza e direção no espaço a três dimensões. O valor dessa
descoberta, a princípio, diz respeito somente à Matemática pura, porém,
93 DE LAPLACE Pierre-Simon. Ensayo Filosofico sobre las Probabilidades. Madri:
Alianza Editorial, 1985.

232
foi a sua versão, simplificada por J. Willard Gibbs, que veio a se tornar o
Cálculo Vetorial, amplamente adotado tanto na Mecânica Analítica e suas
aplicações na Física, como na Engenharia.
Os vetores representam quantidades físicas que requerem tanto gran-
deza como direção, por exemplo: força ou velocidade. Eles podem ser
expressos por componentes: xi + yj + zk, onde i, j e k são vetores unitários
nas três direções cartesianas. Costuma-se indicar os vetores por uma fle-
cha grafada acima da letra. Definindo-se as operações elementares com os
vetores formou-se a Álgebra Vetorial. Da mesma maneira, definindo-se os
diferenciais de vetores, formou-se o Cálculo Vetorial.
No final do século XIX, percebeu-se que muitas quantidades físicas es-
tabeleciam correspondência entre vetores. Por exemplo, as pressões atuan-
tes num corpo e as respectivas deformações. Essas foram chamadas de
tensores. Com elas desenvolveu-se o Cálculo Tensorial, o qual iria permitir
a Einstein sua análise do espaço-tempo quadridimensional e curvo.
O processo de atribuir rigor à Matemática não se restringiu à concepção
rigorosa dos entes e demonstrações matemáticas. Eles vieram, no final do
século XIX e início do XX, a dar origem às especulações lógicas sobre os
próprios fundamentos da Matemática. O aparecimento das Geometrias não
euclidianas mostrou a possibilidade de sistemas matemáticos baseados em
axiomas não necessariamente evidentes por si próprios, mas simplesmen-
te admitidos como hipóteses arbitrárias. Dessa forma, nasceu a ideia dos
sistemas matemáticos formais, sem significado físico, porém coerentes e
consistentes. Por outro lado, a partir dos anos 70 do século XIX, Georg
Cantor (1845-1918) desenvolveu a Teoria dos Conjuntos que, mais tarde
veio a se constituir como teoria básica de toda a Matemática. Por exemplo,
o lógico e matemático F. L. G. Frege (1848-1925) propôs a definição de
número cardinal como conjunto de todos os conjuntos correspondentes:
unitários, pares, triplos etc. O aparecimento de antinomias no estudo dos
conjuntos veio a perturbar, porém finalizou por esclarecer os fundamentos
da Matemática.
Não é provável, entretanto, que tais investigações lógico-matemáticas
tenham grande influência sobre o processo de matematização da natureza
que se está estudando, pois a expressão matemática dos fenômenos na-
turais empresta às equações matemáticas correspondentes um significado
empírico independente do seu formalismo. Entretanto, não há dúvida que
sem tais investigações seria difícil entender o significado de teorias físicas
avançadas, tais como as da Relatividade e da Mecânica Quântica.

233
234
VIII – A REAÇÃO ROMÂNTICA CONTRA
O MATEMATICISMO

a) A História Natural
No final do século XVIII, as ciências físico-matemáticas já estavam
perfeitamente elaboradas filosoficamente. As suas condições de possibili-
dade, como o saber objetivo em bases matemáticas, tinham sido perfeita-
mente estabelecidas pelo kantismo. Entretanto, elas se baseavam, como já
fizemos ver anteriormente, sobre a ideia da natureza como máquina. Ora,
há um fenômeno na natureza que se recusa a ser abrangido pela ideia do
maquinismo. É a vida – a qual se rebela contra qualquer tentativa de ma-
tematização.
É verdade que a Anatomia já se vinha desenvolvendo, paralelamente
à Física, desde o século XVII. William Harvey (1578-1657) imaginara e
explicara o sistema circulatório dos animais como um sistema hidráulico
de bombas e tubos comunicantes. Giovanni Alfonso Borelli (1608-1679)
publicara um livro, de motu animalium, no qual o movimento dos ani-
mais era visto como o de um mecanismo constituído pelo sistema muscu-
lar e pelo esqueleto, considerados como sistema de alavancas e forças em
equilíbrio. Sob esse ponto de vista, os animais eram, como queria Descar-
tes, máquinas maravilhosas, mas destituídas de qualquer consciência que
fosse, além disso, sem nenhuma possibilidade de demonstrarem nada de
semelhante a qualquer coisa do tipo de uma energia vital.
Para que o campo da ciência se ampliasse abrangendo a vida, seria
necessário, antes de mais nada, que a ideia de natureza como máquina fos-
se substituída por outra, na qual o fluir da vida estivesse presente. É bem
possível que essa nova ideia já tivesse surgido ao longo do século XVIII,
com a atenção e pesquisas dos fenômenos químicos e elétricos. Em ambos
estes gêneros de fenômenos já não é mais possível visualizarem-se má-
quinas operando, mas é necessário vê-los como transformação de estado a
estado, na qual subjaz uma substância como suporte da transformação, ou
como um fluir ao longo do tempo de algo que não é definível somente no
espaço: um processo.
A nova ideia de natureza firmou-se mais ainda com os primeiros “natu-
ralistas” do século XVIII, isto é, com aqueles homens que dedicaram seus
estudos à natureza, compreendida como o mundo dos minerais, vegetais
e animais, e não como o teatro da realização de leis matemáticas. Foi-se

235
distinguindo, sob o nome de “História Natural”, esse campo de conheci-
mentos, em que a ideia de natureza, como algo que se processa ao longo
do tempo e do espaço, surgiu mais nitidamente.
histoire naturelle é o título de uma obra em 36 volumes publicada
durante toda a vida (e mais oito volumes póstumos) do biólogo e divul-
gador de ciência Georges Louis Leclerc (1707-1788), conde de Buffon. A
obra iniciava-se com a formação da Terra. Seguia-se a descrição das raças
humanas e suas correlações com o clima das várias regiões que habitam.
Em seguida, uma descrição detalhada de todos os animais domésticos em
termos de sua utilização ou relação com os homens. Os animais selva-
gens são apresentados em referência a seus hábitos e regiões geográficas
que habitam e classificados segundo seus tamanhos e cores. Tudo mais ou
menos no estilo enciclopédico da história natural de Plínio, o Velho (c.
23-70 d.C.), cobrindo Geografia, Etimologia, Zoologia, Botânica e Mine-
ralogia, muito mais para o gosto popular que científico.
Buffon foi também quem, pela primeira vez, escreveu uma “História
da Terra”, em sua époques de la nature, publicada em 1778, na qual
as idades geológicas e o aparecimento dos animais se sucediam em sete
épocas, sobrepondo-se em camadas geológicas a partir da primeira, quan-
do há cerca de quarenta milênios a Terra estava em incandescência. Após
consolidação gradual e o aparecimento dos vapores atmosféricos, aparece
o primitivo oceano universal e os continentes. A vida começa nas águas há
cerca de 20 mil anos. Depois de violentas convulsões telúricas restabelece-
-se a calma e floresce a vida nas regiões polares, na quinta época. Final-
mente, o homem afirma seu domínio sobre a natureza na sétima época – a
qual continuará até que se extinga a vida com o esfriamento da Terra.
Carolus Linnaeus (1707-1778) já tinha publicado, em 1735, o seu sys-
tema naturae e uma classificação das plantas baseada numa caracterís-
tica: seus órgãos sexuais. Embora Linnaeus não fosse, de forma alguma,
um evolucionista, a sua obra colocava um “parentesco” entre as diversas
espécies e os gêneros de plantas. A sua philosophia botanica, publicada
em 1751, tinha estabelecido o método baconiano das classificações como
o mais adaptado ao estudo da “História Natural”. Ora, esse método sugere
que a natureza organiza os seus entes em classes, as quais mantêm entre si
uma ordem, como se fosse um trânsito das mais simples às mais complexas.
Um passo para a ideia de evolução foi dado pelo naturalista e filósofo
suíço Charles Bonnet (1720-1793), quando publicou seu trabalho, con-
siderations sur les corps organisés, em 1762, no qual procura mos-
trar que cada organismo contém uma série de indivíduos pré-formados.

236
Assim, os seres vivos teriam sido concebidos e formados segundo um pla-
no idêntico e único, todos tendo como finalidade um “protótipo” que seria
o homem. Todo organismo estaria, assim, pré-formado no primordium – o
germe masculino e feminino. Baseado em interpretações de imagens mi-
croscópicas, afirmava que o germe original mostra as formas definitivas
do indivíduo adulto. Em 1769, no seu tratado la palingénésie philoso-
phique, desenvolveu uma teoria catastrófica da evolução com base no en-
contro de fósseis de espécies extintas. A palingenesia é a capacidade de
renascer das próprias cinzas, como a fênix da lenda.
Entrementes, se desenvolvia a Geologia, que, durante o século XVII,
não passava de um compêndio de fatos ligados à mineração e à pesquisa
de jazidas de argila para a cerâmica, de areia para a fabricação de vidro, e
de sal para a cozinha. Abraham Werner (1750-1817) – professor na Escola
de Minas de Freiburg desde 1775 – foi um dos primeiros a sintetizar os
conhecimentos geológicos pela teoria que supunha um grande oceano pri-
mitivo a partir do qual se tinham cristalizado certas rochas, ou precipitado
certas outras a partir de substâncias nele dissolvidas, ou, ainda, sedimen-
tado outras a partir de substâncias em suspensão. A princípio, teriam se
cristalizado as rochas primitivas, como o granito, ou, ainda, precipitado
outras, como os calcários. Depois se tinham formado as rochas sedimen-
tares, como os arenitos. Nas rochas primárias não eram encontrados fós-
seis. Nas secundárias, havia animais marítimos presos nos sedimentos das
areias ou na argila em suspensão no oceano primitivo. Finalmente, as ca-
madas de areia ou de argila recentes, nas quais se encontravam fósseis de
mamíferos, haviam sido derivadas de erosão e sedimentação posterior das
praias do grande mar. Para Werner, os vulcões eram acidentes geológicos
sem importância maior, pois que mostravam simplesmente que, no centro
da Terra, havia grandes depósitos de carvão em combustão.
Em oposição ao ponto de vista de Werner, que se chamou na época
“neptunista”, apareceu o sistema geológico de James Hutton (1726-1797).
Publicou ele, em 1795, a sua “Teoria da Terra”, na qual defende o ponto de
vista de que a observação da atividade vulcânica atual poderia explicar a
formação do planeta, embora reconhecesse também a ação violenta da ero-
são pelas águas. As rochas primitivas cristalinas teriam sido formadas por
ação do calor no interior da Terra, enquanto as sedimentares eram resultado
da ação das águas e da sedimentação, combinadas com a ação do calor e
da pressão das camadas sobrepostas. O interior da Terra seria formado por
lava em fusão e os vulcões seriam orifícios da crosta solidificada por onde
escorria a lava interior. Era a teoria “vulcanista”. Por essa última, a ação
geológica teria atuado no passado e depois cessado, devido a um misterioso

237
recuo do oceano primitivo. De acordo com a primeira teoria, as forças geo-
lógicas eram contínuas e estavam atuando ainda em nosso tempo.
Entretanto, todas essas teorias sobre a natureza ainda se filiavam, de
uma forma ou de outra, ao mecanicismo iluminista do século XVIII, o que,
de certa forma, impedia a compreensão da natureza como um processo e,
portanto, impedia também o desenvolvimento das ciências da vida. A ideia
da natureza como máquina só teve um fim de fato com o romantismo, que
apareceu, em parte, como oposição à Revolução Francesa, e, em parte,
como decorrência dela.
A ação de alguns dos chefes revolucionários não foi “racional e natu-
ralmente boa” como desejava o Iluminismo. Pelo contrário, apareceram
homens na Revolução cuja ação era passional, embora de uma forma bem
sui generis. Isso porque a Revolução Francesa não foi somente uma mu-
dança de regime político. Ela implicou, ou, se quiserem, foi implicada,
uma radical mudança no curso das coisas. Com efeito, mais ou menos na
mesma época, em vários países da Europa, apareceu uma nova “maneira
de ser”, uma nova norma de conduta, de estilo de vida ou, simplesmente,
de estilo, que se convencionou chamar de “romantismo”. Porém, a forma
antiga “clara e precisa” de agir ou de pensar, que posteriormente veio a se
chamar de “clássica”, não desapareceu. Toda a Arte, a Literatura, a Filoso-
fia, e até mesmo a Ciência, foram desde então divididas em dois estilos que
se sucederam, se alternaram, ou mesmo coexistiram durante todo o século
XIX. E ainda persistiram, embora atenuadas, no século XX. Assim, tam-
bém nas Ciências, permaneceu o materialismo mecanicista como forma
clássica, ao lado de uma reação romântica contra ele.
Seria extremamente difícil distinguir exatamente entre românticos e
clássicos. Entretanto, seria útil tentar sustentar a ideia de que a raiz da dife-
rença entre essas duas tendências está em conceitos diferentes da verdade.
Enquanto para o clássico a verdade seria sempre uma clara e precisa ade-
quação do pensamento à realidade, para o romântico, seria a verdade algo
inerente à revelação do próprio ser das coisas. O poeta inglês da época,
John Keats (1795-1821), na sua “Ode a uma Urna Grega”, concluiu que
verdade é beleza e beleza é verdade, definiu essa ideia romântica de que
há um “ser verdadeiro”, anterior a qualquer possível adequação que lhe foi
revelado pela poesia, através da visão de uma urna grega.

b) Goethe e a ciência da natureza


Na mesma época em que a Matemática clássica tornava possível tanto
a análise dos fenômenos naturais, como a solução de intrincados proble-

238
mas técnicos, na Alemanha, surgia um movimento artístico de natureza
romântica que reagia contra o domínio da ideia de que o “ser verdadeiro”,
não só a natureza, mas também a cultura, pudesse ser alcançado matema-
ticamente, pois que a natureza não era uma máquina, cujas leis seriam as
da Mecânica Racional.
Para os românticos, a natureza é considerada como dominada por for-
ças correspondentes ao eterno conflito entre o bem e o mal, as quais não
admitem explicação nem pela Matemática nem pela Lógica formal. A ex-
pressão desse movimento chamou-se Sturm und Drang e foi iniciada pela
peça teatral de mesmo nome, estreada em 1776. Seus seguidores rebela-
vam-se contra os padrões racionais do pensamento e da moralidade pudi-
ca da geração anterior. Adotaram a inteira liberdade de criação e a plena
expressão dos sentimentos. Glorificavam as supremas qualidades físicas
e emocionais dos heróis. Admiravam Shakespeare e detestavam o teatro
clássico francês.
O poeta Johann Wolfgang von Goethe (1749-1832) e seu amigo Johann
Christoph Friedrich von Schiller (1759-1805), na mocidade, tinham sido
os principais mentores e críticos desse movimento. São dessa época o pri-
meiro grande romance de Goethe, werther, e a peça de Schiller, os sal-
teadores, ambos fiéis ao espírito de Sturm und Drang.
Foi Goethe, com seus estudos botânicos, um dos primeiros que ade-
riram à ideia de natureza como processo evolutivo. Segundo Cassirer94,
“Goethe completou a transição da visão genérica anterior para a moder-
na visão genética da natureza orgânica”. Isto é, da natureza vista como
coleção de objetos classificáveis, à maneira de Linneu, para a atual visão
evolutiva. Rebelava-se ele contra o que chamava “seca e desalmada ciência
newtoniana”, incapaz de abordar convenientemente o problema da vida.
Como, entretanto, é possível entender sua própria afirmação, de que seguia,
em suas investigações científicas, uma trajetória semelhante à de Kant?
Não fora Kant quem se apoiara clara e notoriamente na ciência newtoniana
para escrever sua crítica da razão pura? Não fora Kant quem exigira
que a Matemática se estabelecesse como a priori de todo conhecimento?
Entretanto, Goethe rejeitava essa ideia afirmando que a vida só poderia ser
conhecida com amor e reverência. Como teria sido possível um tal encon-
tro? É que Goethe não se referia ao Kant da crítica da razão pura.
É verdade que Kant, desde sua mocidade, admitira uma “História
Natural” quando, em 1755, publicou sua allgemeine naturgeschichte
94 CASSIRER, E. Rousseau, Kant, Goethe. Princeton: Princeton University Press,
1945.

239
und theorie des himmels. Trata-se de uma generalização da teoria de
Newton para explicar a origem do universo. Mas é já uma antevisão da
natureza como processo evolutivo. Poder-se-ia concluir que, no pensa-
mento de Kant, desde o início já existia a ideia de natureza como síntese
do princípio mecanicista da causa eficiente com o teleológico da causa
final. A evolução, em si mesma, teria um conceito finalista, porém, pres-
supondo a unidade dos fenômenos em evolução que, ao se transformarem,
mantinham-se a si mesmos. Mas, ao mesmo tempo, seria preciso explicá-
-los casualmente, em cada um dos seus estágios, para que formassem uma
sucessão ordenada ao correr do tempo. Aí haveria um ponto de contato
entre as duas mentalidades. Para ambas, o conhecimento objetivo far-se-
-ia através dos dados da sensibilidade, ordenados pela razão. Haveria,
contudo, uma urgência na razão humana de ir além do que simplesmente
é percebido. A razão insistiria em perseguir uma realidade inalcançável
pelos sentidos humanos. Essa jamais poderia ser conhecida objetivamen-
te, mas deveria ser respeitada.
Por tudo isso, não foi a crítica da razão pura que empolgou a Goe-
the, mas sim a crítica do juízo, publicada em 1790, no mesmo ano em
que ele deu à luz a sua metamorfose das plantas.Nessa última crítica,
Kant estabelece a correlação entre o conhecimento objetivo, como justifi-
cado na primeira, e a compreensão das ideias transcendentes à experiência,
conforme a sua crítica da razão prática. Com a publicação da razão
prática, a realidade ficara cindida entre o domínio da teoria, no qual impe-
rava o conhecimento, e o da moral, no qual a liberdade se impunha.
Mas em ambas essas regiões a declaração de que algo é efetivamente
real é feita pela proclamação de um juízo. É o juízo que estabelece o que
é real, seja ele natural ou moral. Pois bem, na sua crítica do juízo, Kant
parte da ideia de que a “adequação de algo a um fim” é um princípio a
priori que rege a formulação de juízos. Diz ele: “o conceito de um objeto,
enquanto compreendendo a razão da realidade desse objeto, se chama fim”.
Assim, a finalidade é um princípio que assegura, na formulação dos juízos,
a coordenação das partes num todo múltiplo para formar uma unidade.
O que deve ter agradado a Goethe é que a crítica do juízo é dividida
em duas partes. A primeira é sobre o juízo estético, ou a faculdade de jul-
gar o belo, e a segunda é sobre o juízo teleológico, pelo qual se constata a
harmonia da natureza. Ora, essa unidade entre a Arte e a Ciência Natural
é própria da mentalidade goetheana. Tanto Kant como Goethe aceitariam,
sem dúvida, a asserção de Cassirer: “A antinomia entre o conceito teleoló-
gico e o conceito causal desaparece quando conhecemos ambos como dois

240
modos de ordenação com os quais pretendemos pôr unidade na multiplici-
dade dos fenômenos”95.
A crítica do juízo termina com a análise da natureza viva. Nessa,
as partes não seriam compreendidas senão quando a finalidade do todo o
fosse. A própria existência de organismos vivos suporia uma finalidade
que não se encontraria no conhecimento objetivo de seus órgãos. Esses po-
deriam ser entendidos mecanicamente, mas o organismo só o seria como
finalidade. Entretanto, é necessário compreender que a finalidade de Kant
não é intrínseca à natureza. Ela é uma categoria da razão que molda nossos
juízos. A natureza, em si, não teria finalidade alguma. Nosso entendimento
impõe à natureza uma intenção finalista, mas disso não se pode concluir
sobre a existência de um ser suprassensível: Deus, o qual exerça essa in-
tenção. Contudo, o pensamento quer ir além e pensar, por analogia, esse
Ente, mas não poderá nunca conhecê-lo teoricamente.
Não há dúvida que a leitura da crítica do juízo tenha influenciado
Goethe na formulação final de sua ciência da natureza. Contudo, de forma
alguma se poderá afirmar uma dependência direta. Suas ideias devem ter
tido início por volta de 1780, antes de ele conhecer Kant. Nos seus afo-
rismos, sob o título die natur (1780), refere-se poeticamente à natureza
como um ser feminino que vive numa multidão de filhos, mas que neles
ela, a própria mãe, não se percebe. “Ela cria eternamente formas novas: o
que é, nunca foi; o que foi, não voltará. Tudo é novo e, no entanto, é sem-
pre velho”. Nesses aforismos, em que Goethe descreve a natureza como
um processo contínuo de vida, no qual a morte é “seu artifício para ser
mais vida”, surge a ideia da sequência de fenômenos discutíveis isolada-
mente, porém exigindo a ideia de que perfazem um todo harmonioso.
Foi nessa época (1776-1786) que Goethe dedicou-se com paixão ao
estudo da Botânica. Leu atentamente a philosophia botanica de Linneu,
procurando nela encontrar, além do relato minucioso das espécies e de
seus órgãos, “uma forma única, básica, que transparecesse na multidão
infinita dos indivíduos vegetais”96. Cada vez mais firma-se seu conceito
de que um organismo só pode ser entendido em seu processo de transfor-
mação, movimento em si. Mas há que haver algo nesse movimento que
mantenha a unidade em transformação.
No seu relato sobre sua viagem à Itália, publicado em 1786 (italie-
nische reise), conta como encontrou plantas da mesma espécie transfor-
95 CASSIRER, E. Kant: Vida e Doctrina. México e Buenos Aires: Fondo de Cultura
Económica, 1948.
96 STEINER, R. A Obra Científica de Goethe. São Paulo: Editora Antroposófica, 1984.

241
madas por diferentes efeitos climáticos e topográficos. Já era então sua
intenção encontrar uma forma originária a partir da qual a planta assumiria
os vários aspectos que adquiriria transformando-se. Segundo Steiner, foi
no Jardim Botânico de Pádua “que se lhe tornou mais vivo o pensamento
de que talvez todas as formas vegetais possam ser desenvolvidas a partir
de uma só: ‘Ela tem de existir!’ Se não, como poderia reconhecer que esta
ou aquela formação seja uma planta, se elas não fossem todas estruturadas
de acordo com um modelo?” Esses relatos de observações, feitas durante
viagens, fazem-nos conjeturar sobre o método de Goethe. Seria ele sim-
plesmente empírico ou iria além do empirismo, numa forma que, hoje em
dia, se chama fenomenológica? A resposta a essa pergunta pode ser encon-
trada no ensaio de Goethe, a experiência como mediadora entre objeto
e sujeito97, de 1793. É de se notar, entretanto, que nesse ensaio, Goethe
refere-se mais aos seus experimentos no campo da Ótica que às suas ob-
servações botânicas.
À primeira vista, parece que Goethe defende um método experimental
empírico, em que a observação seria feita não em relação aos desejos e
preferências do observador, mas aos objetos relacionados a si mesmos ou
a outros objetos, de forma a chegar a conceitos claros sobre eles. Além
disso, a experiência deve poder ser repetida a qualquer momento e tantas
vezes quanto se queira. Entretanto, há forças criadoras do espírito “pelas
quais estas experiências são compreendidas, reunidas, ordenadas e desen-
volvidas”. Contudo, é de se compreender
[...] o perigo que corremos quando queremos combinar uma experiência com
uma ideia preconcebida ou queremos provar, por meio de experimentos, uma
relação qualquer que não seja totalmente sensorial, mas que a força formadora
do espírito já tenha expressado.
Assim, a pesquisa experimental deve ser repetida, descrita e contada
a outros pesquisadores desde o seu início, a fim de evitar que ela esteja
espelhando uma simples antecipação de opinião pessoal.
Porém, a análise atenta dos ensaios científicos de Goethe nega esse em-
pirismo. É verdade que seu critério de verdade não é só da visão direta dos
fenômenos. Há uma descrição fenomenológica do observado, mas o conhe-
cido não se contenta com a percepção; a razão quer ir além. A observação
das plantas mostra-lhe que cada planta transforma-se procurando o modelo
de sua forma primordial. Ele crê que as formas primordiais dos vegetais
97 GOETHE, W. A Experiência como Mediadora entre Objeto e Sujeito. Tradução de
Rosemarie Schalldach.

242
e animais são reais, embora suprassensíveis. Tanto assim que, por muito
tempo, pretendeu encontrar tais formas na natureza – até que foi alertado
por Schiller (um kantiano confesso) de que suas formas primordiais seriam
ideias, não objetos. O que, entretanto, não o satisfez inteiramente.
A descrição do que observou na transformação das plantas está em
sua metamorfose das plantas98, de 1790. Esse ensaio deve ser entendido
mais como científico do que como filosófico, pois a autonomia de Goethe,
em face tanto dos filósofos da natureza como dos cientistas, é notória: “dos
primeiros porque não percebiam os fenômenos, dos segundos porque não
iam além dos fenômenos”, como diz Guido de Ruggiero99. Trata-se de um
ensaio científico, porém, de um tipo de ciência diferente do da ciência mo-
derna. É mais próxima do tipo de ciência desenvolvida no Renascimento
por um Leonardo da Vinci, que dizia: “la esperienza è la maestra della
ragione”. E que visava ir além das determinações fenomênicas empíricas
e chegar a uma “razão” arquetípica pela visão direta do fenômeno. É do
próprio Goethe a afirmação: “[...] se nós, no mundo moral, elevamo-nos
a uma região mais alta pela crença, à virtude, ao sentido de imortalidade,
pode dar-se o mesmo no mundo intelectual. Intuindo uma natureza produ-
tiva, nos tornaremos dignos de suas produções.”
Goethe, assim, aspira a um conhecimento intuitivo da natureza como
transformação (produção), alcançado através da “visão direta” conduzida
pela razão. Esta lhe mostra as transformações da semente em folha e da
folha em caule e em flor, à medida que a planta se desenvolve.
Por tudo isso, Goethe concebe sua teoria da planta original (Urpflanze),
que atua como modelo segundo o qual se constroem as formas orgânicas
do mundo vegetal. Assim, ele pode ser considerado um biólogo transfor-
mista. Mas sua diversidade maior com os transformistas do século XIX é
que Goethe considera essencial o que o transformismo considera aciden-
tal: essa invisível operatividade da forma original. Trata-se de uma forma
interna criadora do devenir orgânico, só atingível pela intuição. Diz ele:
“meu pensamento não se separa do objeto, mas penetra no seu interior in-
tuitivamente”. Observando os organismos, ele encontra um processo con-
tínuo, ao qual caberia a palavra Bildung, porém, esta deveria associar-se ao
seu contrário: um incessante formar e transformar, mantendo, contudo, na
mudança, um ser estável. Porém, no desenvolvimento de todo organismo
há um “balanceamento” pelo qual um órgão não se desenvolve em detri-
98 GOETHE, W. Metamorfose das Plantas. Tradução de Rosemarie Schalldach.
99 RUGGIERO, G. Goethe. In: Storia della Filosofia, Parte 4, La Filosofia Moderna -
IV l’Età del Romantismo. Bari: Laterza & Figli,, 1949.

243
mento de outro. Esse balanceamento é o que Goethe chama de tipo, isto
é, “uma forma genética particular cuja individualização é extremamente
versátil, porém dentro de limites intransponíveis”.
Em todo fenômeno primordial há uma polaridade entre o indivíduo e
a multiplicidade, pela qual forças opostas encontram-se, contraindo-se (a
qual se dá, por exemplo, nas sementes), dissolvendo-se, ou expandindo-
-se (a qual se dá, por exemplo, na flor). Nesse processo, a planta é sem-
pre metamorfose de folhas em expansão ou contração em seu crescimento
(Steigerung).
Simultaneamente com seus estudos botânicos, Goethe ocupava-se de
Anatomia Comparada. Considerava o esqueleto o fundamento do corpo
dos animais, por isso comparava crânios e outras peças de vários animais
procurando a forma primordial deles (Urtier), a partir da qual eles se trans-
formavam, mantendo seu ser único, seu tipo, como explicado em poesia na
metamorfose dos animais, publicada em 1820.
A individualidade dos animais apresenta dificuldades às ideias trans-
formistas. Nas plantas, todos os órgãos são em essência folhas que se me-
tamorfoseiam uns nos outros. Nos animais, pelo contrário, os órgãos não
são conexos e nem se podem ordenar em séries de transformações. Entre-
tanto, a Anatomia Comparada mostra um parentesco entre os animais de
espécies diferentes. Por exemplo: o esqueleto de certos animais marítimos
sugere alguma espécie mais desenvolvida de animais terrestres.
A outra contribuição de Goethe para uma ciência alheia ao processo de
matematização da natureza foi no campo da Ótica, com a sua teoria das
cores (1805-1810), em oposição frontal à Ótica newtoniana. Ele parte da
opinião de que a Matemática é um instrumento inadequado para abordar
o fenômeno da luz, pois esta é um corpo essencialmente simples e sua de-
composição em cores, como queria Newton, é absurda. Além disso, para
Goethe, o método matemático só seria capaz de recapitular, de expor por-
menorizadamente o já sabido, mas não descobrir a essência da natureza.
Rudolf Steiner, na sua introdução a uma tradução francesa da teoria
das cores100, começa por lembrar que “se não houvesse olho, a luz não
existiria como realidade exterior”. Goethe inicia seu tratado observando
(pela visão direta) o que acontece com a luz e a escuridão quando estas
incidem sobre o olho vivo. Desdenha de toda explicação da visão baseada
na dissecação de olhos mortos para explicá-la. Só depois disso trata do fe-
nômeno das cores em sua “Teoria das Cores Física”. Observa fenomenolo-
100 STEINER, R. Goethe et les Sciences Modernes. In: Goethe: Le Traité des Couleurs.
Paris: Triades, 1973.

244
gicamente como as cores nascem na presença da luz refratada ou refletida
nos prismas, lentes e espelhos. Não recorre a nenhuma teoria matemática,
mas procura intuir o processo genético das cores como uma luta entre a
luz e a escuridão. Conclui que se a luz branca resultasse da mistura de co-
res, chegar-se-ia ao absurdo da luz como composta de elementos escuros.
Finalmente, estuda a “Teoria das Cores Químicas” como propriedades quí-
micas inerentes aos próprios corpos que aparecem, assim, como coloridos.
A cor é, pois, para Goethe, um atributo do mundo fenomênico, cujo “ser
verdadeiro” é inabarcável pela Matemática.

c) Schelling e a Naturphilosophie
Kant justifica a ciência por meio de uma teoria do conhecimento, na qual
esta resulta de uma polaridade sujeito-objeto, em que é o sujeito que molda
o objeto conhecido ao impor, sobre a percepção sensível, categorias a priori
de qualquer experiência. Assim, o conhecimento objetivo é puramente feno-
mênico, isto é, o fenômeno conhecido não é a percepção da coisa conhecida
em si mesma, mas uma organização mental dos dados captados pela percep-
ção sensível. Entretanto, as críticas101 kantianas terminam mostrando que a
razão humana não se contenta com um conhecimento puramente fenomêni-
co; ela quer ir além e atingir a “coisa em si” – que não é condicionada a ne-
nhuma posição mental ou circunstância do sujeito conhecedor. O fenômeno
é relativo ao sujeito que o conhece e condicionado a todas as circunstâncias
que envolvem o ato de conhecer. Mas a “coisa-em-si”, embora não possa ser
conhecida objetivamente, é o absoluto incondicionado.
A Filosofia romântica alemã, de Fichte, Schelling e Hegel, pretendeu
atingir esse absoluto em consonância com o critério romântico de ver-
dade acima mencionado. Eles partem de onde chegara Kant. É certo que
não será possível atingi-lo através da intelecção, porém, o será através da
intuição intelectual. Johann Gottlieb Fichte (1762-1814) intui o absoluto
como pura subjetividade – o que ele chama de o eu absoluto –, a qual se
explicita como ação pura. Dessa explicitação resultam os eus individuais e
não aquilo que não é subjetividade: o não eu. A essência do eu individual
é a ação moral. O conhecimento não é senão uma atividade subordinada
para permitir a ação moral. E é dessa ação moral que se vão explicitando,
como manifestação sua, os fenômenos do mundo no espaço e no tempo.
Georg Wilhelm Friedrich Hegel (1770-1831), por seu lado, intui o ab-
soluto como razão. O que existe por si e em si é a razão, tudo o mais são
manifestações desta. Mas a razão, para Hegel, não é analítica, como para
101 Nota da revisão: Crítica da Razão Pura; Crítica da Razão Prática e Crítica do Juízo.

245
os racionalistas. Sua Lógica não é a dedutiva, a qual parte de premissas
evidentes para deduzir delas as conclusões a serem verificadas pela sua
adequação à realidade. A razão é um constante “razoamento” a partir de
uma ideia absoluta que se explicita como realidade em momentos desse
absoluto: etapas da evolução dialética. Primeiro, é a “ideia em si” que
se explicita em sua antítese: a “ideia fora de si”, a “natureza”, para final-
mente surgir a síntese do “espírito absoluto”, ou a “ideia em si e por si”,
e assim por diante, o mundo se explicitará sempre como manifestação da
razão absoluta. Na fenomenologia do espírito (1807), Hegel propõe-se
a mostrar a Dialética interna do espírito no seu caminho para a Filosofia e
distingue várias etapas do saber, desde a simples informação, que chama
“História”, através do conhecimento por conceitos que chama “Ciência”,
até conceber-se a si próprio como um saber absoluto e totalitário.
O mundo de Hegel é, portanto, o teatro da evolução da ideia expli-
citada como “espírito” (onde há as mentes e instituições humanas, e os
produtos da Arte, da Religião e da Filosofia) ou como “natureza” (onde há
coisas como matéria, plantas e animais). Enquanto se trata de abstrações,
como ser, causa ou substância, a Dialética hegeliana é facilmente entendi-
da quando trata das coisas encontradas na região do espírito, porém, passa
a ser de difícil entendimento quando se trata da matéria inanimada ou do
organismo da natureza. É de se notar, entretanto, que a Naturphilosophie
hegeliana não pretende inferir dialeticamente as coisas particulares da na-
tureza. Esta se restringe a repetir-se indefinidamente.
As noções universais dessas coisas é que seriam inferidas da ideia. “A ideia
contém e envolve o pensamento do imediato, e o pensamento do imediato é
o mesmo que o pensamento do dado, da externalidade, e esse é o pensamento
da natureza”102. Dessa forma é que se deve entender a frase hegeliana: “Todo
real é mental e todo mental é real”. No entanto, dado o caráter dialético do
pensamento hegeliano, o caráter mental e racional da natureza inclui também
seu caráter contingente e irracional. Sem isso, as coisas e eventos particulares,
por exemplo, não poderiam nunca ser inferidas. Também a natureza poderia
não ser governada pelo acaso. A vida multiplicada em infinitas espécies não
teria razão alguma. Enfim, a natureza seria a antítese da ideia.
A natureza começa com o espaço, no qual a razão está totalmente au-
sente. Mas a matéria já se organiza mecanicamente e o primeiro sinal de
unidade é a gravitação. A Terra ainda não é um corpo vivo, mas é o seu
fundamento, o sistema de todos os corpos vivos – portanto, é um organis-
mo geológico, pois tem uma história. O mundo orgânico já se unifica como
102 STACE, W.T. The Philosophy of Hegel a Systematic Exposition. Nova Iorque: Dover
Publications , 1955.

246
finalidade, primeiramente insensível nos vegetais, e depois consciente e
individual nos animais. Finalmente, a razão emerge novamente no homem,
mas de nenhuma forma se deve entender qualquer evolucionismo na Fi-
losofia da Natureza de Hegel. A natureza é, para ele, um sistema de graus,
os quais não são uns gerados a partir dos outros naturalmente, mas são
explicitações sucessivas da razão da natureza103.
Somente com Friedrich Wilhelm Joseph von Schelling (1775-1854) é
que a Naturphilosophie atinge um nível abrangente, embora ainda mais
fantasioso. Schelling intui o Absoluto como sendo a identidade e a unidade
da forma primordial, muito semelhante à dos organismos preconizada pelo
seu amigo Goethe. Aquele explicitar-se-ia em Espírito e Natureza.
“Filosofar sobre a natureza” – diz Schelling – “significa erguê-la do me-
canismo morto no qual parece aprisionada, vivificá-la com a liberdade, e pô-
-la no seu desenvolvimento livre”104. Isso quer dizer que há na natureza algo
que participa do espírito, embora aparentemente ela obedeça, também, às
leis mecânicas da matéria. Todo organismo é ao mesmo tempo causa e efeito
de si mesmo e nenhuma de suas partes pode surgir se não de sua totalidade.
Não se deve pensar, como Hegel, que há vários extratos na natureza, na qual
domina respectivamente a Mecânica, a Física, a Química e, finalmente, a
Orgânica. A natureza é toda ela viva, nas formas mais altas está a razão das
mais baixas, formando uma cadeia contínua de vida, à qual Schelling dá o
nome de Weltseele (alma do mundo). Assim, a natureza é ao mesmo tempo
espírito e corpo, paralelamente ao pensamento de Spinoza acerca dos dois
atributos de uma única substância. Isso dá a Schelling ampla possibilidade de
aplicação do método dialético na construção do conceito da natureza, mas já
é uma Dialética não mais presa ao domínio da ideia: ela de certo modo atin-
ge o corporal. Há uma polaridade intrínseca em forças da natureza, como o
Magnetismo, a Eletricidade e a Química, nos quais os processos supõem uma
atração entre os corpos. A combustão, por exemplo, produz luz e calor, que
são dois fenômenos opostos. Assim, além da atração, há na natureza forças
repulsivas. E todos esses fenômenos são interligados entre si segundo as leis
da polaridade. Embora essas interligações fossem na época produtos da fan-
tasia de Schelling, muitas delas vieram a estabelecer-se experimentalmente.
Mas tais relações dialéticas não eram próprias simplesmente da nature-
za inorgânica. Schelling percebe-as também no mundo da vida organizada.
Há, sem dúvida, uma oposição fundamental entre o inorgânico e o orgâni-
103 HEGEL, G.W.F. Enciclopédia das Ciências Filosóficas. Tradução de Lívio Xavier.
Rio de Janeiro: Athena Editora, 1936.
104 RUGGIERO, G. S. La Filosofia della natura. In: Storia della filosofía, Parte 4, La
Filosofia Moderna - IV l’Età del Romantismo. Bari: Laterza & Figli, 1949.

247
co, entretanto, um depende do outro, formando uma complementaridade
dialética. A natureza inorgânica é necessária à vida tanto quanto o Magne-
tismo, a Eletricidade e o Quimismo. O processo vital consta das três fun-
ções fundamentais: a sensação, o movimento e a autoconservação, as quais
correspondem a três forças orgânicas: a da sensibilidade, a da irritabilidade
e a da reprodução. A primeira decresce do homem até os animais inferiores
e desaparece nos vegetais. Na terceira, ao contrário, a força de reprodução
cresce dos seres superiores para os inferiores. Quanto mais se reproduzem,
menor a sua sensibilidade. Quanto ao fenômeno da irritabilidade ou do
movimento, está em relação direta com a sensibilidade e indireta com a
reprodução. A estabilidade do mundo orgânico dá-se, então, por uma lei de
compensação polar. Nada acontece na natureza, no que concerne às suas
manifestações, que não seja uma em detrimento da outra, portanto, uma é
a antítese da outra.
Schelling relaciona o Magnetismo com a sensibilidade, a Eletricida-
de com a irritação, e o Quimismo com a reprodução, e atribui a cada um
deles uma função dialética. Há uma organização na natureza tanto mais
complexa quanto maior o nível do ser vivo. E o progresso dos mais baixos
aos mais altos faz-se segundo uma lei de polaridade imanente na natureza,
entre uma força positiva e expansiva e uma força negativa e limitadora.
Em cada nível é atingido um limite, mas as forças continuam operando no
sentido de superá-lo.
Baseando-se nesses princípios, Schelling tentou, em sua dedução ge-
ral do processo dinâmico, edificar um sistema filosófico sobre a natu-
reza. Assim, inicia o sistema considerando o espaço e o tempo, no qual o
espaço é o polo positivo – âmbito indeterminado da atividade – e o tem-
po é o negativo – a limitação dessa atividade. Dessa polaridade gera-se
a matéria com o concurso de forças elementares. Há aqui uma curiosa
assimilação entre as dimensões do espaço e as forças físicas. Ao com-
primento corresponde o Magnetismo, à superfície corresponde a Eletri-
cidade, e ao volume, a ação química. A matéria enche o espaço mediante
força expansiva e repulsiva, impondo a elasticidade. Incrivelmente, com
o concurso dessas duas forças, Schelling explica a gravidade. Aparece en-
tão a luz como um segundo estágio do processo. Ele considera a luz uma
espécie de conhecimento que a matéria adquire de si mesma, e, portanto,
é análoga à autoconsciência no que concerne ao espírito. Dialeticamen-
te, Schelling constrói toda a natureza inanimada dessa maneira fantástica.
Continua a fantasia, ainda passando aos fenômenos da vida: sensibilidade,
irritabilidade e reprodução. Estas, também entram em processo dialético
em correspondência com o Magnetismo, a Eletricidade e o Quimismo pelo

248
qual a natureza eleva-se até a inteligência. Como diz Guido de Ruggiero:
“Em conclusão, todas as qualidades são sensações, todos os corpos são
intuições da natureza, e a própria natureza, com todas as suas sensações e
intuições, não é senão uma inteligência enrijecida.”
A natureza é assim concebida como um processo em que cada nível é
atingido a partir de forças elementares, análogas ao espírito, mas sempre
resultando uma forma contrária que conduz a uma espécie de desmateria-
lização na direção de uma idealidade mais alta. Esta é a ideia básica que
norteia tanto a ciência da natureza de Goethe105 como a Naturphilosophie
de Schelling. Nesta, a Matemática está ausente.

d) Romantismo, Idealismo, Matemática e Física


O Idealismo Alemão herdou do romantismo uma atitude que se pode
classificar como um ambivalente ressentimento em relação à Matemática.
Ao mesmo tempo que a exatidão da Matemática era admirada e sua inde-
pendência do mundo natural era exaltada, os românticos e idealistas repu-
diavam a sua aplicação na análise dos fenômenos naturais e, mais ainda, na
solução de problemas técnicos. O que se chamou, na época, de “newtonis-
mo”, isto é, de possibilidade de solução não só de problemas da natureza
como também da cultura, por meio de leis expressas matematicamente, de
forma calculável, veio a ser considerado uma ilusão, senão um engodo.
Por outro lado, o caráter imaterial da Matemática, parecendo mover-
-se em regiões ideais, seduzia tanto a mentalidade romântica como o pen-
samento idealista. Por isso o idealismo instiga os pensadores da época a
procurar construir um mundo por meio de um modelo diferente do que
tinha levado à ciência mecanicista. Se o mundo é construído pela mente
como ele é, restaria saber o que aconteceria se fossem trocados, pela pró-
pria mente humana, algumas das especificações de construção. Uma de-
las seria a Geometria euclidiana, com seus axiomas fundamentais. Nesse
sentido construíram-se Geometrias não euclidianas, as quais, partindo de
postulados diversos dos da Geometria clássica, chegaram a ser edificadas,
mantendo-se forma lógica impecável. São as Geometrias não euclidianas
de Lobachevsky (1792-1856) – cujas três obras principais foram publicadas
entre 1829 e 1838 – e de Riemann (1826-1866) – cuja obra, sobre as hi-
póteses dos fundamentos da geometria, foi publicada em 1854. Nessas
novas Geometrias é negado o postulado de Euclides, o qual afirma que, por
um ponto fora de uma reta, só se pode traçar uma outra reta que não cruze
a primeira.
105 BERTHELOT, R. Science et Philosophie chez Goethe. Paris: F. Alcan, 1932.

249
Da negação do postulado de Euclides resulta imediatamente que a
soma dos três ângulos de um triângulo é diferente da de dois ângulos re-
tos. Na Geometria de Lobachevsky, essa soma é menor que dois ângulos
retos; na de Riemann, pelo contrário, é maior. Para provar a consistência
destas Geometrias, basta provar que um seu modelo o seja. Um modelo de
Geometria de Riemann é a esférica, isto é, a teoria das figuras geométricas
traçadas na superfície de uma esfera. Observe-se que, no triângulo esféri-
co constituído por dois meridianos cortando uma mesma paralela, a soma
dos seus ângulos é maior que dois retos. Se admitirmos que os círculos
máximos, traçados na esfera, correspondem às retas do espaço no plano,
então perceber-se-á que, na superfície da esfera, não é possível traçarem-
-se paralelas, pois todos os círculos máximos se cortam. Assim, pode-se
intuir a existência de um espaço no qual não é possível traçar por um ponto
qualquer paralela a uma reta dada. Esse é o espaço de Riemann.
Os geômetras provam que, como o modelo de uma Geometria não eu-
clidiana é coerente, também seu protótipo o é. Isto é: o rigor com que se
demonstram suas teorias é o mesmo nas três Geometrias. Isso veio a confir-
mar a tese idealista de que as Matemáticas são formidáveis construções do
espírito, cujo rigor lógico é de ser admirado, mas não necessitam adequar-
-se à natureza. Assim, a ideia romântica de que as matemáticas não são
instrumentos adequados para a análise da natureza tomou corpo. Aliás, a
Teoria da Relatividade viria, mais tarde, mostrar, com sua recorrência à
concepção de um espaço curvo para explicar o fenômeno da gravidade, que
exatamente o contrário poderia dar-se, isto é: que seria possível adequar-se
a natureza aos formalismos matemáticos para explicar fenômenos naturais.
Este antimatematismo e mais a concepção da natureza como processo
dialético levaram físicos alemães do início do século XIX à adoção de
uma metodologia toda especial que consistia na rejeição do método ma-
temático hipotético-dedutivo e na adoção da crença de que a visão direta
dos fenômenos da natureza era suficiente para conduzir a uma intuição
(Anschauung) de sua essência. Disso resultou a concepção da Física como
“ciência concreta”, livre das abstrações matemáticas, constituída por ob-
servações ou experiências e conclusões intuídas daquelas.
À primeira vista, tal método pode parecer muito próximo do empiris-
mo inglês de um Benjamin Franklin ou mesmo de um Faraday, mas, na
realidade, trata-se de metodologia diferente. No empirismo inglês, faz-se
a indução de leis gerais a partir de um número, tanto maior quanto melhor,
de observações experimentais. Na “ciência concreta” germânica, trata-se
de intuir a essência do fenômeno a partir de experiências tidas como fun-
damentais.

250
A ideia de natureza como processo de luta entre contrários, enfatizada
pela Naturphilosophie, de Schelling, veio, sem dúvida, influenciar a intui-
ção dos fenômenos tanto eletrodinâmicos como químicos, como conflitos
quer entre cargas elétricas de polaridades opostas, quer como afinidades
entre substâncias diferentes.
Contudo, a ciência alemã da Eletricidade progrediu de um estágio intei-
ramente fenomênico contrário à matematização para um estágio hipotético
dedutivo, em que recorria à Análise Matemática. Percebe-se no primeiro a
influência da Naturphilosophie, porém, no segundo, ainda está presente a
ideia romântica de conflito.
Um excelente e pormenorizado estudo sobre o progresso das pesquisas
germânicas sobre Eletrodinâmica foi publicado por Kenneth Caneva106.
Esse estudo mostra como o estágio contrário à matematização, que ele
chamou de “ciência concreta”, evoluiu para o de “ciência abstrata”, no
qual a Análise Matemática domina, até a adoção definitiva desse último
por parte de grandes físicos alemães da segunda metade do século XIX,
tais como: Neumann, Weber e Helmholtz. Deu-se essa evolução à medida
que o contexto social alemão transformava-se em decorrência das mudan-
ças institucionais provocadas a partir das guerras napoleônicas.
O físico dinamarquês Hans Christian Oersted (1777-1851) amigo de
Schelling e influenciado pela Naturphilosophie – descobriu em 1820 que
uma agulha magnética sofria deflexão transversal a um fio condutor elétri-
co quando colocada em sua proximidade. Intuiu então que as cargas elétri-
cas expandir-se-iam girando em torno do fio. O efeito da corrente positiva
seria uma ação sobre o polo sul do magneto, enquanto a corrente negativa
atuaria, em sentido contrário, sobre o polo norte. Acontece que, logo em
seguida, André-Marie Ampère (1775-1836), ao repetir as experiências de
Oersted, observou que dois fios condutores de eletricidade atraiam-se ou
repeliam-se conforme o sentido da corrente. Essa experiência foi inter-
pretada pelos alemães como mais uma evidência do “conflito elétrico”.
Porém, Ampère desenvolveu uma Análise Matemática que explicava o fe-
nômeno. Mas para os alemães da “ciência concreta”, a teoria de Ampère
não poderia ser aceita, pois não partia do “fenômeno fundamental” da ação
de um fio condutor sobre uma agulha magnética. Contudo, a aceitação da
teoria de Ampère predominou e assim foi mantido para a Física o caráter
de “ciência abstrata”, isto é, matematizável.
106 CANEVA, K. L. From Galvanism to Electrodynamics. The Transformation of Ger-
man Physics and Its Social Context. In: Historical Studies in Physical Sciences, v. 9,
63-159. Los Angeles: University of California, 1978.

251
e) A ciência da vida e o evolucionismo
Embora o movimento romântico-idealista não tenha conseguido impe-
dir o sucesso da matematização da Física, ele fundamentou filosoficamen-
te o evolucionismo que veio a dominar as geo e as biociências, tornando
difícil sua matematização.
Os estudos goethianos sobre a vida vegetal tinham permitido perceber
na natureza um processo no qual tudo constantemente vinha a ser a partir
de uma forma primordial. Até então, se imaginava o mundo da natureza,
quer no reino mineral pela ação geológica, quer no da vida, pela geração
e corrupção, como limitado a reproduzir tipos bem determinados de ani-
mais, plantas e minerais. Mas os estudos de Goethe sugeriam que havia no
mundo vivo um espírito ordenador separado do mundo da matéria. Além
disso, tendo o movimento romântico, com seu interesse pelas origens,
chamado a atenção sobre a fonte fundamental da energia humana, esta-
beleceu-se um terceiro termo. De um lado, o espírito, de outro, a matéria,
e, entre eles, algo que diferia de ambos: a vida – a qual era praticamente
um processo.
Assim, as leis causais que eventualmente governavam o estudo da vida
não se apresentavam como possíveis de serem equacionadas. Portanto, não
seria possível a Análise Matemática dos fenômenos vitais. As ciências dos
naturalistas eram, portanto, “ciências concretas”, rebeldes à matematiza-
ção. Entretanto, os românticos, como Goethe, não raro demonstravam sua
admiração pelo rigor das Matemáticas e desejavam um rigor semelhante
nas ciências da natureza viva. Diz Goethe em sua italienische reise:
Temos de aprender com os matemáticos o método de imitar os fenômenos pró-
ximos, ou, antes, de deduzir cada fenômeno de outro próximo. Mesmo que não
recorramos a nenhum cálculo, devemos sempre proceder como se tivéssemos de
prestar contas ao geômetra mais severo.
A História Natural, mesmo fora do âmbito germânico, mostrara que
havia fatos que evidenciavam a evolução da natureza como se esta tivesse
sido um processo. As espécies das plantas e dos animais apresentavam
uma gradação dos organismos mais simples para os mais complexos, man-
tendo uma semelhança gradual, como se fosse um parentesco. A Anatomia
comparada descobrira nos animais uma gradação estrutural evidente. A
Paleontologia trazia à luz a ocorrência de espécies extintas mais simples,
em camadas geológicas mais antigas, e mais complexas nas mais moder-
nas, até fósseis humanoides em camadas recentes. Havia, portanto, um
fato da evolução ainda não explicado.

252
Georges Leopold Chretien Frederic Dagobert Cuvier (1769-1832) –
que publicou sua grande obra, le règne animal, em 1819 – era morfolo-
gista e fazia Anatomia Comparada. Apesar de não ser evolucionista, con-
tribuiu malgré soi même para a explicação da evolução. Ele desenvolveu o
estudo da correlação das partes, por meio do qual se conclui que os órgãos
não existem nem funcionam senão em relação com a totalidade do animal,
de forma que é possível, conhecendo-se as leis de morfologia, inferir a
estrutura do animal completo pelo conhecimento de uma de suas partes.
Isso se mostrou de particular importância para o estudo dos fósseis. O
achado de alguns poucos fragmentos de ossos fossilizados era suficiente
para reconstituir todo o animal. Com esses estudos, Cuvier mostrou a exis-
tência de uma quantidade de animais relacionados em séries contínuas em
camadas geológicas de diferentes idades. Entretanto, Cuvier acreditava na
imutabilidade das espécies, apesar de admitir que muitas delas tinham se
extinguido. A explicação que dava é que teria havido grandes catástrofes
periodicamente e que a Terra voltava a povoar-se com os remanescentes.
Entretanto, Étienne Geoffroy de Saint-Hilaire (1772-1844) formulara a
hipótese de que todos os seres teriam sido formados a partir de um plano
único. Na sua philosophie anatomique, publicada em 1818, mostrara que
em todas as espécies animais encontravam-se órgãos semelhantes, como
se na criação desses tivessem aparecido, tão somente, distorções do plano
único original, resultando em hipertrofias ou atrofias dos diversos órgãos
comuns. De maneira alguma havia evidência da criação de órgãos diferen-
tes nas diferentes espécies. Foi então que se pôs a estudar a Embriologia,
mostrando como nos embriões as diferenças desapareciam nos primeiros
estágios de crescimento para virem a se tornar patentes somente nos está-
gios mais avançados, como se houvesse no embrião uma recapitulação da
ordem das espécies.
Contudo, para Saint-Hilaire, não havia propriamente um processo evo-
lutivo nos animais ou plantas. O que havia era uma força de transformação
que surgia e agia repentinamente, como na transformação do girino em
rã. Isto é, dava-se a transformação de um organismo em outro de estágio
superior pela ação de uma força, de certa maneira, externa a eles próprios.
Porém, pesquisas experimentais de Embriologia só tiveram significa-
tivo avanço com Ernst von Baer (1792-1876), que, em 1827, descreveu o
óvulo de mamífero isolado do folículo ovariano de uma cadela. Ele des-
cobriu que no movimento embrionário dos vertebrados aparecia, primei-
ramente, um cordão celular fibroso que dava lugar à formação da coluna
vertebral. Mostrou que, em grande número de animais aparecia, durante a

253
fase embrionária, quatro camadas histológicas e que órgãos idênticos em
espécies diferentes provinham de camadas idênticas. Isto é, havia a forma-
ção de diferentes tecidos a partir dessas camadas, e estes tecidos davam
lugar a órgãos com funções idênticas nas várias espécies.
Por outro lado, desde muito antes eram encontrados, como já foi dito,
os fósseis: restos de enormes animais ou de pequenos seres encrustados
nas rochas. A observação desses objetos começou a mostrar que tais es-
queletos acumulavam-se em ordem de complexidade em camadas geoló-
gicas sobrepostas por ordem de antiguidade. Nas camadas arqueanas nada
era encontrado; nas primárias, restos de invertebrados; nas secundárias,
répteis; nas terciárias, os mamíferos; e nas recentes, animais próximos ao
homem.
O “parentesco” visível nas espécies animais e vegetais; a evolução dos
embriões; a ordem de ocorrência dos fósseis nas camadas geológicas; e,
mais tarde, a evidência da distribuição geográfica de espécies vegetais e
animais semelhantes em vários pontos do globo eram fatos. Fatos que in-
dicavam indubitavelmente a existência de uma sucessão organizada na na-
tureza, pelo qual a vida, ao correr do tempo, vinha tornando-se mais com-
plexa até vir a culminar no homem, em sua ampla capacidade de realizar a
vida na multitude de todos os seus aspectos. Esse é o fato da evolução. Isto
é, na natureza, a vida se apresenta como em transiente realização, cada vez
mais completa, tanto na escala geológica como na zoológica e histórica.
A teorização desse fato foi feita por várias teorias, das quais as duas
mais satisfatórias são as de Jean Baptiste Lamarck (1744-1829) e as de
Charles Darwin (1809-1882). Lamarck tinha tornado público o seu sis-
tema philosophie zoologique já em 1809. Era uma teoria mecanicista
pela qual os caracteres adquiridos pelos organismos, em razão de causas
ambientais, produzindo mutações ou mutilações nos indivíduos, seriam
transmitidos aos descendentes que permanecessem sob as mesmas condi-
ções de meio. Assim surgiriam as novas espécies.
A ideia de uma classificação natural dos seres vivos numa ordem cres-
cente de desenvolvimento levou Lamarck ao evolucionismo. Mas a ideia
de evolucionismo aparece em Lamarck não através de especulações filo-
sóficas, mas sugerida pela própria observação da natureza, ligada à ideia
de continuidade segundo o princípio: “a natureza não dá saltos”. Não é
de estranhar que nesse tipo de evolucionismo biológico a ideia goethiana
de uma forma primordial (die Urpflanze) já não apareça como modelo do
“plano de evolução”. Há uma “identidade primordial” em todo ser vivo
que se observa nas transformações sucessivas das plantas e dos animais.

254
Mas em Lamarck já não mais se faz apelo a qualquer evolução dialética de
ideias explicitadas nos seres. Agora a transformação é mecânica. As gira-
fas alongam seus pescoços no esforço de alcançar folhas nas árvores altas,
e esse caráter assim adquirido é transmitido à sua descendência. Porém, a
estrutura original do animal é mantida.
Além disso, aparece em Lamarck algo que já fora mencionado em Goe-
the, que é a correlação com as causas ambientais. A própria transformação
do ser vivo decorre de fatores ambientais de certa forma estranhos a ele.
Assim, o processo natural passa a ser global. Tudo se desenvolve organica-
mente. Não só os seres vivos, em seu conjunto, evoluem equilibradamente,
como também as condições físicas do ambiente em que vivem, ou seus pró-
prios hábitos e usos, são termos do processo. A ideia dominante era então
ligar as transformações contínuas de certas espécies às variações de outros
elementos. Há, aparentemente, uma retomada da ideia mecanicista de causa
e efeito, mas a causalidade não é mais linear: há uma intercausalidade entre
diversos efeitos. Na philosophie zoologique está escrito: “Uma transfor-
mação forçada e mantida nos locais de habitação e nos hábitos e maneiras de
viver dos animais opera, num tempo suficiente, uma mudança muito sensí-
vel nos indivíduos expostos a ela”. Isso sugere uma Dialética que, como ver-
-se-á adiante, foi aproveitada pelo materialismo dialético de Marx e Engels.
Na época, dominava a ideia de que o progresso era o resultado da livre
competição entre homens livres. Daí as ideias evolucionistas de Erasmo
Darwin (1731-1802), avô de Charles Darwin, para quem os animais evo-
luíram progressivamente como resultado da competição na busca dos ali-
mentos e das fêmeas. Era uma doutrina perfeitamente adequada à Filosofia
moral corrente de Adam Smith e Jeremias Bentham, e também do laissez-
-faire francês.
Porém, a teorização do fato da evolução mais satisfatória, e sobre a
qual se edificou a Biologia de hoje, foi a de Charles Darwin, que, aliás,
afirmava ter lido os trabalhos do avô, mas não ter se impressionado muito
com eles. Partia do pressuposto que, embora todo ser vivo varie e que as
espécies tendam a aumentar em número, o número de indivíduos de cada
espécie não aumenta indefinidamente, e sim tende a um limite compatível
com o meio em que vive. Por outro lado, por mais que variem os seres
vivos e que nasçam milhares de milhões de indivíduos diferentes, não se
estabelece um caos incompreensível, mas há na natureza a ordem a que
nos referimos acima. Tudo isso sugeriu a Darwin uma sobrevivência de
somente parte dos indivíduos e espécies geradas: a sobrevivência daqueles
que melhor se adaptassem às suas circunstâncias vitais.

255
Entre 1831 e 1836, Darwin empreendeu a sua longa viagem ao redor
do mundo na corveta Beagle, de onde conseguiu dados para estabelecer
a sua teoria. Nas florestas da Tijuca, no Rio de Janeiro, a luta pela vida
manifestava-se claramente nos fenômenos de mimetismo dos insetos. No
arquipélago dos Galápagos, encontrou verdadeiros laboratórios em cada
uma das ilhas, onde as espécies desenvolviam-se diferentemente conforme
as condições locais e, no entanto, mantinham o seu parentesco original.
Anotou todos esses fatos, classificando-os em tabelas de acordo com o
método de Bacon, a partir de 1837. Chegou a perceber logo, por suas tabe-
las, que a seleção natural na luta pela vida, com a sobrevivência dos mais
aptos, era a forma presente em todos os fatos observados.
Para que, entretanto, a evolução pudesse ser explicada por tal teoria, seria
necessário, antes de mais nada, que a Geologia demonstrasse que havia na
evolução das camadas geológicas tempo suficiente para que se processasse
à lentíssima seleção natural. Ora, Charles Lyell (1797-1875) publicara em
1831 o seu principles of geology, em que explicava evolutivamente a for-
mação das camadas da crosta terrestre em ritmo lentíssimo, semelhante ao
dos processos geológicos atuais, portanto, suficientemente lentos para per-
mitir a evolução orgânica. Além disso, não havia necessidade de catástrofes
violentíssimas que destruíssem a vida para explicar o processo geológico,
pois uma das leituras de Darwin durante sua viagem foi o livro de Lyell.
Essas ideias encontraram apoio em Thomas Robert Malthus (1766-
1834), que publicou, em 1798, sob anonimato, os resultados dos seus es-
tudos consubstanciados no an essay on the principle of population. A
sua versão final (sexta edição, de 1826), já em nome de Malthus, foi citada
como uma influência-chave para Charles Darwin no desenvolvimento da
Teoria da Seleção Natural. Ele ali afirmava que partia de dois postulados,
isto é, que o alimento e a paixão amorosa entre os sexos são necessários
para a permanência da espécie humana e que o número de indivíduos pro-
criados era muito maior que o necessário para manter a espécie. Ao con-
trário da pacífica Teoria da Livre Competição, aparecia agora uma teoria
de seleção a partir de uma “luta pela vida”, na qual os indivíduos mais
adaptados às suas circunstâncias sairiam vencedores e afirmariam a sua
existência. Dizia Malthus que os indivíduos cresciam em relação geomé-
trica, enquanto que os meios de subsistência aumentavam aritmeticamen-
te. O resultado disso seria, para as plantas e para os animais, a perda das
sementes, a doença e a morte; e, para o homem, a miséria e o vício. O
processo da evolução seria uma adaptação contínua às condições de vida,
e os indivíduos que se adaptassem melhor às circunstâncias levariam van-
tagens sobre os outros.

256
Lendo o livro de Malthus, Darwin convenceu-se de sua conjetura. Po-
rém, somente em 1859 publicou o livro cujo título é por si suficientemente
autoexplicativo: on the origin of species by means of natural selec-
tion – the preservation of favoured races in the struggle for life.
Sua teoria, embora de certa forma ímpia, não era chocante, por quanto
tratava de animais. Foi o segundo livro de Darwin que provocou a tremen-
da polêmica que dura até os nossos dias, entre os que procuram manter a
dignidade bíblica do homem e aqueles que põem os resultados da ciência
em oposição à religião e ao orgulho humano. É uma polêmica vã, porque
se pode inverter a posição com a mudança de mentalidade e espírito da
época. As acusações podem passar a ser entendidas como defesas.
Chamava-se esse segundo livro, publicado em 1872, the descent of
man, and selection in relation to sex, no qual o principal argumento
era de que tudo o que se dizia a respeito à seleção natural, em relação aos
animais, era aplicável ao próprio homem. Procurava ele mostrar como o
homem era constituído de acordo com o mesmo modelo e estrutura dos
outros mamíferos e que, se havia um trânsito contínuo de espécie a espécie
e de gênero a gênero, esse mesmo trânsito deveria existir entre os antropoi-
des e o homem, embora tivessem desaparecido as espécies intermediárias.
Mas durante esse estudo se apresentou a Darwin a existência de um se-
gundo mecanismo de seleção – a seleção sexual – pela qual, se um indiví-
duo de um sexo preferir certos indivíduos de outro, então se dará também
uma variação – a qual prolongada por largo período pode ser a responsável
por mudanças lentas, porém seguras das espécies.
É necessário aqui anotar que simultaneamente com Darwin, um ou-
tro naturalista inglês, Alfred Russel Wallace (1823-1913), trabalhando no
Arquipélago Malaio, observou que ali, também, como Darwin vira nos
Galápagos, as espécies de cada ilha eram ligeiramente diferentes, embora
as mesmas. Também ele, influenciado por Malthus, chegou à ideia de evo-
lução pela seleção das raças mais aptas para sobreviver na luta pela vida.
Os trabalhos originais de Darwin e Wallace foram publicados simultanea-
mente e atuaram como confirmação um do outro.
É necessário, entretanto, não procurar qualquer intenção teleológica
aristotélica e nem dialética idealista ou materialista na teoria evolucionista
da seleção natural da luta pela vida. Não há nela nada que leve à ideia da
natureza como um ser consciente, que levasse adiante a evolução para uma
forma final perfeita, ou que procurasse essa forma por experiência e erros.
A natureza é simplesmente pensada como um processo no qual há um fluir
elementar. É verdade que os eventos anteriores são causas dos posteriores,

257
mas não há uma forma ou um fim a ser atingido, pois que tudo se estabele-
ce a partir de puros acasos, sem finalidade preestabelecida. Era, portanto,
absolutamente necessário para o estabelecimento definitivo da teoria, que
se descobrisse o processo da evolução. Como processava a natureza para
que aparecessem espécies diferentes, melhor ou pior adaptadas ao meio?
Quem descobriu esse processo foi um padre tcheco, Gregor Mendel (1822-
1884), por volta de 1860, mostrando que o acaso e as probabilidades esta-
vam na base do processo natural.
A partir da ideia de que nenhum ser é absolutamente igual aos seus
progenitores, mas que herdam diferentemente tais e quais semelhanças,
Mendel imaginou que a herança fosse transmitida por um certo número
de fatores provenientes de cada um dos progenitores. Seria evidente que,
quando cada progenitor contribuísse com fatores semelhantes, o produto
seria semelhante; porém, quando cada progenitor contribuísse com fatores
diferentes, resultaria num produto diferente. Entretanto, imaginava Men-
del (e aqui está a sua grande intuição), nesse processo, as células reprodu-
toras guardariam os fatores hereditários ainda independentes entre si, não
haveria o desaparecimento das unidades herdadas de cada progenitor, e
elas se manteriam como “unidades independentes” através da longa série
de associações, surgindo sempre no produto final, tão idênticas a si mes-
mas quanto no início.
Mendel iniciou suas experiências por volta de 1850, plantando ervi-
lhas-de-cheiro de duas variedades: umas altas, outras baixas. Cruzou-as
e obteve somente ervilhas altas. Cruzou depois essas últimas e obteve um
terço de ervilhas baixas para dois terços de ervilhas altas. Explicou isso
supondo que os fatores genéticos eram de dois tipos: os dominantes (das
ervilhas altas) e os recessivos (das ervilhas baixas). Na primeira geração,
embora cada indivíduo tivesse em si um fator de cada um dos genitores,
sempre seria o fator dominante que lhe auferiria o tipo (ervilhas altas). Na
segunda geração, a combinação dos fatores dominantes com os recessivos
resultava que, em quatro indivíduos, dois teriam fatores dominantes e só
um deles não os teria. Portanto, a previsão da prole era uma questão de
análise combinatória. Combinação dos fatores dominantes (que conferiam
o tipo quando presentes) e recessivos (que só conferiam o tipo quando
sozinhos).
Assim se explicaria também por que, na geração dos animais domésti-
cos, por exemplo, a partir de genitores da mesma raça, não há sempre uma
permanência da raça, mas é provável aparecer na descendência subsequen-
te um indivíduo de raça pura.

258
Tal ideia ou teoria teria sido preconcebida por Mendel ou induzida por
ele a partir dos resultados dessas primeiras experiências. De qualquer for-
ma, seria necessária a existência da ideia para que ele pudesse organizar
suas experiências posteriores tão bem quanto realmente o fez. Ele já tinha
a ideia e possivelmente esperava das experiências somente uma confirma-
ção ou negação. Não foi, portanto, um procurar cego e desordenado o que
fez Mendel, mas a procura do que realmente já sabia.
Por longos anos então, pacientemente, nos jardins do mosteiro de
Brünn, o padre Gregório levou adiante as suas experiências cuidadosa-
mente planejadas, como mostram suas anotações. Efetuou o cruzamento
de variedades diferentes de ervilhas, cujas sementes tinham cada uma um
aspecto, uma cor, ou uma forma diferente. Supunha ele que cada um des-
ses aspectos correspondesse a um daqueles pressupostos “fatores unitários
de hereditariedade”.
Termina Mendel o relato de suas experiências dizendo:
[...] está agora claro que os híbridos formam sementes tendo um ou outro dos
caracteres diferenciadores; e desses a metade desenvolveu de novo a forma hí-
brida, enquanto que a outra metade deu plantas que permaneceram puras, rece-
bendo respectivamente os caracteres dominantes ou recessivos em igual número.
E assim resultou que a ideia inicial dos “fatores de hereditariedade”
era verdadeira. Porém, quando tais fatores eram poucos, como no caso
das ervilhas, as combinações eram bem determinadas; mas quando eram
múltiplos, aparecia o fenômeno de uma ampla probabilidade de variações.
Conclui-se, assim, que a lei que governa todo o processo é uma lei de com-
binações probabilísticas. A variedade de descendentes em que predomina
um ou outro fator é enorme e o mundo de indivíduos de cada variedade
varia probabilisticamente em torno de valores médios, com desvios con-
sideráveis.
Mendel preparou sua monografia, experimentos de hibridação em
plantas, lendo-a, em 1865, na Sociedade Científica de Brünn. As atas
dessa seção não registram nenhum ataque ou defesa da tese apresentada.
Passou sem repercussão alguma, nem em Brünn nem por parte de outra
entidade que tivesse recebido cópia das pesquisas. Em 1869, Mendel foi
eleito abade do mosteiro e, devido aos seus afazeres, abandonou suas ex-
periências. Quando morreu em 6 de janeiro de 1884, seu enterro teve toda
a concorrência de que sua fama de homem justo, bom e benquisto merecia,
mas nada foi dito sobre a importância das suas experiências. Os jardins do
padre Gregório foram abandonados e esquecidos, e nada mais se falou em
Brünn sobre a lei que regeria a mudança das cores de suas flores.

259
A concepção da natureza, do materialismo dialético de Marx e Engels,
como um processo dialético, deve aqui ser mencionada. Na dialética
da natureza107, Engels propõe que a matéria tenha o poder de evoluir
dialeticamente das formas mais simples às mais complexas na formação
da natureza. O que se aproxima muito da Naturphilosophie de Schelling,
desde que se retire desta qualquer ideia de espírito. Infelizmente, Engels
deixou incompleta a sua obra, tendo de abandoná-la para substituir Marx,
quando da sua morte, na direção do movimento marxista. Disso resultou a
possibilidade de a dialética da natureza ser interpretada sob uma série de
preconceitos políticos que, de certa forma, a deformaram.
De outro lado, o sucesso da Teoria da Evolução de Darwin, completado
pelo desenvolvimento da Genética, a partir de Mendel, ambas baseadas no
método indutivo, a partir da observação de fatos particulares para chegar a
leis gerais, encobriu qualquer necessidade de recorrer ao processo dialéti-
co para explicar a evolução das espécies.
Além disso, o descrédito em que caiu a doutrina de T. D. Lysenko108,
o geneticista soviético que não acreditava na existência de genes nem na
função dos cromossomos, veio fortalecer mais o mendelismo. O lysen-
koismo é uma interpretação marxista do transformismo de Lamark. Por
ele, a hereditariedade teria que ver com a totalidade do organismo, em
contraposição com o meio ambiente, sendo este último que provocava as
transformações que eram mantidas e transmitidas por herança. Com o total
insucesso da aplicação dessa teoria à Agronomia soviética, o lysenkoismo
foi totalmente abandonado em meados do século XX.
Como conclusão, cabe dizer que as teorias da evolução acima citadas
baseiam-se na ideia da natureza como processo. Entretanto, não predo-
minou a ideia idealista de “construção” do mundo biológico a partir de
princípios intuídos, seguidos de progressão dialética. Pelo contrário, o mé-
todo que dominou a elaboração das teorias da evolução, especialmente a
de Darwin, foi o da indução de leis gerais a partir da observação de fatos
particulares.
Esse método não era propício à Análise Matemática. Porém, as pesquisas
de Mendel, na procura dos “fatores de hereditariedade” foram feitas com base
na análise combinatória. Ora, a aplicação dos métodos estatísticos, basea-
dos na teoria das probabilidades, já vinha sendo, naquela época, empregados
para o estudo dos fenômenos envolvendo populações. Isso veio reintroduzir
107 ENGELS, F. Dialectique de la Nature. Paris: Editions Sociales, 1952.
108 MEDVEDEV Z. A. The Rise and Fall of T.D. Lysenko Nova Iorque: Anchor Books,
Doubleday, 1971.

260
processos matemáticos na análise do comportamento dos seres vivos. Em
consequência, vem-se desenvolvendo uma Matemática do acaso, adequada à
análise probabilística de fenômenos aleatórios, tais como os da vida.
Resumindo, pode-se dizer que a região da realidade chamada nature-
za, que é objetivada pelas ditas ciências da natureza, divide-se em duas
grandes sub-regiões. A primeira enfocada pelas ciências físicas que, por
serem dóceis ao processo de matematização, vieram a ser classificadas
como “ciências abstratas”. A segunda, enfocada pelas geociências e pelas
biociências, prende-se aos métodos indutivos e classificatórios, cujos ra-
ciocínios são encadeados a partir de fatos particulares, portanto, difíceis de
ser matematizados. São as “ciências concretas”. As teorias das probabili-
dades abrem, entretanto, a possibilidade de matematização das ciências da
terra e da vida.
Os limites entre esses dois tipos de ciências não são, porém, nem níti-
dos nem fixos. Pelo contrário, o processo de matematização veio se dando,
cada vez mais intensamente, no sentido da “abstração” abarcar cada vez
mais o campo das “ciências concretas”. Isso se dá, muitas vezes, mais pelo
progresso das próprias Matemáticas, quando surgem métodos capazes de
abarcar questões consideradas, até então, inatingíveis pela Análise Mate-
mática.
Em suma, o interesse que sobreveio, a partir da metade do século
XVIII, pela História Natural, veio mostrar que havia um fluir da vida em
seu ambiente geológico e geográfico, o qual não poderia ser explicado me-
canicamente. Isso, coadjuvado pelas ideias românticas e idealistas sobre a
natureza, abalou a ideia de natureza como máquina. A partir de então, esta
veio sendo paulatinamente substituída pela ideia da natureza como um
fluir vital dentro de um ambiente que lhe fosse propício. Enfim, apareceu
a ideia de natureza como processo.
Pelo contrário, a natureza inorgânica ainda mantém o seu caráter me-
cânico e, por isso, suscetível de ser estudada matematicamente. Foi o que
foi feito, com todo sucesso, durante o século XIX pela, assim chamada,
Física Clássica, na matematização das regiões da energia e da matéria,
completadas, no século XX, pela Mecânica Quântica, como se verá nos
dois capítulos seguintes.

261
262
IX – A ANÁLISE MATEMÁTICA DA ENERGIA

a) Introdução
A oposição à concepção romântica da natureza, rebelde à sua mate-
matização, fez-se através de duas doutrinas de certa forma opostas entre
si: o materialismo mecanicista e o positivismo e suas sequências empirio-
criticistas e neopositivistas. Estavam ambas em diametral reação contra o
idealismo alemão.
O materialismo mecanicista teria tido sua origem na interpretação que
Voltaire dera à Mecânica newtoniana em seus elementos da filosofia
de newton, de 1738. Mas foram os matemáticos da Revolução France-
sa, principalmente Laplace, que o instituíram quando concluíram que a
“máquina” da natureza era estável e não necessitaria de Deus para pô-la
em movimento e nem de nada sobrenatural que a mantivesse em funciona-
mento normal. Era uma doutrina francamente favorável à matematização
da natureza.
A forma ingênua do materialismo afirmava que a natureza não seria
constituída por mais nada que não fosse matéria e energia. A consciência
era simples resultado de funções fisiológicas. O materialismo mais refina-
do sustentava que todo e qualquer acontecimento é consequência de con-
dições materiais, desde as mais simples formas de vida até as elucubrações
mentais mais elaboradas. As sensações e os efeitos físicos que as provo-
cam estavam numa dependência que poderia ser sempre estabelecida pela
ciência, sem recorrer a qualquer princípio a priori. A natureza seria, assim,
objeto das ciências, sem necessidade de explicá-la por qualquer ente não
corpóreo ou qualquer finalidade. Por outro lado, a existência da matéria
seria totalmente independente da nossa percepção. Portanto, no materialis-
mo, há a rejeição de qualquer explicação ou intenção metafísica.
Em seguida, surge o positivismo de Augusto Comte (1798-1857) apre-
sentado, pela primeira vez, a um pequeno grupo em Paris, em 1826. Suas
ideias foram publicadas em fascículos sucessivos, de 1830 a 1842, sob
o título cours de philosophie positive. De acordo com elas, a História
desenvolver-se-ia em três estágios: o teológico, quando tudo era explicado
por razões religiosas (provavelmente incluindo a Idade Média); o metafí-
sico, quando tudo era explicado por abstratas elucubrações filosóficas (alu-
dindo provavelmente ao racionalismo e ao empiricismo dos séculos XVII
a XVIII); e, finalmente, por um terceiro estágio, quando tudo é explicado

263
pela ciência baseada em fatos positivos. Um fato positivo seria aquele que
simplesmente é o que é: um dado que não necessita de razão alguma para
sê-lo. Não há nenhuma “coisa em si” por trás do puro fato. Abandona-se,
assim, tanto a ideia kantiana do conhecimento fenomenológico como a
possibilidade da construção idealista de um conhecimento absoluto. Daí o
repúdio positivista, semelhantemente ao materialista, de toda Metafísica.
Entretanto, caberia à Lógica e à Matemática o papel de “instrumen-
tos” para a organização desses fatos em teorias. A tarefa da ciência seria
a de, a partir dos fatos positivos, constituírem-se teorias explicativas dos
fenômenos por meio de estruturas lógicas, preferencialmente matemáticas.
Mas essas só seriam consideradas válidas ou se corretamente deduzidas
de fatos positivos, ou se verificadas pelo confronto de suas conclusões
particulares com fatos positivos. Aí está a ideia de adequação e, portanto,
a nosso ver, a raiz “clássica” do positivismo. Note-se que, entretanto, a
ideia “romântica” de História comparece no positivismo, com sua lei dos
três estágios. Quando, mais tarde, Augusto Comte criou sua “Religião da
Humanidade”, sua raiz romântica expressou-se abertamente.
Talvez como reação aos incríveis excessos do idealismo alemão, houve
uma radical separação entre Ciências e Filosofia, prestigiada pela posição
antimetafísica dos materialistas e dos positivistas. A ciência reivindicou a
si a tarefa exclusiva do conhecimento de natureza. Portanto, desde então,
nada se oporia à completa interpretação dos fenômenos naturais em termos
matemáticos. Aqueles que envolviam forças e movimentos já tinham sido
matematizados com sucesso por Newton. Por isso, a Mecânica Analíti-
ca tornara-se a rainha das ciências. Mas, contrariamente, os fenômenos
da vida resistiram à Análise Matemática e, portanto, ao Mecanicismo. Na
própria natureza inanimada, um dos seus reinos, o da Geologia, começara
a ser estudado muito mais como um processo evolutivo, relacionado com
a vida e igualmente rebelde à matematização. Decorreu disso uma sepa-
ração nítida entre as ciências conforme seus métodos. À Física competia
o estudo, pelo método matemático, dos fenômenos cinéticos e dinâmicos,
às outras ciências da natureza, o “estudo pelo método experimental dos
fenômenos naturais não formalizáveis”. As primeiras seriam abstratas, for-
malizáveis; as segundas, concretas, fáticas.
Percebeu-se, então, que era preciso distinguir entre o movimento e o
próprio corpo que se move. O movimento teria um efeito que não poderia
ser assimilado pelo próprio corpo em movimento. A pedra atirada derruba
a coisa atingida. Em termos físicos: realiza um trabalho. Era, sem dúvida,
um efeito mecânico, mas não era matéria. Algo de não material que se
desenvolve como movimento e produz um efeito diferente de si mesmo. É

264
a energia. Francis Bacon já mostrara, como exemplo de aplicação de seu
método de investigação, que o calor era essencialmente movimento. Isto
é: energia. Com argumentos semelhantes poder-se-ia concluir que som, luz
e eletricidade são, também, essencialmente movimento. São energia, da
mesma forma que o movimento da pedra atirada o é.
A energia é uma capacidade de efetuar um trabalho medida pela distân-
cia deslocada multiplicada pela força que produz o movimento. Demons-
tra-se que um corpo de peso P caindo de uma altura h adquire uma energia
cinética igual ao trabalho de elevar o peso P até a altura h. Há, portanto,
além de energia cinética, uma energia de posição ou potencial medida pela
altura em que está colocado o corpo. Isto é: o corpo na altura h tem um
potencial energético de produzir o trabalho P × h. Disso resulta que a soma
das duas formas de energia deva ser constante. Trata-se de uma forma mais
completa do princípio da conservação da energia já enunciado por Leibniz,
como o da constância da energia cinética.
Pois bem, o som, a luz, o magnetismo e a eletricidade são formas de
energia, com seu potencial e sua energia de movimento semelhantemente
aos corpos que se movem. Portanto, a energia está presente no mundo físi-
co, mas não é matéria. O estudo desses fenômenos vinha-se fazendo desde
os primórdios gregos da ciência. A ciência moderna iniciou seu estudo no
século XVII, mas sua natureza energética não era compreendida como tal.
Somente no século XIX, com o advento da ideia da natureza como pro-
cesso, é que os fenômenos relacionados com a energia vieram a ser plena-
mente compreendidos. O mundo físico não pode ser mais concebido como
um relógio autorregulável, mas como uma sucessão de acontecimentos
curiosamente ordenados, sem razão alguma para sê-lo. É a explicitação
plena de uma crença que vem dominando a mentalidade ocidental desde
o século XVIII, isto é, de que não há nada perene. Tudo se transforma
inexoravelmente para melhor, em progresso, ou para pior, em decadência.

b) O som e a audição
Assim, a natureza mostra aspectos que, embora possam ser assimilados
a processos mecânicos, justamente por serem processos e não elementos,
peças ou molas de máquinas, perturbam o ideal de concebê-la simples-
mente como máquina. Há fenômenos – além dos da vida – que, apesar de
admitirem, em princípio, abordagem mecanicista, põem-se como proces-
sos, resultantes do próprio funcionamento de máquinas. Alguns deles pare-
cem quase inseparáveis dos sentidos humanos: o da audição, o da visão, ou
o da sensibilidade térmica. São como que introdutores nos maquinismos
de pelo menos uma necessidade de correlacionamento com processos vi-

265
tais. Outros, como a eletricidade e o magnetismo, não têm essa conotação
vital, mas exibem natureza de nenhuma forma assimilável à das máquinas.
Contudo, as ideias de força, atração, potência e energia estão presentes em
todos eles, sempre mantendo conotações vitais.
São fenômenos que, provocados em sua fonte por um impacto ou des-
carga, propagam-se por irradiação, através de um meio qualquer, até atin-
gir um receptor. Nesse processo há transmissão de energia da fonte irradia-
dora até o aparelho receptor, comumente um órgão dos sentidos humanos.
O fenômeno mais simples desse tipo e, portanto, o que foi mais ime-
diatamente compreendido pelos que procuram entender a natureza, é o do
som. Já cerca de 500 anos antes de Cristo, Pitágoras percebera uma rela-
ção entre os comprimentos das cordas das liras e o tom por elas emitido.
Estabeleceu, então, a teoria de que a proporção entre os números corres-
pondentes a esses comprimentos era tão harmoniosa quanto a dos acordes
obtidos pela combinação dos respectivos tons.
É verdade que, tanto em culturas desenvolvidas, como as da Índia e
da China, como em culturas mais primitivas, já havia técnicas sonoras na
construção de instrumentos musicais ou na comunicação a distância. Mas
a teoria baseada na aparência sensível do som, que se inicia com Pitágoras,
não é uma teoria do som, mas da sua harmonia numérica, considerada apa-
rência fugaz da harmonia essencial, sugerida pela ordem cósmica. Aí está
o despontar do ideal ocidental da matematização da natureza.
A primeira teoria sobre a natureza do próprio som que chegou até nós
é a que se encontra no timeu, de Platão (o mais antigo tratado de Física
conhecido). Nele lê-se:
[…] Duma maneira geral, admitimos que o som é um choque, transmitido atra-
vés dos ouvidos, por intermédio do ar, do cérebro e do sangue, até a alma […].
Se esse movimento é rápido, o som é agudo; se é mais lento, o som é mais grave.
Se ele é uniforme, o som é homogêneo e doce; se ele tem a qualidade oposta, é
rude; se é grande, o som é forte; se tem a qualidade contrária, é fraco109.
Aristóteles, no seu de anima (note-se que, para Aristóteles, a psicolo-
gia faz parte da Física), afirma:
O som pode significar duas coisas: atual e potencial. O som atual requer para
sua ocorrência: 1º) dois corpos que possam gerar som; 2º) espaço entre os dois.
O som é gerado pelo seu impacto; é impossível que um único corpo possa gerar
som […] O som é percebido no ar ou na água, embora menos nitidamente, mas
109 PLATON. Timée. In: Platon, Oeuvres Complètes, tomo X. Paris: Les Belles Lettres,
1970.

266
nem o ar nem a água são essenciais ao som. O que se requer é o choque entre
dois sólidos. O ar é que causa a audição quando esse ar é posto em movimento
numa massa contínua, porém ele não emite som […] O que tem o poder de gerar
som é aquilo que tem o poder de movimentar uma massa contínua de ar, desde o
corpo sonoro até o a ouvido110.
Portanto, desde a Grécia socrática sabia-se que o som é o resultado de
uma vibração de um corpo sólido, a qual se propaga através do ar até os
ouvidos dos animais. Não está, porém, dito, nem em Platão nem em Aris-
tóteles, se o movimento do ar que transmite o som se faz por choque de
suas partículas umas sobre as outras ou por uma espécie de jato de ar, indo
da fonte ao receptor. Prevaleceu, entretanto, a interpretação da vibração
de toda a massa de ar, na teoria aristotélica. Pelo contrário, entre os ato-
mistas, de Leucipo e Demócrito até Lucrécio, sustentava-se que o som era
transmitido por emissão de partículas emergindo do corpo sonoro e indo
golpear os ouvidos, mas essa teoria foi praticamente esquecida.
A teoria aristotélica sobre o som foi incorporada à técnica romana da
acústica dos teatros e edifícios, como é atestado no tratado de Vitruvius,
de architectura. A tradição platônica, dominante durante a Idade Média,
manteve sua origem pitagórica e transmitiu ao Ocidente uma teoria do som
que se manteve até a redescoberta da Física de Aristóteles no século XIII.
Ambas, porém, mantinham uma base subjetivista, contrária à matematiza-
ção do fenômeno.
Quando Galileu concebeu o conhecimento da natureza como algo es-
crito em caracteres matemáticos, preocupou-se mais com as fontes sonoras
do que com o sentido da audição. Esboçou, então, uma teoria das cordas
vibrantes baseada na ideia de que os tons estavam correlacionados com a
frequência de vibração, a qual dependia do comprimento das cordas e das
tensões com que eram esticadas.
Problema mais difícil foi o de estabelecer matematicamente como o
som se propagava através do ar. Foi Newton, em seus principia111, quem
estabeleceu as bases para essa compreensão no capítulo do Livro II, que
trata da propagação do movimento através de fluidos. Aplicando essa teo-
ria ao fenômeno do som, esse fica entendido como a propagação de impul-
sos de compressão produzidos pela vibração do corpo sonoro. A velocida-
de dos impulsos ficou estabelecida pela Proposição 48 – Teorema 38, do
110 ARISTOTLE. De Anima. In: Introduction to Aristotle. Nova York: Ed. Richard
McKeon, 1947.
111 NEWTON, Isaac. Mathematical Principles of Natural Philosophy. Britannica Great
Books, v. 34, 1978.

267
tratado de Newton, a qual diz:
As velocidades dos impulsos propagados num fluido elástico estão na relação
direta da raiz quadrada do coeficiente das forças elásticas e inversa da raiz qua-
drada da densidade do fluido, supondo que as forças elásticas do fluido sejam
proporcionais ao seu estado de condensação.
Restava mostrar que o ar poderia ser considerado um meio elástico
cujo “coeficiente de mola” poderia ser determinado estaticamente, como o
fez Boyle. Aliás, apesar do consenso geral de que o som se propagava no
ar, foi Boyle quem, em meados do século XVII, provou experimentalmen-
te esse fato por meio de um sino colocado numa câmara de vácuo.
Conhecendo-se o coeficiente da força elástica (hoje chamado de mó-
dulo de elasticidade) e a densidade do ar, seria possível calcular a velo-
cidade de propagação do som no ar. Newton o fez e encontrou 979 pés
por segundo. Mas as medidas experimentais mostravam 1.142 pés por
segundo. Assim, a teoria parecia insustentável. Quase 100 anos depois,
foi Laplace quem mostrou que a elasticidade do ar, solicitado por im-
pulsos rápidos, como os do som, era diferente da sua compressão estáti-
ca. Note-se que, entretanto, não se abandonou a teoria devido a esse seu
“falseamento” pela experiência. Ela permaneceu até que sua “anomalia”
fosse explicada.
Como a teoria newtoniana da propagação de movimentos em meios re-
sistentes aplicava-se perfeitamente à propagação, por ondas, dos choques
infligidos a um líquido, aceitou-se, então, que a propagação do som no ar
fazia-se, também, por ondas de compressão. Porém, nas ondas sonoras, as
variações de compressão eram tão rápidas que não havia tempo suficiente
para se estabelecer um equilíbrio térmico. Como um outro fator da elas-
ticidade do ar era a temperatura, as ondas sonoras não seriam somente de
compressão, mas, também, de variações de temperatura.
O fenômeno sonoro foi considerado definitiva e cientificamente es-
clarecido quando Jean d’Alembert (1717-1783) estabeleceu a equação
diferencial das cordas vibrantes – hoje conhecida como equação das
ondas, que descreve basicamente qualquer propagação por ondas. Qua-
se em seguida, Simeon Poisson (1781-1840) estabeleceu a equação di-
ferencial das vibrações de uma membrana distendida, a qual descreve
as vibrações em corpos bidimensionais. Com essas equações tornou-se
fácil explicar os fenômenos de reflexão do som ao encontrar uma pare-
de, o da refração na passagem de um meio para outro, a interferência
de um som em outro, e a difração, quando se desvia ao tocar o bordo de

268
um sólido. Todos fenômenos, esses, correlacionados com a propagação
por ondas.
Quando as equações diferenciais foram generalizadas para um meio
tridimensional sólido elástico, apareceram, além das ondas de compressão
normais ao plano de propagação, também deformações transversais. São
ondas transversais que podem ser polarizadas, isto é, podem vibrar num
só e determinado plano. Quando o meio tridimensional de propagação tem
uma superfície livre, aparecem, ainda, as ondas de superfície – as quais
se propagam deformando essa superfície, como as ondas do mar. É esse
fenômeno que se observa nos terremotos.
No século XIX, a partir das crescentes aplicações tecnológicas da Acús-
tica, as quais visavam diretamente a audição humana, houve uma volta ao
interesse subjetivo do fenômeno: a audição. Foi Hermann von Helmholtz
(1821-1894) quem promoveu a reunificação da teoria mecânica das ondas
sonoras com o fenômeno fisiológico da audição. Ele criou uma teoria ge-
ral da Música, publicada em 1862 no seu notável livro sensações do som
como base fisiológica da teoria da música. Em 1877, com a publicação
da teoria do som por Lord Rayleigh (John Willian Strutt – 1842-1919),
completou-se o conhecimento teórico do fenômeno do som em bases estri-
tamente matemáticas, abrangendo também a audição.
Com o interesse técnico-fisiológico do som veio o interesse pela medida
da sua intensidade, isto é: pela medida da quantidade de energia carreada
pelas ondas sonoras. A energia necessária para a fala e sua percepção distinta
é pequena, mas é possível emitir grande energia sonora, como no ruído dos
motores a jato. Portanto, para medir a intensidade do som transmitido da
fonte ao receptor, tornou-se conveniente o uso da escala logarítmica. Ado-
tou-se como unidade o decibel (em homenagem a Graham Bell). A diferen-
ça b entre duas intensidades em decibéis é igual a 10 vezes o logaritmo da
relação entre essas duas intensidades acústicas (I e I0), ( b = 10 log ( I / I0 )).
Com a invenção do telefone e do fonógrafo, a Acústica foi-se desenvol-
vendo, a partir dos últimos anos do século XIX, como tecnologia. Quatro
ramos foram se estabelecendo nessa nova tecnologia: a acústica arquitetu-
ral, visando o conforto acústico habitacional e dos auditórios; a tecnologia
dos instrumentos musicais; o controle de ruídos e a prevenção e remédio da
poluição sonora; e a tecnologia dos ultrassons, somente percebidos por ins-
trumentos eletroacústicos. Assim, a Acústica é hoje um daqueles capítulos
da Física que perderam o interesse puramente científico e passaram a de-
senvolver-se espetacularmente como tecnologia nas mãos dos engenheiros.

269
Curiosamente, de qualquer forma, pela ciência ou pela tecnologia, a
matematização da natureza, na área dos fenômenos sonoros, foi completa.
Serve mesmo de modelo para a matematização de fenômenos em que a
natureza é concebida como processo de transmissão de uma forma qual-
quer de energia, de uma fonte emissora a um receptor, através de um meio
oscilante.

c) A visão e a luz
Já no Gênesis, a criação da luz complementa a criação do mundo ele-
mentar. No primeiro dia, são criados os elementos: o céu, a terra e, tam-
bém, a água, sobre a qual pairava o espírito de Deus. No segundo dia é que
a luz foi feita. Esta leitura sugere a complementariedade do mundo físico.
A matéria e a luz – forma arquetípica da energia que move a matéria – são
os dois polos inseparáveis da realidade física.
Embora, já de tempos imemoriais, houvesse uma técnica envolvendo
a utilização dos efeitos luminosos, por exemplo, o uso de espelhos planos
e côncavos na China antiga, a origem do conhecimento científico da luz é
simultânea à descoberta do conhecimento teórico na Grécia clássica. Ele
aparece simultaneamente ao do som, em páginas contíguas do timeu e do
de anima, em conjunto com os conhecimentos da visão e da audição.
Contudo, deve-se admitir que há na mentalidade grega uma certa hie-
rarquização dos sentidos humanos. A visão é mais nobre que a audição e
essa, mais nobre que o tato. A primazia da visão sobre os outros sentidos
vem do fato de, na língua grega, estar expressa uma antiquíssima crença
indo-europeia de que luz, saber e verdade são uma única coisa. Esclarecer
– isto é, iluminar – é o fim do conhecimento, da mesma forma que desco-
brir ou tornar visível é aquilo que estabelece a verdade. A visão é, portanto,
o órgão próprio do conhecimento.
No timeu lê-se:
Entre todos os instrumentos (órgãos dos sentidos), eles (os deuses) fizeram em
primeiro lugar os olhos, portadores de luz, e os implantaram no rosto mais ou
menos pela seguinte razão: é uma espécie de fogo incapaz de queimar, mas só de
fornecer uma doce luz […] Quando a luz do dia envolve essa corrente da visão,
o semelhante encontra o semelhante e funde-se com ele mesmo num só todo, e
forma-se, ao longo do eixo dos olhos, um só corpo homogêneo […] Forma-se,
assim, um conjunto que tem propriedades uniformes em todas as suas partes
graças à sua similitude. E se esse conjunto vem a tocar qualquer objeto ou a
ser tocado por ele, transmite seus movimentos através do corpo inteiro, até a

270
alma, e nos traz essa sensação, graças à qual dizemos que vemos. Mas quando
a luz exterior se retira pela noite, a luz interior se encontra separada dela e, se
sai dos olhos, encontra-se com um elemento diferente de si, então modifica-se e
extingue-se, pois cessa de ser da mesma natureza que o ar em volta, o qual não
tem mais luz. E cessa então a visão […].(109)
A posição de Aristóteles em face do problema da visão é diferente. No
Livro II, capítulo 7, do de anima, está escrito:
O objeto da visão é o visível, e o que é visível é: 1) a cor e 2) uma certa qualidade
do objeto que pode ser descrita com palavras, mas não tem um único nome e se
esclarecerá em seguida […] Cada cor tem em si o poder de pôr em movimento
o que realmente é transparente, mas esse poder constitui sua própria natureza.
É por isso que não é visível senão com a ajuda da luz, isto é: só na luz a cor de
uma coisa é visível. Portanto, nossa primeira tarefa será a de explicar o que é a
luz […] Pois há claramente algo que é transparente e, por transparente entendo
o que é visível não por si próprio, mas obtendo sua visibilidade da cor de outra
coisa, como o ar, a água e muitos outros corpos, que são transparentes porque
contêm uma certa substância […] Dessa substância, a luz é a atividade […] A luz
é como se fosse a cor própria do que é transparente e existe quando a própria cor
do que é potencialmente transparente é excitada à sua atualidade pela influência
do fogo […] a luz […] é a presença do fogo, ou algo parecido com o fogo, no
que é transparente. Ela não é um corpo porque dois corpos não podem estar pre-
sentes no mesmo lugar […] a cor põe em movimento não o órgão do sentido (a
visão), mas o que é transparente, isto é: o ar e este estendendo-se continuamente
do objeto, ao órgão, coloca esse último em movimento.(110)
Os atomistas Leucipo, Demócrito, Epicuro e Lucrécio opinam que a
visão se deve à introdução nos olhos de simulacros (idola) dos objetos ilu-
minados, que são emitidos por estes e atingem os olhos. Portanto, mantêm
sua ideia da realidade constituída por átomos e movimento no campo da
luz.
Assim, para todos os filósofos gregos, luz é movimento. Para Platão, é
a conjugação de movimento originado nos próprios olhos com um movi-
mento presente no dia e ausente na noite. Forma-se uma espécie de feixe
que transmite o movimento do objeto até os olhos. Para Aristóteles, a luz
é movimento dos meios transparentes excitado pela cor do objeto e trans-
mitido aos olhos. Para os atomistas, a luz é uma emissão de partículas do
objeto até os olhos. Seria possível pretender ver, já nesses filósofos, uma
antevisão do fenômeno luminoso em termos modernos. A luz é movimento
ou vibratório de um determinado meio, ou emissão de partículas através
desse meio. Assim se confirmaria a tese da continuidade do conhecimento
teórico da natureza, desde os filósofos gregos até os cientistas da atualida-

271
de. Não se trata, entre os gregos como entre os modernos, das aparências
fugazes e cambiantes da luz, mas de algo de idêntico a si mesmo, não
contraditório e verdadeiro ou falso que a mente percebe além das aparên-
cias sensíveis. Esse é o conhecimento teórico que caracteriza a civilização
ocidental.
Seria interessante, pois, procurar ver como esse peculiar tipo de co-
nhecimento que surgiu na Grécia no século VI a.C. transmitiu-se até os
cientistas modernos do século XVII d.C., evoluindo evidentemente, mas
mantendo o seu caráter fundamental de conhecimento teórico.
O primeiro tratado teórico específico de Ótica é o de Euclides, de cerca
do ano 300 a.C. Trata-se de uma Ótica Geométrica que não aborda nenhum
aspecto psicológico ou fisiológico do problema da visão. A abordagem é
estritamente axiológica e geométrica a partir de sete axiomas admitidos
como evidentemente verdadeiros. Apesar de o primeiro axioma rezar “que
os raios retilíneos procedentes do olho divergem indefinidamente” e de usar
as noções de “raios visuais” e de “objetos sobre os quais os raios visuais
caem”, não se pode dizer que Euclides considere a luz como resultado de
raios emergindo do olho. É possível que a influência platônica, sobre a na-
tureza da luz, esteja presente, mas é também possível que Euclides faça a
simples hipótese de “raios visuais” não necessariamente ligados à emissão
de luz pelos olhos. Na sequência das deduções de seus teoremas, tanto faz
que o que ele chama de “raios visuais” parta do olho como do objeto. Im-
portam simplesmente linhas que divergem do olho ou convergem para ele.
Esse tratado é a base de um capítulo da Ótica que veio até nós sob o
nome de Ótica Geométrica que trata de problemas relacionados tão so-
mente com a retilinearidade, direção e orientação dos raios luminosos,
inclusive a reflexão, pois Euclides sabia que o ângulo de reflexão da luz
num espelho era igual ao de incidência. Entretanto, a refração só veio a
ser conhecida e medida por Ptolomeu, no primeiro século de nossa era,
em Alexandria. Se Euclides seguia a visão teórica de Platão, de Aristó-
teles ou dos atomistas, parece inteiramente irrelevante para a sua Ótica.
Enfim, o tratado de Euclides é o primeiro que trata das propriedades dos
raios luminosos independentemente do fenômeno da visão, através da
abordagem geométrica do problema. Deve-se, contudo, afirmar que toda
a Ótica Geométrica posterior, inclusive a Perspectiva, tem sua origem na-
quele tratado.
Durante a Baixa Idade Média, os platonistas baseados na tradução lati-
na do timeu desenvolveram uma concepção teórica da visão. Para eles, ela
era o resultado da conjunção de três feixes de luz, os quais se originavam

272
no Sol, no objeto iluminado e no olho. Mas foram os árabes que, por suas
traduções e comentários das obras de Aristóteles e de Galeno, chegaram a
explicar mais precisamente o fenômeno da visão e, através deste, encami-
nharam o conhecimento científico da natureza da luz.
Avicena (986-1037), de Bucara, por exemplo, vai além de Aristóteles,
em seu tratado kitab al-nagut (o livro da entrega), pois compara a for-
mação de imagens num espelho com o fenômeno da visão. No seu danish-
nama (livro da sabedoria) diz ele: “o olho é como um espelho, através
do ar ou de outro meio transparente […] Quando a imagem do espelho é
formada, ela é recebida pelo humor cristalino, que a transmite ao lugar do
poder visual no oco do nervo ótico […]”. Isso é o que nos relata David C.
Lindberg, em seu excelente livro sobre a história da visão no mundo árabe
e na Idade Média112.
Mas a mais notável contribuição árabe para o conhecimento da luz foi
a de Alhazen (965-1038), nascido em Bassora, porém trazido para o Egito
por um califa fatímida para regularizar o curso do Nilo. Fracassou nessa
tarefa, mas ficou no Egito pelo resto de sua vida. Em seu livro kitab al-
-manazir (livro de ótica), Alhazen incorporou os aspectos psicológicos,
fisiológicos e geométricos do fenômeno da luz descritos pelos gregos.
Alhazen, partindo da experiência de que a luz excessiva produz dor e
danifica o olho, conclui que a luz vem de fora do olho e por ele é apenas
percebida. Também, a partir de experiências, reafirmou Aristóteles, dizen-
do que a visão só é conseguida se houver um corpo transparente entre o
olho e o objeto. Luz e cor são formas geradas no ar ou nos corpos transpa-
rentes, independentemente da presença do olho. Há uma forma primária
da luz emitida por um corpo luminoso e uma secundária, refletida por um
corpo opaco iluminado. Esta irradia em forma de esfera e retilinearmente
em todas as direções.
A fisiologia da visão é explicada por Alhazen da seguinte maneira: a
luz, ao encontrar a superfície do “humor glacial” no olho, age sobre ele no
sentido de que a forma, projetada em sua superfície, é percebida mantendo
a mesma ordem das partes existentes no objeto visto.
O livro de Alhazen, em sua tradução latina, de aspectibus, influencia
o posterior estudo medieval da visão e da luz, apesar do platonismo então
dominante. Entretanto, é de se lembrar que há uma diferença de sentido
entre os tratados árabes e os gregos, talvez devido às dificuldades de tradu-
112 LINDBERG, D. C. Theories of Vision from Al-Kindi to Kepler. In: Chicago History
of Science and Medicine. Chicago: University of Chicago Press, 1976.

273
ção, à dificuldade de manter a estrutura lógica do grego clássico em árabe.
Nos árabes, há um tom mágico, denotando uma operação do sábio sobre a
natureza, enquanto, nos gregos, há a preocupação da intelecção lógica dos
fenômenos, partindo de princípios e chegando a conclusões verdadeiras,
mas não necessariamente operativas sobre a natureza. É possível que a
operatividade mágica da ciência árabe seja a origem do experimentalismo
franciscano do século XIII. De qualquer forma, Alhazen influiu obra sobre
a Ótica dos monges franciscanos de Oxford – os fundadores da Perspec-
tiva – a partir do início do século XIII.
Entre esses monges distingue-se, por sua importância, Robert Gros-
seteste (1175-1253), para quem “a Perspectiva é a ciência que trata das
figuras que contêm linhas e superfícies radiantes, seja dos raios projetados
pelo sol, pelas estrelas ou por outro corpo luminoso”113. Diz ele ainda: “a
forma visual é uma substância assimilada à natureza do Sol que luz e res-
plandece, por cuja radiação, unida à radiação de um corpo luminoso exte-
rior, produz totalmente a visão”. Nos seus tratados, Grosseteste raciocina a
partir de princípios, causas e efeitos, à maneira medieval. Contudo, certas
conclusões são demonstradas a partir da “visão direta” dos fenômenos – o
que ele chamava de “experimentos”. Porém, essa visão direta não poderá
nunca contrariar os “princípios da natureza”.
Assim, a partir do princípio “a linha reta mais breve produz o maior
efeito”, ele estabelece que os raios luminosos propagam-se em linha reta,
refletem-se com ângulos de reflexão iguais aos de incidência sobre uma
superfície intransponível pela luz, e refrangem-se quando passam de um
meio a outro, com ângulos de refração que são a metade do ângulo entre
o raio incidente e a normal à superfície de separação dos meios, quando
o olho estiver do lado menos denso. Quando o olho estiver do lado mais
denso, o ângulo de refração será a metade do ângulo entre o raio incidente
e a superfície de separação. Assim, ele enuncia uma lei de refração que
pretende ser apriorística, embora constatada experimentalmente (por visão
direta). Mas sabemos hoje que era quantitativamente errada.
Note-se que foi a partir dessa época que se começou a usar lentes
de vidro para corrigir a visão, mas tal uso não tem nada de científico.
É puramente técnico, pois não se pode ainda explicar como funcionam.
Além disso, o uso das lentes era considerado pelos platônicos como que
introduzindo mais um elemento de perturbação na visão das aparências
sensíveis e enganosas.
113 GROSSETESTE, R. Optica. Buenos Aires: Ediciones del Rey, 1985. Introdução,
tradução e notas de Celina A. Lertora Mendonza.

274
Sobre o arco-íris, cuja ciência Grosseteste põe como uma terceira parte
da Perspectiva, pois interpreta o fenômeno inteiramente como uma ques-
tão de incidência e refração de raios luminosos. Ele conclui: “logo, é ne-
cessário que o arco-íris se produza por refração dos raios do sol no rócio
da nuvem convexa”. E foge da explicação das bandas de várias cores que
compõem o arco.
No de natura locorum, Grosseteste estende os princípios da Pers-
pectiva para explicar – a partir das “pirâmides” de raios luminosos irra-
diantes do Sol – o clima e as particularidades dos locais da Terra, inclusive
o paraíso terrestre. Ele tenta, assim, colocar a Geometria como ciência
introdutória daquilo que se denominava então Meteorologia. Isso o leva
a considerar a luz e o calor fenômenos correlatos. Tudo evidenciado pela
“visão direta”, pois “um espelho côncavo exposto ao Sol provoca o fogo
porque – como se demonstrou – todos os raios refletidos na superfície do
corpo côncavo concorrem para um mesmo ponto e, ao redor deste ponto,
está o lugar da combustão”.
Finalmente, no de colore, Grosseteste tenta explicar o fenômeno da
cor partindo do princípio “a cor é a luz assimilada a um meio translúcido”.
O importante é ter ele distinguido, na luz, a sua intensidade (pouca ou
muita luz) da sua tonalidade (clara e escura), pois diz ele que a combustão
dá-se pela intensidade e não pela tonalidade da luz. Estabelece, então, a
faixa das sete cores entre o branco e o negro. A passagem do branco ao
negro nada tem a ver com sua intensidade (potência, como diz ele). Assim
foi aberto o futuro caminho de Newton para a teoria das cores.
Roger Bacon (1214-1294), de geração posterior à de Grosseteste e seu
discípulo, continuou a tradição platônica, pela qual luz, saber e verdade
são análogos. A luz é a forma corpórea primordial, da qual todas as outras
são causadas. Portanto, a Perspectiva é a ciência básica capaz de revelar
a realidade da natureza. Para Roger Bacon, o que se propaga no ar são as
“formas” (que ele chama “espécies”) emitidas de cada ponto do objeto e
como que retiradas sucessivamente da potencialidade do meio transparen-
te. Assim, se a finalidade da vista era conhecer a verdade, o uso de lentes
oculares seria enganoso e conduziria ao erro.
Em conclusão: a Ótica franciscana do século XIII incorporou à ciência
europeia os aspectos operativos da Ótica árabe relacionados com os fenô-
menos de reflexão e refração. Aspectos esses mais ligados a Aristóteles
do que a Platão. Mas manteve os aspectos filosóficos do platonismo, prin-
cipalmente no que concerne à consideração da visão como instrumento
fundamental na procura da verdade. Curiosamente, isso era favorável ao

275
aparecimento, entre os monges franciscanos ingleses, do “experimentalis-
mo”, baseado na “visão direta” dos fenômenos.
No despertar do Renascimento, em Florença, no século XV, volta a do-
minar a ideia platônica de que todo saber era adquirido pela visão. Assim,
o papel das artes visuais foi notável. Pintores e arquitetos, cuja atividade
dizia respeito à representação visual do mundo exterior, tomaram para si
a iniciativa do desenvolvimento da Perspectiva aplicada à representação
pictórica. Com essa finalidade, Filippo Brunelleschi (1377-1446) é tido
como o inventor do processo. Mas a primeira documentação desse método
foi publicada pelo arquiteto e humanista Leon Battista Alberti (1404-1472)
em seu livro de pictura, publicado em 1435. São regras para representar
o que se via no espaço, projetando a visão na tela plana. Na realidade,
as regras da Perspectiva poderiam ser deduzidas teoricamente da Ótica
Geométrica, mas não o foram. De fato, elas foram estabelecidas através
da experiência sensível como uma técnica. Através de imagens vistas em
espelhos, projeções através de orifícios, em placas ou em câmaras escuras,
ou ainda em tábuas ou vidros quadriculados, como muito bem está descrito
em artigo de Julio Roberto Katinsky114.
A intenção dos renascentistas era representar o que se via para conhecer
a natureza. Sua atenção estaria centrada no objeto visto – o qual deveria
ser representado com exatidão – e no aparelho visual, isto é, na Anatomia
do olho. Com essa intenção, desenvolveram a Ótica Geométrica e a apli-
cavam tecnicamente na Perspectiva. E, ao lado disso, fizeram avançar, em
detalhes, a anatomia do olho, a partir do que sabiam os antigos, mas quanto
à natureza própria da luz, seu interesse era remoto.
No entanto, um aforismo, entre os muitos que Leonardo da Vinci
(1452-1519) escreveu, revela uma preocupação com a natureza da luz.
Parece uma antevisão da teoria ondulatória:
Da mesma maneira que uma pedra lançada na água torna-se o centro e a causa
de muitos círculos, e tal como o som se difunde no ar, assim também um objeto
colocado no ar luminoso se difunde em círculos e enche o ar circunstante com
infinitas imagens de si mesmo, e aparece em tudo, por tudo e em qualquer parte
(Cod. Atl. fol. 9)115.
O mesmo autor lembra um outro aforismo em que Leonardo observa
que as ondas na água são resultado do movimento de partículas para cima
114 KATINSKY, J.R. Um experimento com a Ciência e a Tecnologia dos primeiros anos
do ‘Quatrocentos’, em Florença. Ciência e Cultura, v. 34, n. 10, out. 1982.
115 ARGENTIERI, D. L’Ottica di Leonardo. In: Leonardo da Vinci. Novara: Instituto
Geografico de Agostini, 1950.

276
e para baixo, sem sair do lugar mas, simplesmente comunicando seu movi-
mento à partícula próxima. Disso se poderia concluir que, para Leonardo,
“as espécies”, de Roger Bacon, existem, mas se propagam em ondas, e
não é o olho, porém, o objeto que as emite em todas as direções em ondas
concêntricas, as quais vêm a golpear o olho produzindo a visão.
Além disso, o interesse de Leonardo na fabricação de lentes e espe-
lhos levou-o ao estudo da reflexão e da refração, tendo chegado à obser-
vação da separação das cores na refração. Ele tenta também explicar a
ação das lentes na melhoria da visão defeituosa e na sua aplicação como
lupas, mas seu intuito é muito mais técnico: visa fabricar aparelhos que
aumentem ou tornem possível a visão a distancia, e não, explicar o fe-
nômeno da luz.
Aliás, esse interesse técnico perdurou por todo o Renascimento e dele
resultou um maior conhecimento das propriedades óticas das lentes e es-
pelhos. Esses estudos transbordaram para as observações astronômicas e
para o estudo da visão. Foi assim que Kepler, no fim do Renascimento e
começo da Idade Moderna, conseguiu explicar com exatidão o mecanismo
da visão humana e como funcionavam as lentes e as lunetas.
Para Johannes Kepler (1571-1630), a estrutura do olho é semelhante
a uma câmara escura. Há uma placa sensível, que é a retina, no fundo do
olho. É este o órgão sensível da visão. Nela forma-se a imagem do objeto,
captando alguns dos raios da infinidade emitida pelo objeto em todas as
direções. A imagem luminosa atua sobre as células sensitivas originando
os impulsos que são conduzidos ao cérebro. A câmara escura é constituída
por um espaço esférico, cheio com um líquido: o “humor vítreo”. Na parte
anterior da câmara escura há um sistema ótico constituído pelo cristalino,
que é uma lente ótica. A íris contrai ou dilata a pupila, controlando a quan-
tidade de luz que entra na câmara pela córnea, que é a superfície exterior
do olho. Entre a córnea e o cristalino há um espaço cheio de um líquido:
o “humor aquoso”. O feixe luminoso é focalizado sobre a retina por meio
desse sistema ótico.
O problema que se punha, então, é que a imagem na retina – por tudo
que se sabia a respeito da refração nas lentes – estava de cabeça para baixo.
Até aqui é feita uma aplicação ao olho humano do que se sabia a respei-
to da formação de imagens na câmara escura. Daí em diante cessam os
aspectos físicos da visão e, segundo Kepler, a imagem é recebida por um
“espírito ótico”. Ele deixa transparecer, assim, um resíduo da concepção
mágica da natureza, quiçá de origem árabe, pois, para estes, a luz tinha
uma existência intermediária entre o material e o espiritual.

277
A partir desta teoria da visão, Kepler desenvolveu sua Ótica Geomé-
trica nos moldes atuais, partindo das teorias perspectivistas, sempre com a
intenção de projetar e construir aparelhos astronômicos. Com isso, resol-
veu o problema da refração atmosférica dos raios estelares e pôde explicar
também como funcionavam as lentes dos óculos e dimensionar lentes de
telescópios. Todo esse progresso foi enormemente favorecido pela desco-
berta da lei dos senos por Snell, em 1621 (o seno do ângulo de incidência
e o de refração estão numa inter-relação constante, para cada meio refran-
gente, em relação ao ar, à qual é chamada “índice de refração”).
Seguiram-se vários progressos. Fermat, em 1661, unificou as leis de
reflexão e refração, postulando que os raios de luz tomavam o caminho de
menor tempo. Ele admitiu que a velocidade da luz num meio mais denso é
menor que num menos denso na razão inversa dos índices de refração. Em
1676, Römer mediu a velocidade da luz através da observação de eclipses
dos satélites de Júpiter, com a Terra em diferentes posições em relação ao
Sol e ao planeta, mostrando que sua velocidade era incrivelmente rápida:
mais de 600 mil vezes maior que a do som. Finalmente, as observações,
em câmaras de vácuo, mostraram que o som não se propagava no vácuo,
mas a luz, sim. Portanto, ficou definitivamente estabelecido que o ar não é
o meio transmissor da luz.

d) Duas teorias da luz


Entre 1672 e 1676, Isaac Newton (1642-1727) apresentou à Royal So-
ciety uma série de comunicações, as quais foram reunidas na sua ótica,
cuja primeira edição foi publicada somente em abril de 1704116. Quase si-
multaneamente, entre os anos de 1678 e 1690, Christiaan Huygens (1629-
1695) escreveu seu tratado da luz117 e o comunicou à Academie Royale
des Sciences, em 1679, da qual era membro. A primeira edição do trata-
do saiu à luz em 1690. A de Newton é uma teoria da luz, em princípio,
corpuscular, enquanto que a de Huygens é ondulatória. Ambas explicam
os fenômenos luminosos conhecidos até então. Ambas são coerentes sob
o ponto de vista lógico. Ambas usam argumentos indutivos baseados em
experiência. Ambas têm suas conclusões verificadas experimentalmente.
Porém, a primeira entende a luz como emissão de partículas pelo corpo
luminoso, e a segunda, como ondas vibratórias análogas às que aparecem
na superfície da água perturbada por um choque, num ponto. O meio que
116 NEWTON, I.Optics. In: Britannica Great Books, v. 34. Chicago: Encyclopaedia Bri-
tannica, 1978.
117 HUYGENS, C. Treatise on Light. In: Britannica Great Books, v. 34. Chicago: En-
cyclopaedia Britannica, 1978.

278
entraria em vibração, como não poderia ser o ar, deveria ser um meio eté-
reo, porém rígido, que preenchesse todo o espaço, cuja existência já fora
postulada por Descartes. Tal meio deveria estar presente em toda parte,
inclusive no interior dos corpos transparentes. Ambas as teorias explica-
vam os fenômenos luminosos conhecidos até então: reflexão, refração e
difração. A de Newton tornava mais compreensível a projeção nítida e
retilínea das sombras de um objeto opaco, como interceptação dos feixes
de partículas. A de Huygens explicava melhor por que feixes de luz que se
entrecruzam não se perturbam.
Qual das duas teorias seria a verdadeira? Haveria necessidade de uma
terceira, diferente das duas? Esse é um tema ainda atual na História e na
Filosofia da Ciência, pois o estudo da evolução dos temas da luz tem re-
velado muito sobre a essência do saber científico. Provavelmente há muita
coisa ainda a ser descoberta. O ponto de partida de tais estudos vem sendo
sempre o exame crítico dos textos da ótica e do tratado da luz, e é isso
que aqui se pretende fazer. Qual dos dois é o primeiro? É questão fútil.
Ambos nasceram simultaneamente da mesma necessidade que se impunha
no momento: conhecer a natureza da luz através de sua matematização.
Poder-se-ia, entretanto, aventurar a ideia de que a teoria corpuscular de
Newton está presa à ideia de natureza como máquina, regida pelas leis
mecânicas já expostas no seu philosophiae naturalis principia mathe-
matica. Porém, a teoria de Huygens, embora ainda sujeita ao mecanicis-
mo dominante, abre uma primeira possibilidade de concepção da natureza
como processo, pois, nas ondas, há algo que já não é puramente mecânico,
mas que evolui ao longo do tempo.
A ótica foi organizada aproximadamente como o foi o Livro III dos
principia de Newton. Isto é, com a intenção de explicar as propriedades da
luz não por hipóteses, mas por princípios (axiomas) enumerados e compro-
vados por observações já conhecidas. Propõe oito definições, com as quais
enuncia oito axiomas enunciando as propriedades já conhecidas da reflexão
e refração da luz. A esses axiomas seguem-se proposições, provadas por
experiência, sobre a composição da luz do Sol em cores, cada uma diferin-
do da outra por sua refrangibilidade. Na segunda parte do Livro I, explica
sua teoria das cores como componentes da luz com diferentes índices de
refração. As cores dos objetos naturais são explicadas pela propriedade de
refletirem os raios de uma dada reflexibilidade e absorverem os outros.
No Livro II são descritas observações experimentais a respeito de refle-
xão, refração e decomposição em cores de raios de luz branca em corpos
transparentes delgados. Já era conhecido que vidros de pequena espessura

279
ou bolhas de sabão exibiam cores diferentes de acordo com sua espessura.
Comprimindo uma superfície de cristal levemente convexa sobre uma pla-
ca, Newton observou a formação de anéis ou arcos brancos, negros ou co-
loridos concêntricos ao ponto de contato. São os muito conhecidos “anéis
de Newton”. Newton procurou explicar o fenômeno por meio de refração
e difração, mas sua explicação é precária.
O Livro III se inicia com a descrição do fenômeno de difração, que
Newton chama “inflexão”, pelo qual um raio de luz sofre desvio quando
atravessa um pequeno orifício ou tangência na borda de um objeto sólido.
Ao encontrar um objeto de pequeno tamanho, a sombra projetada é maior
que o objeto. Newton explica a difração pela atração ou repulsão das par-
tículas de luz pelas moléculas do objeto tangenciado. Apareciam, então,
também, franjas coloridas e linhas escuras entre elas.
Newton, não satisfeito com suas observações, termina o Livro III
com 31 questões sobre fatos e hipóteses não consideradas por ele sufi-
cientemente esclarecidas. Por essa série de questões compreende-se que,
para Newton, a natureza da luz não estaria ainda esclarecida. Ele poderia
admitir que ela fosse essencialmente movimento, mas que tipo de mo-
vimento? Vibratório, no qual cada partícula de um meio etéreo vibraria
sem sair do lugar, mas simplesmente comunicando sua vibração à se-
guinte? Ou seria um movimento de partículas emitidas pelo objeto lumi-
noso? Ambas explicariam os fenômenos luminosos conhecidos, porém,
ambas exigiriam hipóteses auxiliares para serem admitidas. E, de acordo
com seu temperamento, Newton não faria hipóteses sobre a natureza da
luz, da mesma forma que não o fizera sobre a natureza da força da atração
gravitacional.
Newton comprovara suas proposições sobre a luz a partir de experiên-
cias, mas deve-se notar que os resultados das experiências não poderiam
contrariar os princípios (axiomas) prefixados. Isso quer dizer também que
as experiências deveriam ser organizadas, conduzidas e interpretadas de
acordo com os axiomas. Essa é a característica essencial do conceito de
experiência na ciência moderna.
Mas dessas experiências nada se podia concluir sobre a natureza da luz.
Newton inclina-se pela emissão de corpúsculos simplesmente por duas ra-
zões. A primeira é que, nos principia, ele tinha demonstrado que se um
grave fosse projetado sobre uma superfície de um líquido (por exemplo),
ele se refrangeria ou refletiria, analogamente à luz incidente sobre um meio
transparente. A segunda razão é que, para ele, a conjetura de vibração (por
compressão ou distensão) simultânea de um meio elástico, em todos os

280
pontos e em todas as direções, exigiria a suposição de uma força infinita
para causá-la. O que era muito pouco provável de ser encontrado na natu-
reza.
É necessário, ainda, lembrar que, para Newton, um axioma (princípio)
enuncia algo de perfeitamente conhecido e esclarecido como verdadeiro.
Não é uma hipótese, pois esta é uma proposição aceita arbitrariamente
como válida na explicação de um fenômeno dado. Mesmo que se possa
preferir uma hipótese como provavelmente verdadeira em face da teoria
estabelecida a partir de axiomas, esta não pode passar a ser considerada um
princípio. Para ser princípio deve se impor como verdadeira por si própria,
e não sob a condição de que algo diferente seja verdadeiro. Os vórtices de
Descartes são, por exemplo, uma hipótese. Princípios são, por exemplo, o
da inércia ou da contradição, todos verdades evidentes.
A ideia de princípio atualmente sofre a crítica de poder abrigar o arbi-
trarismo e o convencionalismo. Mas para os filósofos do século XVII, os
princípios não são arbitrários nem convencionais ou subjetivos. Para Leib-
niz, por exemplo, “o conhecimento é sempre a contemplação de algo atra-
vés de um princípio”. Os princípios são algo que, ao contrário do arbítrio
ou da convenção, estão constantemente exigindo prova ou demonstração
de sua verdade. Para Leibniz, a verdade é sempre a verdade da proposição:
ela deve denunciar o valor subjetivo do critério de evidência e procurar
fundar a verdade dos axiomas nos princípios da Lógica, mediante o que ele
chama de “análise dos conceitos”, a qual seria baseada em outro princípio
pelo qual, em toda proposição verdadeira, o predicado está contido no su-
jeito. Assim, para Leibniz, a verdade dos axiomas das ciências dependeria
de “princípios últimos” extracientíficos, isto é, lógicos ou metafísicos118.
Dessa forma, o fundamental da teoria newtoniana da luz não está em
supor sua natureza corpuscular, mas na concepção da propagação da luz,
em princípio, por raios retilíneos refletidos e refratados num mesmo plano,
segundo leis conhecidas.

e) A Análise Matemática da luz


No prefácio de seu tratado sobre a luz, Huygens diz que seu método
de investigação é diferente do dos “geômetras” (alusão a Newton?), os
quais partem de princípios certos e incontestáveis, enquanto ele verifica
seus princípios pelas conclusões inferidas deles. Com isso, ele quer dizer
que, ao contrário de Newton, ele verifica, nas conclusões de seu tratado,
118 ORTEGA y GASSET, J. La idea de Principio en Leibniz y la evolution de la teoria
dedutiva. Revista do Ocidente, 1958.

281
que a luz é um movimento que se propaga em ondas semelhantes às da
propagação do som no ar. Evidentemente, já estava demonstrado que a luz
propaga-se também no vácuo, onde não há ar. Daí a necessidade de admi-
tir um meio etéreo, hipótese essa que, como tal, era repudiada por todos
que seguiam Newton. Mas o que parecia provar que a luz não consistia na
emissão de particular era que dois raios luminosos poderiam cruzar-se sem
nenhuma aparência de choque entre partículas.
Contudo, para Huygens, a principal diferença entre a propagação das
ondas de som e as de luz estava no fato de que as vibrações sonoras têm
origem no movimento da totalidade do objeto emissor, enquanto as vibra-
ções luminosas partem de cada ponto do corpo luminoso. Isso é evidente
porque, na luz, percebe-se cada um dos pontos do objeto, enquanto o som
é percebido como proveniente da totalidade do objeto sonoro. Isso tem
uma decorrência que fortalece a hipótese do éter. É que o corpo sonoro está
imerso no ar e seu movimento transmite-se a este, enquanto que cada par-
tícula da matéria luminosa estaria como que boiando no éter e a ele comu-
nicaria sua vibração. É também admissível que a velocidade de vibração
do éter seja muito mais rápida do que a do ar, pois os dois movimentos não
se comunicam entre si.
As ondas luminosas propagar-se-iam em esferas centradas em cada um
dos pontos luminosos. Além disso, qualquer ponto da superfície dessas
ondas seria considerado também como ponto luminoso. As ondas esféri-
cas destes vários pontos luminosos seriam envolvidas por uma frente de
ondas. Quando a fonte luminosa está muito distante, a frente de ondas é
esférica. Uma abertura numa superfície opaca colocada entre o objeto lu-
minoso e o iluminado deixa passar um cone de luz correspondente a essa
abertura. Isso ilustra o fenômeno da propagação linear dos raios de luz,
mesmo adotando-se a hipótese ondulatória da luz. Como foi dito, os raios
entrecruzam-se sem o menor impedimento. Assim que, “por uma mesma
abertura, vários espectadores podem ver ao mesmo tempo objetos diferen-
tes”, esclarece o próprio Huygens – o que vem a demonstrar que não há
emissão de partículas do objeto luminoso ao iluminado. O movimento dos
pontos do objeto luminoso é comunicado aos pontos do elemento etéreo,
que preenche todo o espaço e penetra no interior de todo corpo translúcido.
A partir dessas ideias, Huygens demonstra geometricamente que o ângu-
lo de reflexão é igual ao de incidência. Partindo da suposição de que o éter,
no interior dos corpos transparentes, está constrangido e que, portanto, a ve-
locidade da luz no interior destes é menor, Huygens demonstra geometrica-
mente, baseando-se na lei dos senos de Snell, que a luz refrata ao atravessar

282
de um meio para outro, na mesma relação que as velocidades de propagação
nesses dois meios. Por exemplo: se um raio de luz, atravessando o ar, incide
sobre uma superfície de água, ele penetra na água sobre um ângulo de cerca
de 3/4 do ângulo de incidência, pois a velocidade da luz na água é cerca de
3/4 da velocidade no ar. Contudo, Huygens mostra, também geometrica-
mente, que quando o ângulo de incidência é maior que certo valor, torna-se
impossível ocorrer o fenômeno de refração. Além do mais, se a direção de
propagação da onda for em sentido oposto, o fenômeno é reverso.
Lembrando que se observa o fenômeno de refração também na atmos-
fera terrestre, na qual não há superfícies separadoras de meios diferentes.
Huygens explica que tal refração é devida ao fato de que:
[…] o ar que nos cerca, além das partículas que lhe são próprias e que estão
mergulhadas em matéria etérea, como foi explicado, é também preenchido por
partículas de água elevadas pela ação do calor. Por outro lado, reconheceu-se por
certas experiências que a densidade do ar diminui à medida que se sobe. Seja
porque as partículas de água e de ar participam, por meio da matéria etérea, do
movimento que constitui a luz, sendo estas, no entanto, de uma elasticidade mais
lenta do que aquelas, seja porque o encontro e resistência que essas partículas de
ar e água dão à propagação do movimento das partículas do éter devem tornar o
ar progressivamente menos adequado à propagação das ondas de luz à medida
que se desce de uma grande altura à terra119.
Curiosamente, o capítulo seguinte do tratado da luz – o qual, aliás, é
o mais longo do livro – é dedicado ao que hoje se chama de uma anomalia.
É o caso da dupla refração do espato da Islândia, uma espécie de calcita.
Quando um raio luminoso incide sobre a superfície de tal cristal, divide-se
em dois: um raio obedecendo à lei de refração normal e, outro, sofrendo
uma refração diferente. Huygens aplica a análise geométrica, que veio uti-
lizando anteriormente para justificar sua conjetura de que em tais cristais
formam-se duas frentes de ondas. Uma é a normal esférica proveniente da
vibração das partículas de éter no interior do cristal. Porém, do movimento
ondulatório participariam também as partículas do próprio cristal, o que
daria origem a uma segunda frente de onda, não mais esférica, porém elip-
soidal, devido ao fato que, dada a anisotropia do cristal, as velocidades de
propagação das ondas seriam diferentes nas duas direções principais. É de
se notar que a dupla refração não seria peculiar somente ao espato da Islân-
dia, mas a todo cristal cujo sistema de cristalização fosse anisotrópico, isto
é, qualquer cristal, exceto os do sistema cúbico. Aliás, o próprio Huygens
menciona que encontrou dupla refração num cristal de quartzo.
119 HUYGENS, Christiaan. Tratado da Luz. Cadernos de História e Filosofia da Ciên-
cia, Suplemento 4/1986.

283
A teoria ondulatória de Huygens não encontrou muita aceitação quan-
do foi publicada, talvez devido à autoridade de Newton em sua teoria
corpuscular, apesar das dúvidas expressas por ele próprio em sua ótica.
Assim, o tratado da luz (1690) foi esquecido e somente rememorado
quando Thomas Young (1773-1829) – um médico de ampla cultura, inte-
ressado desde em Egiptologia até em Fisiologia da vista –, que ensinava
Filosofia Natural na Royal Institution, interessou-se pela investigação das
causas dos célebres “anéis coloridos de Newton” que apareciam em placas
delgadas.
A partir da conjetura que a luz propagar-se-ia em ondas, vibrando
transversalmente ao seu eixo de propagação (e não por impulsos de com-
pressão, como imaginava Huygens), Young realizou em 1804 o seguinte
experimento: através de um orifício praticado numa placa opaca, um feixe
de luz difratava-se e os raios difratados vinham atravessar dois outros ori-
fícios numa segunda placa, paralela à primeira. Ora, num écran, colocado
após a segunda placa perfurada, apareciam bandas alternadas de luz e som-
bra. Se, entretanto, um dos dois orifícios da segunda placa fosse tapado, as
bandas desapareciam.
A explicação do ocorrido seria a de que, sendo a luz o resultado de
vibrações contínuas transversais ao eixo de propagação, os raios difrata-
dos por um dos orifícios da segunda placa vinham somar seus efeitos aos
raios difratados pelo segundo orifício, no écran. Como as distâncias per-
corridas pelos dois feixes eram ligeiramente diferentes, em certos locais
os picos de onda somavam-se, produzindo luz intensa, mas em outros,
anulavam-se mutuamente, produzindo sombra. Portanto, a luz seria um
movimento vibratório transversal, de comprimento de onda constante e
regular. O fenômeno foi chamado, então, de interferência, e explicava não
só a experiência de Young, mas também o fenômeno dos anéis de Newton.
Mas Young errou quando admitiu que a difração fosse necessária para que
se desse a interferência. Mais tarde, a interferência foi observada também
em raios não difratados.
A descoberta de Young foi muito mal recebida na Inglaterra, tendo
sido ele incrivelmente acusado de falta de patriotismo, pois desmentira
Newton, dando preferência a uma teoria que, conhecida como ondulatória,
favorecia um estrangeiro. Somente dez anos depois seu trabalho veio a
ser reconhecido, quando a Academia de Ciências da França concedeu um
prêmio a Étienne Malus (1775-1812) por sua teoria matemática da dupla
refração, a partir da qual foi descoberto o fenômeno da polarização da luz.
Um feixe de luz polarizada é aquele em que a vibração só se dá num

284
único plano. Malus percebeu que, observando um feixe de luz solar refleti-
do em um espelho através de um cristal de calcita, as duas imagens varia-
vam de intensidade até que uma delas desaparecia quando o cristal girava,
tendo como centro o raio de luz. Mas tal não acontecia quando o feixe de
luz vinha direto do Sol. A luz refletida seria, portanto, polarizada. Mas a
atenção de Young por sua própria teoria só veio a manifestar-se em 1816,
quando François Arago (1786-1853) comunicou-lhe experiências que vi-
nham sendo realizadas pelo engenheiro Augustin Fresnel (1788-1827) so-
bre luz polarizada.
Fresnel foi o formulador matemático da Teoria Ondulatória da Luz120.
Aplicou-se ao fenômeno da luz a equação diferencial das cordas vibrantes,
estabelecida por D’Alembert, a qual regia os deslocamentos transversais
de uma corda esticada que vibrasse. A solução dessa equação levara a uma
função senoidal do tempo, com uma amplitude que era tanto maior quanto
maior fosse a intensidade da luz e com uma velocidade de propagação
crescente com a elasticidade do meio e decrescente com sua densidade.
Mas essa teoria levava à dificuldade de concepção do meio etéreo em
que a luz se propagaria. Em primeiro lugar, com a vibração sendo trans-
versal, o meio etéreo não poderia ser um fluido, pois este não resiste a
deslocamentos laterais. Em segundo lugar, esse meio deveria ser de alta
elasticidade, pois a velocidade de propagação da luz era notoriamente alta.
Foi então necessário imaginar um meio etéreo que incrivelmente fosse
extremamente sutil, mas que tivesse as propriedades de um sólido extre-
mamente rígido e elástico.
De qualquer forma, Fresnel, com sua teoria matemática, pode explicar
não só os fenômenos de reflexão, refração e dispersão da luz em cores,
mas também os de interferência e polarização. Em seu livro natureza da
luz121, publicado em 1822, depois de uma longa e pormenorizada exposi-
ção do fenômeno da difração – o qual lhe permite medir os comprimentos
de onda (velocidades divididas pelas frequências) das diferentes cores –,
e depois de explicar os fenômenos da reflexão, refração, dupla refração e
polarização, Fresnel explica, com base na sua formulação matemática das
ondas transversais senoidais, a coloração das lâminas delgadas.
Apesar dessa explicação matemática consistente e coerente da teoria on-
dulatória, os adeptos da teoria corpuscular persistiam em defendê-la, justa-
mente pela dificuldade de admitir um “éter luminoso” de propriedades tão
120 BASSALO J. M. F. Fresnel: o formulador da Teoria Ondulatória da Luz. Belém do
Pará: UFPA - PROPESP - Comitê de Pós-Graduação, 1988.
121 FRESNEL, A. Naturaleza de la Luz. In: La Teoría Ondulatoria de la Luz. Buenos
Aires: Editorial Losada, 1945.

285
incríveis. Só quando Foucault e Fizeau, em 1850, empreenderam as medidas
das velocidades da luz no ar e na água foi que se encontrou um argumento
crucial a favor da teoria ondulatória. A teoria corpuscular levava a concluir
que a velocidade da luz nos meios mais densos era maior que nos mais le-
ves, enquanto a ondulatória concluía, pelo contrário, que a velocidade da luz
decrescia quando a densidade do meio aumentava. Assim, na água, ela seria
menor que no ar. Ora, as experiências de Foucault e Fizeau confirmaram
isso. Foi a vitória da teoria matemática ondulatória da luz. Mas estas ondas
deveriam ser ondas de algo. Esse algo seria uma matéria sutilíssima de pro-
priedades inusitadas: o éter luminífero. Mas a descrença nesse éter persistiu.
É de se notar, afinal, que a teoria matemática de Fresnel foi uma das
primeiras a ter sua aplicação bem-sucedida na solução de um problema
técnico, pois o engenheiro Fresnel foi quem inventou, com base na sua
teoria, as lentes para holofotes de faróis que concentram a luz em feixes
estreitos. Essa é uma das primeiras realizações da tecnologia entendida
como utilização de teorias científicas na solução de problemas técnicos.
Constatou-se que, pelo menos nesse caso, a utilização tecnológica de uma
teoria física exigia que esta devesse ser uma teoria matemática.

f) O calor
Uma forma de energia, cuja utilização é quase congênita com a huma-
nidade, é o calor obtido através do fogo. A experiência do calor do fogo,
proveniente de queimadas espontâneas ou de meteoritos incandescentes
vindos do céu, deve ser simultânea com o surgimento da consciência hu-
mana. Mas a evidência do controle do fogo pelo homem é menos arcaica.
A mais antiga foi encontrada nas cavernas superiores de Choukoutien, per-
to de Pequim, ocupadas pelo Homem de Pequim – um homem primitivo
muito semelhante ao Pithecanthropus Erectus –, que viveu cerca de 500
mil anos atrás, no Pleistoceno médio. Ali se encontram traços de carvão,
ossos queimados e resquícios de fornos.
Daí em diante desenvolveu-se uma técnica, relacionada com o calor,
a produção, a conservação e o controle do fogo para aquecimento, ilumi-
nação e preparo de alimentos, além de finalidades mágicas, pois o fogo
deveria ser considerado algo sagrado, vindo do céu com os meteoros, uma
dádiva dos deuses. As técnicas do fogo desenvolvem-se em torno da cons-
trução dos fornos e da Metalurgia. Essas técnicas perduram por milhares
de anos em todos os continentes, inclusive nas Américas, mais ou menos
de forma semelhante. Contudo, nada era conhecido sobre a natureza do
fogo e do calor até recentemente.

286
Com o advento da teoria grega no VI século a.C., o fogo vem a ser
concebido como uma das arché (princípio de onde tudo surge e para o qual
tudo retorna) da physis (natureza concebida como teoria). Para Heráclito de
Éfeso (540-480 a.C.), a physis era um fluir universal de elementos contrá-
rios cuja origem, princípio e fim eram o fogo, apesar de subordinada a uma
razão (logos) que unificava os contrários. O calor seria o próprio fluxo sen-
sível desse princípio. Essa foi a primeira vez que se concebeu teoricamente
o fogo como elemento da natureza. Nota-se aí uma transição da crença
mitológica do fogo como propriedade roubada aos deuses por Prometeu
e entregue aos homens para o seu uso. Mas uma tal concepção teórica do
fogo e do calor não tem, e nem pretende ter, qualquer aplicabilidade prática.
As técnicas dos cozinheiros, foguistas e metalúrgicos continuam a ser
praticadas e desenvolvidas, por muito tempo ainda, sem teoria alguma. É
de se conjeturar que, com o advento das religiões reveladas e, portanto, de
uma maneira de pensar unitária, tenha surgido das técnicas, em diferentes
e apartadas regiões do mundo, a Alquimia, a qual usa o fogo como elemen-
to indispensável para a transformação dos metais, simultaneamente com a
purificação da alma do alquimista. Não há, contudo, na Alquimia, teoria
alguma, embora se possa nela encontrar sabedoria.
A teoria desenvolve-se com Aristóteles, para quem os elementos da phy-
sis eram quatro: água, fogo, ar e terra, a cada um deles correspondendo duas
das propriedades sensíveis: úmido, seco, quente e frio. A formação do vapor
pela fervura poderia, então, ser explicada pela combinação das propriedades
da água (frio e úmido) com as do fogo (quente e seco), dando como resultado
a combinação do ar, com suas propriedades quente e úmido, com a terra (frio
e seco). Esta talvez tenha sido a primeira explicação teórica do fenômeno da
ebulição da água provocada pelo calor do fogo. Entretanto, o que Aristóteles
queria exemplificar era a possibilidade da geração de tudo que constitui a
physis pela combinação de seus quatro elementos.
O calor seria uma qualidade percebida pelos sentidos humanos, mas
sua origem estaria nos céus. Na meteorologia, Aristóteles explica que o
calor provém do movimento das esferas celestes. O Sol emite calor gerado
por seu movimento sideral. É esse calor que não só é transmitido à Terra,
como também é origem e fim de tudo que aqui existe.
Uma curiosa forma de investigação da natureza dos gases em relação
ao fluxo de calor foi feita em Alexandria entre os anos 100 antes e depois
de Cristo por Philon de Bizâncio e Heron de Alexandria. Eles chegaram a
construir instrumentos que demonstravam a expansão do ar pelo calor que
poderiam servir como termômetros – e uma verdadeira turbina a vapor em

287
miniatura. Era uma esfera de metal, com água no seu interior, e munida de
dois bicos colocados diametralmente. Quando se aquecia o instrumento
a ponto de a água vaporizar, o calor escapando pelos bicos fazia girar a
esfera. Qual seria a finalidade desses “brinquedos” concebidos pela sabe-
doria alexandrina – um misto da teoria grega e da técnica mágica egípcia?
Seriam eles meras “curiosidades” ou teriam sido construídos para demons-
trar experimentalmente, por exemplo, a possibilidade de transformação do
calor em movimento?
Durante a Idade Média, o calor, como qualquer outro fenômeno natu-
ral, deixou de interessar à teoria. Sua utilização restringiu-se às finalida-
des técnicas ou à opus alchimica. Sua natureza permaneceu desconhecida
até os primórdios da ciência moderna. A temperatura era até então uma
“qualidade” dos corpos mais quentes ou mais frios. Quem, pela primeira
vez quantificou essa qualidade, foi Galileu, no início do século XVII. Ele
construiu um bulbo de vidro contendo ar conectado a um tubo de vidro,
cuja ponta mergulhava num líquido colorido, contido num prato. Quando a
temperatura do ambiente era mais fria, o ar se contraía e o líquido colorido
subia no tubo; quando mais quente, sucedia o contrário. Era um termos-
cópio a ar. Evidentemente, um tal aparelho era sensível também à pressão
atmosférica e, portanto, não seria um termômetro. Para sê-lo, deveria eli-
minar qualquer outro efeito senão a temperatura. Foi o holandês Gabriel
Daniel Fahrenheit que, em 1714, inventou o termômetro baseado na me-
dida da dilatação de um líquido no interior de um tubo fechado. Somente
após muita tentativa é que se adotou o mercúrio como o líquido ideal para
a medição da temperatura. O nível do mercúrio, correspondente à tempe-
ratura de congelamento de uma salmoura, foi admitido como o zero da
escala, e 98o do calor do corpo humano. Só posteriormente é que se adotou
212 graus Fahrenheit para o nível correspondente à temperatura da fervura
da água. Assim, estabeleceu-se a escala Fahrenheit, na qual a temperatura
normal do corpo humano é 98,6 °F. A escala Celsius, com 0 oC para o gelo
e 100 oC para a fervura da água, só apareceu em 1792.
Ao mesmo tempo que Fahrenheit estudava a medida das temperaturas,
executava também experiências sobre a temperatura de mistura de líqui-
dos de temperaturas diferentes. Os resultados pareciam incompreensíveis.
Somente quando se misturavam volumes iguais de um mesmo líquido, a
temperatura da mistura era a média das temperaturas das partes. Quan-
do os volumes eram desiguais ou os líquidos diferentes, tal não se dava.
Porém, quando as misturas envolviam gelo ou vapor, os resultados eram
totalmente incompreensíveis.

288
Joseph Black (1728-1799), professor de Glasgow, continuando tais ex-
periências, concluiu que diferentes corpos, embora de mesmo volume ou
peso, quando reduzidos à mesma temperatura, poderiam absorver diferen-
tes quantidades de calor. O calor recebido por um corpo e a consequente
elevação de temperatura dependeria de uma característica específica dos
corpos. Além disso, haveria um “calor latente” absorvido ou emitido pelos
corpos quando congelavam ou ferviam: uma espécie de calor necessário
para a fervura ou liberado no degelo, no caso da água122.
Já se percebia, então, que o calor, além de ter uma “intensidade”, medi-
da pela temperatura, fluía também numa certa “quantidade”, de um corpo
mais quente para um mais frio. Em 1697, Georg Ernst Stahl já imaginara
ser o calor um princípio sutil: o phlógiston liberado dos corpos quando
estes entravam em combustão. Um exemplo dessa perda de phlógiston
seria a ferrugem, pois era uma espécie de combustão do ferro. A teoria do
flogisto dominou a Química do século XVIII, até que Lavoisier descobriu
o oxigênio como agente de combustão, como se verá adiante.
Joseph Black, em 1760, postulou a existência de um “fluido ígneo”, o
qual se acumularia ou se agregaria a outros corpos pelo contato do quente
com o frio. Descobriu ainda Black que, se cada corpo tem uma capacidade
própria de absorver maior ou menor quantidade de calor, é possível esti-
mar a quantidade de calor necessária para elevar de uma certa temperatura
um certo corpo de massa conhecida. Em 1772, Black e seu colega Wilcke
demonstraram que essa quantidade é proporcional à massa do corpo e à
elevação de temperatura, mas o coeficiente de proporcionalidade é dife-
rente para cada corpo. Haveria, assim, uma “afinidade para o calor”, diver-
sa para cada corpo.
Entre 1780 e 1789, Antoine-Laurent Lavoisier (1743-1794), em colabo-
ração com Laplace, desenvolveu uma série de experiências com um apare-
lho que recebeu o nome de “calorímetro” para medir o coeficiente de afini-
dade calorífica dos diversos corpos: a que denominaram “calor específico”.
Como resultado dessas medidas, Lavoisier inclinou-se pela hipótese de uma
substância corpuscular, porém imponderável, originada no fogo, a qual cha-
mou de “calórico”. Tal fluido ígneo transmitia o calor fluindo através das
substâncias. Cada átomo seria envolvido por uma atmosfera calórica res-
ponsável pelo aparecimento de uma força de repulsão contrária à gravidade.
Nos gases, essa força suplantaria a gravidade – daí a “leveza” dos gases. Nos
líquidos, equilibravam-se; nos sólidos, a gravidade predominava.
122 BASSALO, J. M. A crônica do calor: calorimetria. Belém: Universidade Federal do
Pará, PPD 001/90, 1990. Mimeografado.

289
Mas foi um americano, Benjamin Thompson – aliás, posteriormente
casado com a viúva de Lavoisier –, que abandonara as colônias durante a
Revolução Americana e tornara-se eleitor da Baviera sob o título de conde
de Rumford, quem mostrou a não existência do fluxo calórico. Mostrou
ele – com suas observações relacionadas ao torneamento de canhões de
bronze quando foi superintendente do arsenal de Munique – a evidência da
geração de calor por atrito. Não havia necessidade de contato com corpos
mais quentes para o aquecimento. Desde então, a ideia de ligar o calor a
uma substância tornou-se questionável.
Continuando suas experiências, o conde Rumford montou um cilindro
de bronze dentro do qual fazia girar um eixo de aço atritando contra as
paredes do cilindro, ambos, cilindro e eixo, dentro de um vaso d’água.
Mostrou, então, que podia levar a água a ferver pelo efeito do atrito, sem
necessidade da presença de fogo. Estabeleceu, assim, uma correspondên-
cia entre o trabalho mecânico gasto no atrito e o calor necessário para fazer
a água entrar em ebulição. Propôs, então, que o calor fosse considerado o
resultado de movimento e não de fluxo de qualquer fluido. O movimento
atritante do eixo contra o cilindro poria em movimento as moléculas dos
metais e esse movimento molecular seria transmitido às moléculas da água
que fervia.

g) A máquina a vapor
Desde muito que, tanto cientistas como técnicos, estavam conscien-
tes da força motriz do fogo. O exemplo do poder propulsor da pólvora
ao explodir estava à vista. O próprio Huygens imaginara, sem sucesso
prático, um motor de explosão a pólvora. Os fracassos tanto do lado dos
cientistas, tentando aplicar o que conheciam teoricamente sobre o calor,
como dos técnicos, tentando inventar um engenho movido pelas forças
do fogo, sucediam-se, até que Thomas Newcomen (1663-1729) conse-
guiu realizar, em 1712, um tal engenho. Era uma máquina para bombear
água que consistia num cilindro aberto na parte superior, munido de um
pistão e montado sobre uma caldeira. Admitindo-se o vapor da caldeira
no cilindro, este suspendia o pistão. Agora, injetando-se um jorro de água
fria no interior do cilindro, o vapor condensava-se, formando um vácuo
parcial no cilindro. A pressão atmosférica atuava então sobre a parte su-
perior do pistão, empurrando-o para baixo. Injetava-se de novo o vapor
e se estabelecia um movimento contínuo de vai e vem do pistão. Agora,
esse movimento poderia ser transmitido, por meio de um balancim, a
uma bomba d’água para realizar o trabalho de esgotamento de minas,

290
por exemplo. Durante mais de 50 anos esse engenho foi aperfeiçoado e
amplamente aplicado nas minas de carvão inglesas. O engenheiro John
Smeaton (1724-1792) estudou-o minuciosamente por meio de modelos,
chegando mesmo a preparar uma tabela das dimensões ótimas para a
construção dos mesmos. Mas não havia teoria alguma que explicasse o
seu funcionamento e possibilitasse o seu cálculo. Assim, as melhorias
introduzidas por Smeaton na máquina de Newcomen não a modificavam
substancialmente.
A ideia nova da qual surgiu a maquina a vapor, essencialmente na for-
ma em que ela se mantém até hoje, foi imaginada por um jovem mecânico
de laboratório da Universidade de Glasgow. James Watt (1736-1819), ao
ser encarregado, em 1764, de consertar um modelo da máquina de New-
comen usado na universidade para demonstração, procurou encontrar os
pontos defeituosos do equipamento pelos quais, como era notório, o con-
sumo de combustível era considerado exagerado. Verificou que esse ponto
estava no fato de que o vapor era condensado dentro do próprio cilindro
onde o vapor era admitido. Assim havia uma dupla perda de calor. Pri-
meiro quando o vapor era admitido no cilindro resfriado pela injeção de
água fria. Segundo quando essa água fria era injetada no cilindro: parte
dela vaporizava-se, formando uma contrapressão. Sua ideia foi então a de
separar do cilindro a condensação do vapor.
Watt inventou, assim, o cilindro-condensador do vapor, mantido em
temperatura mais fria possível, enquanto o êmbolo-motor era mantido à
temperatura mais alta possível. Criou assim o condensador-separado, para
o qual o vapor d’água era conduzido no momento de ser condensado. Aí en-
tão é que ele sofria o resfriamento, enquanto o êmbolo-motor mantinha-se
sempre quente.
Em 1768, Watt associou-se a Matthew Boulton, gerente de oficina me-
cânica, e foi graças à habilidade gerencial de Boulton que Watt pôde desen-
volver sua máquina a vapor. Além da ideia do condensador separado, uma
segunda ideia inovadora de Watt foi a de eliminar o efeito da pressão atmos-
férica. Ele fechou a parte superior do êmbolo e passou a injetar o vapor por
cima do pistão, empurrando-o para baixo e passando para o condensador,
com a subida do êmbolo pela injeção de vapor na parte de baixo. Era a má-
quina de duplo efeito. Watt e Boulton patentearam sua máquina em 1769.
Finalmente, foi também ideia de Watt transformar, em 1781, o movi-
mento de vaivém do pistão em movimento giratório por meio de biela e
manivela que faziam girar um volante. Assim, a máquina a vapor tornou-

291
-se um motor capaz de acionar não só bombas d’água, mas também qual-
quer outra máquina girante, por exemplo, os teares das fábricas de tecidos.
Com isso, a Revolução Industrial pôde tomar corpo através das fábricas
movidas pela força motriz do calor e não mais da força muscular dos tra-
balhadores. A máquina a vapor deu origem ao novo conceito de operário:
aquele que produz bens sem ser dono dos instrumentos e dos materiais.
Muito se diz a respeito da máquina a vapor ter tido sua origem no tra-
balho de técnicos sem o concurso de conhecimentos teóricos, mas há um
exagero nisso. Só pelo fato de James Watt ter sido um auxiliar de ensino
na Universidade de Glasgow daria para desconfiar de alguma contribuição
científica no desenvolvimento das máquinas a vapor. Lendo-se as notas de
Watt sobre o seu invento aparecem as figuras do prof. Black e do dr. Ro-
binson, seu aluno e sucessor, ambos muito relacionados a Watt e suprindo-
-o com os conhecimentos de termologia que se faziam necessários. Mas,
de qualquer forma, é preciso admitir que fossem os engenheiros e técnicos
que faziam avançar seus inventos, socorrendo-se de conhecimentos cientí-
ficos somente quando necessário.
Além de tudo, a mentalidade inglesa da época aceitava in totum a
ideia de que ciência e técnica interfertilizavam-se. Os inventos técnicos
esclareciam fenômenos naturais da mesma forma que descobertas cientí-
ficas tornavam possível a realização prática de um invento. Essas ideias
corporificavam-se em reuniões de cientistas, engenheiros e industriais,
por exemplo, as da Sociedade Lunar – uma associação que se reunia, em
noites de lua (daí o seu nome), em fazenda da zona rural de Birmingham.
Dessas reuniões participavam cientistas como Erasmo Darwin, avô de
Charles Darwin, inventores, como James Watt, e industriais, como Ma-
thew Boulton, para discutirem as inter-relações entre conhecimentos teó-
ricos e suas aplicações práticas. Todos eles acreditavam que os aspectos
do mundo físico poderiam ser esclarecidos pela análise científica apoiada
na experiência de laboratório, mas era a experiência prática que poderia
servir de ponto de partida para a solução de problemas técnicos.
Na França, uma mentalidade um tanto diferente imperava. A elabo-
ração da encyclopédie levara os matemáticos à análise dos fenômenos
físicos a partir de modelos mecânicos, e seria essa análise que levaria à so-
lução de problemas técnicos. Dessa forma é que, por exemplo, a equação
das cordas vibrantes de D’Alembert foi utilizada na solução de problemas
técnicos relacionados com o som. O mesmo aconteceu, posteriormente,
com a Análise Matemática da luz. Não seriam os técnicos que solicitariam
a ajuda dos cientistas nas suas invenções, mas o contrário: seriam os mate-

292
máticos que tomariam para si a solução de problemas técnicos. Essa atitu-
de fez nascer, na França, a figura do engenheiro, basicamente de formação
matemática. Essa foi a atuação dos matemáticos da Revolução Francesa
os quais, com essa intenção, criaram a École Polytechnique. Seus alunos
aprendiam alta Matemática para depois aplicá-la em seus subsequentes
estudos em escolas profissionais.
Um exemplo de engenheiro formado sob tal doutrina foi Sadi Carnot
– o polytechnicien – que explicou, em 1824, o funcionamento teórico das
máquinas a vapor depois de elas terem sido inventadas e funcionarem com
sucesso por mais de 50 anos.
Nicolas Léonard Sadi Carnot (1796-1832) era filho do general Lazare
Carnot – que salvou a França revolucionária da invasão estrangeira e foi
ministro da guerra de Napoleão. Foi Sadi Carnot quem, com a publicação
em 1824 de seu trabalho, reflexions sur la puissance motrice du feu
et sur les machines propres a développer cette puissance123, não só
explicou como funcionavam teoricamente as máquinas a vapor, mas tam-
bém tornou possível o processo de formalização matemática do fenômeno
natural de transformação do calor em trabalho mecânico. Contudo, curio-
samente, essa não era sua intenção. Seu trabalho destinava-se à divulgação
do uso de máquinas a vapor124. Enfim, não se trata de um livro de Física,
mas de engenharia baseada em princípios científicos, no estilo próprio da
École Polytechnique.
Sadi Carnot imaginou que o funcionamento teórico das máquinas a vapor
poderia ter como modelo o seguinte processo: o trânsito do vapor iniciar-se-
-ia no instante em que entrasse no cilindro da máquina, em contato com o
calor, na alta temperatura da caldeira. Expandir-se-ia, então, à temperatura
constante (isotermicamente) dentro do cilindro, empurrando o pistão. Num
segundo momento, desligando o contato com a caldeira, o vapor continuaria
a expandir, sem receber nem ceder calor (adiabaticamente). Nesta fase, a sua
pressão cairia a um valor mínimo, enquanto seu volume atingiria um valor
máximo. Neste momento, o pistão reverteria seu curso e passaria a compri-
mir o vapor dentro do cilindro posto em contato com um condensador a uma
temperatura baixa. Há, portanto, uma compressão isotérmica. Finalmente, o
contato com o condensador é retirado e o vapor é comprimido adiabatica-
mente até retornar ao ponto inicial de pressão e volume.
123 CARNOT, S. Reflections on the motive power of fire, and other papers on the second
law of thermodynamics. Por E. Clapeyron e R. Clausius. Nova York: Dover Publica-
tions, 1962.
124 WILSON, S. S. Sadi Carnot. In: Scientific American, ago. 1981.

293
Carnot acreditava que o calor era o fluxo de um elemento: o calórico –
que corria da fonte quente para o reservatório frio. Se fosse possível rever-
ter este fluxo por meio de aplicação de força mecânica externa, o elemento
calórico seria transferido do reservatório frio para a fonte quente. Ora, se
no acoplamento de uma máquina, imaginada de maior rendimento, com
uma máquina ideal, revertêssemos o fluxo calórico desta última, o trabalho
mecânico, produzido pela máquina de maior rendimento, poderia ser gasto
na máquina ideal revertida. Assim se conseguiria uma máquina de moto-
-perpétuo. Contudo, definindo o rendimento da máquina como a relação
entre a força motriz produzida pela máquina e o calor gasto em produzi-lo,
Carnot soube concluir que jamais seria possível tal moto-perpétuo.
No conceito de reversibilidade das máquinas ideais, Carnot apoia-se
num princípio não expresso: o de que a força motriz produzida pelo gasto
de calor seria igual ao calor produzido eventualmente pela mesma força
motriz. Assim, estaria implícito nas reflexões de Carnot o que viria, mais
tarde, a ser chamado de primeiro princípio da Termodinâmica: o princípio
da conservação da energia.
Por outro lado, Carnot mostra que a máquina trabalha pela intro-
dução do calor a uma temperatura alta e o restitui, em parte, a uma
temperatura mais baixa, independentemente do sistema mecânico e da
natureza da substância que o transporta. Mostra ainda que não é possível
utilizar todo o calor disponível. Parte dele é perdida no reservatório frio.
Portanto, haverá um nível de energia no qual o calor torna-se inapro-
veitável. Esse raciocínio pressupõe um segundo princípio, que só veio
a ser explicitado posteriormente. Por um tal princípio, à medida que se
vai aproveitando energia calorífica, esta vai-se degradando em níveis in-
feriores, tornando-se inaproveitável. É o atualmente chamado segundo
princípio da Termodinâmica.
Embora desde 1775 a Academia de Ciências de Paris recusasse re-
ceber trabalhos sobre o moto-contínuo, foi o trabalho de Carnot, su-
plementado pelas investigações que se fizeram a seguir sobre a energia
calorífica, que deram fim ao ideal racionalista de conceber uma máquina
que trabalhasse perpetuamente sem dispêndio de energia. Provavelmen-
te tal ideal inspirava-se no modelo do universo como máquina, cujo
movimento era eterno e imperturbável. Mas o que esqueciam os inven-
tores das máquinas de moto-contínuo era que, se elas fossem possíveis
como máquinas reversíveis, a exemplo do universo, não poderiam gerar
trabalho mecânico algum a ser aproveitado externamente125.
125 TOLEDO PIZA, A. F. R. e GOLDEMBERG, J. Sobre o movimento perpétuo e o
princípio de conservação da energia. Ciência e Cultura, v. 27, n. 9, set. 1975.

294
Assim, foi o polytechnicien Sadi Carnot quem primeiro teoretizou, a
partir de princípios evidentes por si próprios, o fenômeno da transforma-
ção da energia calorífica em energias de outras espécies. Mas os engenhei-
ros ingleses não esperaram que a teoria das trocas de calor em trabalho
mecânico desenvolvesse-se teoricamente. Eles continuavam, mesmo sem
teoria, a aplicar regras empíricas na construção de máquinas térmicas. Des-
ta forma, em 1825, o engenheiro inglês George Stephenson (1781-1848)
inaugurou um trecho de estrada de ferro em que o comboio era tracionado
por uma máquina a vapor – isso sem ter o menor conhecimento do trabalho
teórico de Sadi Carnot. Muito antes de ser definitivamente estabelecida a
Termodinâmica, muitas locomotivas a vapor trafegavam pelas estradas da
Europa e navios a vapor navegavam por rios e mares.

h) A Análise Matemática do fenômeno do calor


À medida que os engenheiros ingleses iam inventando suas máquinas
para aproveitar o poder motriz do calor, e os cientistas do continente pro-
curavam esclarecer e quantificar a sensação do mais quente e do mais frio,
os matemáticos franceses procuravam formalizar o fenômeno por meio de
equações diferenciais.
Talvez tenha sido a transmissão do calor um dos primeiros fenôme-
nos naturais a ser formalizados em equação diferencial por Jean Baptiste
Joseph Fourier (1768-1830) – um dos cientistas que acompanhou Na-
poleão na sua expedição ao Egito. Em 1812, Fourier defendeu, perante
banca constituída por Laplace, Lagrange e Legendre, a tese: “A teoria
matemática das leis da propagação do calor e a comparação dos seus re-
sultados com experimentos exatos”. Tal tese reunia resultados de pesqui-
sa iniciada em 1807. Provavelmente é o primeiro trabalho de aplicação
de equação diferencial à análise de fenômeno físico baseada em fatos
positivos. A primeira parte do trabalho foi publicada em 1822 sob o título
théorie analytique de la chaleur126.
A Análise Matemática de um fenômeno natural vem sendo, desde en-
tão, expressa por uma equação diferencial, na qual se atribui a cada um
dos seus símbolos um significado físico. Assim, qualquer teoria desse tipo
tem dois aspectos. Um, inteiramente formal: a equação diferencial em si:

( )
126 FOURIER, J. B. J. Analytical Theory of Heat. In: Great Books of the Western World,
v. 45. Chicago: Encyclopaedia Britannica, 1978.

295
Outro, constituído pelos significados dos símbolos: T é a temperatura
no ponto de coordenadas x, y, z no tempo t e mais o significado dos pa-
râmetros do corpo onde há transmissão de calor; C, calor específico; D,
densidade; e K, coeficiente de condutividade calorífica específica.
Quem sabe ler uma equação diferencial percebe que a equação acima
resulta da combinação de duas condições: 1º) trata-se de um fluxo pelo
qual a quantidade do fluido que entra num volume, tão pequeno quanto se
queira, do meio em que se dá o fluxo, é igual à quantidade que sai menos a
que é gerada no interior do volume; 2º) o fluxo é proporcional ao gradien-
te do potencial de energia no ponto envolvido por esse pequeno volume.
Poder-se-ia admitir que essas condições correspondem às hipóteses feitas
sobre a natureza do fenômeno. Isto é, no caso da transmissão do calor: 1º)
que se trata de um fluxo de calor que cresce continuamente da quantidade
gerada em cada ponto; 2º) que, em cada ponto, o fluxo de calor é pro-
porcional ao gradiente (variação por unidade de distância) da temperatura
nesse ponto. Porém, pode-se admitir que essas condições decorrem de leis
que regem o fenômeno, as quais induzem-se de fatos positivos.
De qualquer forma, as condições impostas pela análise são relativa-
mente poucas. Correspondem às equações diferenciais estudadas pela Ma-
temática superior, porém, os significados que podem ser atribuídos aos
símbolos são inumeráveis, pois correspondem a uma infinidade de fenô-
menos naturais. Assim, fenômenos diferentes podem ser expressos por
uma mesma equação diferencial. O que vai identificar o fenômeno parti-
cular são os significados atribuídos aos seus símbolos.
Mas a verdade da teoria matemática não estaria assegurada simples-
mente pela sua rigorosa dedução, pois esta se baseia, como se mostrou
acima, na imposição de condições formais aos fenômenos. Para que a teo-
ria seja verdadeira, é necessário: ou sua origem a partir de fatos positivos,
ou a concordância de suas soluções particulares com a experiência, como
fez Fourier na defesa de sua tese. Ora, esse é o critério de verdade do
positivismo comteano. O que não é de estranhar, dada a estreita amizade
que unia Fourier ao seu aluno da École Polytechnique, Augusto Comte
(1798-1857). O importante é ver nisso a correspondência biunívoca entre
o positivismo e o desenvolvimento da ciência no século XIX, porquanto
a théorie analytique de Fourier serviu como modelo para todo o desen-
volvimento posterior da assim chamada Física Clássica a qual se tornou a
rainha das ciências no século XIX.
Contudo, a criatividade de Fourier não se resume no que é expresso
na equação diferencial da transmissão do calor. Ele vai além, abordan-

296
do o verdadeiro e, até há bem pouco tempo, não solucionado problema
das equações diferenciais. Fourier é o autor de um método de solução,
pelas chamadas séries de Fourier, que até hoje é amplamente utilizado,
principalmente pelos engenheiros, na solução de problemas que envolvem
fenômenos dinâmicos. Ele demonstrou que qualquer função y pode ser
expressa pela soma de uma série de senos e cossenos da sua variável x.
Um outro aspecto do método de Fourier está na introdução, no final
de seu tratado, do que é hoje chamado análise dimensional. Essa análise
resume-se ao princípio de que as equações matemáticas devem permane-
cer válidas quando se trocam as unidades de medidas com as quais serão
expressos numericamente seus símbolos. Para que isso aconteça, é neces-
sário que as dimensões dos termos à direita de uma igualdade sejam redu-
tíveis às dos termos à esquerda. Assim, se a área de um triângulo é igual à
metade de sua base pela sua altura, é preciso que as dimensões da base e
da altura dadas, por exemplo em metros, multiplicadas entre si, correspon-
dam à dimensão quadrática (m2) da área. Fourier dedica a última seção do
seu tratado a essa análise.
Acontece que, no seu cours de philosophie positive, Comte expôs o
que ele considerava a “grande lei da homogeneidade”, “a mais extensa de
todas as que compõem a Filosofia Matemática, pois que se aplica necessa-
riamente a toda e qualquer relação entre o abstrato e o concreto”. Esta não
é nada mais que a análise dimensional. Fernando Lobo Carneiro, da Uni-
versidade Federal do Rio de Janeiro, estudou pormenorizadamente essa
relação entre o positivismo de Comte e a teoria analítica de Fourier127. Se-
gundo Comte, essa homogeneidade dimensional, entre os termos de uma
teoria e o fenômeno concreto representado, seria fundamental para que se
concluísse sobre a adequação de uma em relação ao outro.
O curso de Filosofia Positiva foi ministrado em Paris, em 1826, perante
uma ilustrada audiência, na qual não seria de se estranhar a presença de
Fourier. Nesse curso foi desenvolvida uma completa Filosofia da Ciência,
por meio da qual a Matemática era entendida como instrumento para in-
vestigação dos fenômenos naturais. Era ela dividida, com esse propósito,
em duas grandes ciências: o Cálculo, ou Matemática Abstrata, e a Mate-
mática Concreta, composta da Geometria e da Mecânica Racional. Essas
últimas fundar-se-iam na primeira para se tornarem a base de toda Filoso-
fia Natural, à qual cabia considerar todos os fenômenos naturais, os quais
seriam sempre ou geométricos ou mecânicos.
127 CARNEIRO, F. L. B. Auguste Comte, Fourier et la Théorie de l’Homogénéité Di-
mensionnelle. Comunicação enviada do seminário “Auguste Comte. Philosophie et
Revolution”. Paris: 9 a 11 de maio de 1989.

297
A parte abstrata seria como que uma Lógica Formal, enquanto a con-
creta deveria ser fundada na observação dos fatos naturais. Assim, Comte
colocava a Matemática no topo do sistema positivista e seu estudo era
tido como indispensável para todo conhecimento científico – quer seja ele
de Astronomia, Física e Química, como também de Sociologia ou Física
Social (a nova ciência que Comte pretendia ter fundado). Portanto, para o
positivismo comteano, o conhecimento de toda a natureza (incluindo-se
nela também os fenômenos orgânicos e sociais) dependeria da formali-
zação matemática. Restaria, entretanto, um problema, que era o da ade-
quação entre as formas puras da Matemática Abstrata, com as expressões
dos fenômenos concretos: quer geométricos quer mecânicos. Comte tenta
resolver o problema, como mostra Lobo Carneiro, pela sua “lei da homo-
geneidade” a qual não é mais que uma versão filosófica da “análise dimen-
sional”, utilizada por Fourier, como foi visto.
O símbolo matemático não só interpreta, mas também substitui o fe-
nômeno natural na mente do cientista. Como diz Fourier no discurso pre-
liminar ao seu livro, a Análise Matemática permite o conhecimento dos
fenômenos mesmo quando eles ocorrem, no espaço ou no tempo, longe da
percepção humana. Diz ele:
Ela fá-los presentes e mensuráveis e parece ser uma faculdade da mente humana,
destinada a suplementar a curta duração da vida e a imperfeição dos sentidos, e o
que é ainda mais importante, ela os interpreta na sua linguagem, como para ates-
tar a unidade e simplicidade do plano do universo, e fazer ainda mais evidente
uma ordem inalterável que preside todas as coisas naturais.(126)
Embora o livro de Fourier referira-se à transmissão do calor através
dos corpos, já ali é mencionado o fenômeno de irradiação do calor, de um
corpo para outro, através do vazio. O estudo das radiações seria importante
para Fourier, pois se percebe na leitura da introdução ao seu livro que sua
finalidade era o estudo do aquecimento da Terra e dos ambientes terrestres a
partir do calor solar. É verdade que já se percebia, desde o início do século,
que os raios infravermelhos transportavam calor, porém, como a luz, refle-
tiam-se e refratavam-se. Mas só em 1859, quando Kirchof, estudando os
princípios da espectrografia, apresentou sua lei da radiação, relacionando a
energia emitida com a absorvida, é que a radiação pôde ser compreendida.
Porém, o livro de Fourier não esgotava a Análise Matemática do fenô-
meno do calor. Havia ainda os problemas de troca de energia calorífica a
serem explicados matematicamente.
Para entender os fenômenos de troca de calor é necessário mencionar

298
que, em 1802, John Dalton (1776-1844), correlacionando pressão e tem-
peraturas de um gás a volume constante, concluíra que havia uma correla-
ção linear entre pressão e temperatura e que, extrapolando-se essa correla-
ção, concluir-se-ia que havia uma temperatura muito baixa onde a pressão
anular-se-ia. Assim, se as temperaturas forem contadas a partir desse va-
lor (que hoje se sabe ser -273,16o C) e chamando essa temperatura T de
absoluta, concluir-se-ia que a pressão seria proporcional à temperatura T
e, também, à energia cinética das moléculas. No mesmo ano, um jovem
preparador da École Polytechnique, Louis Joseph Gay-Lussac, mostrou
que os gases “dilatam-se igualmente pelos mesmos graus de calor”. Assim
chegou-se a deduzir a lei dos gases perfeitos ideais: pv = RT (onde p seria a
pressão, v o volume ocupado pelo gás e T sua temperatura absoluta, sendo
R uma constante).
Sadi Carnot já explicara a troca de calor em trabalho mecânico nas
máquinas a vapor. Porém, somente dez anos após a publicação do livro
de Carnot, foi que o engenheiro de minas Benoit Paul Émile Clapeyron
(1799-1864) – o construtor das estradas de ferro de Paris a Versailles e a
Saint Germain – publicou, em 1834, no journal de l’école polytech-
nique, um trabalho sobre o poder motivo do calor, no qual analisa mate-
maticamente o fenômeno da transformação do calor em energia mecâni-
ca, segundo o que Carnot expusera em seu trabalho. Clapeyron partia da
consideração de que a substância transmissora do calor, numa máquina
térmica, seria um gás perfeito obedecendo à lei pv = RT. Assim, em cada
momento o estado do gás poderia ser representado num gráfico, em que se
colocaria em ordenadas sua pressão p, e em abcissas, seu volume v.
Desta forma, o que se passava na máquina ideal de Carnot poderia ser
representado em gráfico por um ciclo correspondente aos estágios por que
passava o calor, exatamente como imaginado por Carnot. É o chamado
ciclo de Carnot, repetido em cada estágio de expansão e compressão do
vapor na máquina térmica ideal. Pois bem, Clayperon exprimiu cada uma
das linhas do gráfico em termos algébricos a partir da lei dos gases perfei-
tos e, dessa forma, elaborou uma teoria matemática do fenômeno estudado
por Carnot. É fácil mostrar analiticamente que, durante a expansão, o va-
por fornece ao pistão da máquina uma energia mecânica, diminuindo sua
temperatura. Na sua compressão subsequente, é o trabalho mecânico do
pistão que é transformado em calor, aumentando a temperatura do vapor.
O trabalho mecânico efetuado pela máquina será, então, a diferença entre
os dois, medido pela área interior do ciclo. A expressão matemática mostra
que esse trabalho não depende nem do sistema mecânico da máquina nem
da natureza da substância que transmite o calor.

299
Em 1843, o inglês James Prescott Joule (1818-1889), através de apare-
lhos engenhosamente concebidos e fabricados, pôde medir com precisão o
“equivalente mecânico” do calor. Isto é, a quanto trabalho mecânico cor-
responde um certo dispêndio de calor. Assim, suas experiências confir-
maram a conclusão teórica de que essa quantidade era sempre a mesma,
independentemente do processo, máquina ou substância utilizada na trans-
formação da energia. Um pouco antes, o jovem médico alemão Julius Ro-
bert von Mayer (1814-1878), em seus comentários sobre as energias da
natureza inorgânica, tinha chegado à conclusão, por meras especula-
ções filosóficas, que as energias eram agentes causais capazes de atuar sob
várias formas e que se transformavam umas nas outras sem perderem-se
ou criarem-se. As experiências de Joule e as elucubrações de Mayer torna-
ram possível a formulação da Lei da Conservação da Energia, já visualiza-
da implicitamente nas conclusões de Carnot sobre as máquinas térmicas.
Mas os princípios fundamentais da Termodinâmica só vieram a ser ex-
plicitados com exatidão no início da segunda metade do século XIX, por
dois eminentes professores universitários: o irlandês William Thomson
(1824-1907) – Lord Kelvin –, professor de Filosofia Natural em Glasgow,
e o alemão Rudolf Julius Emmanuel Clausius (1822-1888), professor de
Física da E. T .H. de Zurique.
Em 1850, foi publicado por Clausius nos annalen der physik um tra-
balho em que a Análise Matemática do ciclo de Carnot para o caso dos
gases é retomada e estendida para o caso de vapores nas suas máximas
densidades, quando seus volumes são parcialmente ocupados por líquidos.
Ficou então bem patente que, em qualquer caso, o acréscimo da quantidade
total de calor Q recebida pelo gás, durante a variação de seu volume e tem-
peratura, compõe-se de duas partes: uma U, o acréscimo de energia interna
do sistema (compreendendo tanto o calor livre que foi absorvido como o
consumido em trabalho interno das moléculas na expansão ou contração
do gás), e outra L, a energia calorífica consumida para produzir trabalho
externo. Mantendo-se sempre válida a soma Q = U + L , o que é uma forma
matemática de expressar o princípio da conservação da energia, a integral
dessa quantidade de calor, num ciclo reversível, será sempre igual à integral
da energia consumida ao produzir trabalho, pois a integral dos acréscimos
de energia interna deve ser nula (num ciclo reversível não se cria energia;
toda energia consumida deve aparecer como trabalho realizado).
Em 1851, Lord Kelvin exarou um princípio: é impossível construir
uma máquina que, operando em ciclos, extraia calor de uma dada fonte e o
transforme integralmente numa quantidade equivalente de trabalho. Essa

300
seria uma maneira de formular o segundo princípio da Termodinâmica.
Isto é: na natureza não há ciclos reversíveis.
Há aqui uma aparente contradição, a qual só foi realmente resolvida
em 1865, quando Clausius introduziu o conceito de entropia. Ele chamou
de entropia a medida da energia inaproveitável num processo. Qualquer
processo, em que o calor transforma-se em trabalho mecânico, aumenta a
entropia do ambiente. Além disso, qualquer tentativa de decrescê-la envol-
verá um acréscimo de entropia em qualquer outro lugar.
Com efeito, no desenvolvimento matemático da expressão do acrésci-
mo infinitesimal da quantidade total de energia, Clausius chegou à expres-
são da diferencial total dQ / T como sendo uma função das variáveis de
estado do fluido transmissor do calor. Mostrou ele que a integral (somató-
ria) dessa diferencial ao longo de qualquer ciclo reversível será nula, mas
se o ciclo não for reversível, será maior que zero. A essa integral ele deu
o nome de “entropia” – antes mesmo de explicitar qual seria o significado
físico do termo.
A introdução do conceito de entropia por Clausius é inteiramente sim-
bólica. É possível que, quando ele chegou à expressão matemática, não ti-
vesse ainda nenhuma ideia concreta do que se tratava. Somente mais tarde
o significado físico da grandeza veio a explicitar-se.
Ficou patente, então, que os ciclos reversíveis são ideais, pois os ciclos
naturais de transformação de energia calorífica em trabalho mecânico não
são reversíveis. Há sempre perdas ocasionais por atrito, por dissipação
de energia no ambiente, ou outras causas que tornam o trabalho mecâni-
co, eventualmente revertido em calor, menor que o calor equivalente para
produzir o mesmo trabalho. Como somente nos ciclos ideais reversíveis o
acréscimo de entropia ao sistema é nulo, pode-se concluir que nos proces-
sos naturais há sempre um acréscimo de entropia, isto é, um acréscimo de
energia calorífica não aproveitável para a produção de trabalho mecânico.
Nesse caso, sendo o acréscimo infinitesimal de entropia dS, o acréscimo
infinitesimal de trabalho produzido será:
dL = dQ - TdS
Foi isso que permitiu a Clausius generalizar suas conclusões, dizendo
que “embora a energia do Universo seja constante, a entropia do Univer-
so tende a um máximo”. Isto é, tende a um limite em que toda a energia
tornar-se-á inaproveitável.
Essa generalização de Clausius exorbita um tanto do rigor cientifico,
pois é uma extrapolação do que acontece num sistema restrito para o sis-

301
tema global do universo. Mas deste último não se tem conhecimento sufi-
ciente para que se possa supor que seu “funcionamento” seja semelhante
ao de uma máquina térmica.
Note-se que entre a teoria analítica de Fourier e as investigações de
Carnot, Clapeyron e Clausius há uma notável diferença do escopo da ciên-
cia. Enquanto as equações de Fourier descrevem, a partir de leis natu-
rais simples, fenômenos que podem repetir-se deterministicamente, o que
Carnot, Clapeyron e Clausius pretendem compreender são fenômenos que
introduzem um caráter de irreversibilidade ainda não dantes suposto. É
como se os fenômenos da natureza concreta incluíssem em si as categorias
humanas de consumo e gastos, enquanto a natureza ideal das leis gerais
fosse eterna e imutável.

i) A teoria cinética dos gases e a Mecânica Estatística


A teorização matemática do fenômeno do calor estava assim concluí-
da, mas os significados físicos de energia calorífica e de entropia ainda
permaneciam obscuros. Desde Francis Bacon, o calor vinha sendo consi-
derado movimento, mas movimento de quê? E que tipo de movimento?
O conde de Rumford já chegara à conclusão que o calor seria movimento
de partículas dos corpos ativadas pelo atrito com outros corpos. A ideia
do calórico como um fluido sutil já conotava a ideia de movimento de
partículas através dos corpos aquecidos. Mas só em 1738, quando Daniel
Bernoulli (1700-1782) formulou sua teoria cinética dos gases, é que se
começou a aceitar a ideia do calor como movimento das moléculas dos
gases e, por extrapolação, também das moléculas dos líquidos e, ainda
mais, dos sólidos. Por essa teoria, todo gás seria um “fluido elástico com-
posto de diminutos corpúsculos esféricos que se deslocariam em todas
as direções num movimento rápido e praticamente infinito em número”.
Bernoulli considerou as moléculas de gás contidas num recipiente cúbi-
co movimentando-se e golpeando suas paredes com uma quantidade de
movimento mv constante. Considerou ainda que, num instante de tempo
t, cada sexta parte dessas moléculas estaria contida em cilindros de altu-
ra v t e seção unitária, normais às paredes do recipiente. A partir disso,
pelas leis da Mecânica, ele pode calcular qual era a energia cinética das
N moléculas e verificar que essa energia era uma fração determinada do
produto da pressão pelo volume ocupado pelo gás128. Assim se concluía
que a pressão exercida pelos gases contra as paredes de um recipiente
128 BASSALO, J. M. A crônica do calor: a teoria cinética dos gases. Belém: Universi-
dade Federal do Pará. PPD 002/90, 1990. Mimeografado.

302
era o resultado do bombardeio dessas paredes pelas moléculas do gás,
segundo sua energia cinética.
Da análise de Bernoulli conclui-se que o produto da pressão p pelo vo-
lume v ocupado pelo gás é proporcional à energia cinética das moléculas,
multiplicada pelo número de moléculas contido no volume considerado.
Ela confirmaria, portanto, a lei de Boyle-Mariotte: pv = constante. Mas
para que essa constante fosse a mesma para qualquer gás, seria necessário
que o número de molécula dos gases fosse o mesmo, nas mesmas condi-
ções de pressão e temperatura, para qualquer que fosse o gás. Ora, isso só
foi encontrado por Avogadro em 1811, cerca de meio século depois. Além
disso, só quando se veio a saber que a energia cinética das moléculas era
função da temperatura, foi que a análise de Bernoulli tornou-se atual, pois
previra teoricamente a lei dos gases perfeitos: pv = RT.
Esse é um belo exemplo da complementaridade entre teoria e expe-
riência na ciência moderna. A partir de hipóteses concebidas pela mente,
chega-se a uma equação matemática que corresponde a uma correlação
obtida experimentalmente (lei de Boyle). Porém, essa análise vai além
da experiência, mostrando que a constante de Boyle está relacionada à
energia cinética. Experimentalmente, Dalton e Gay-Lussac mostram que a
expansividade dos gases está relacionada à sua temperatura (lei dos gases
perfeitos). Assim, fechou-se um círculo em que a teoria conjugava-se com
a experiência e esta verificava a primeira.
Percebeu-se, porém, que a hipótese de velocidades constantes das mo-
léculas, admitida por Bernoulli, não era realista. Essas velocidades deviam
ser de uma variabilidade muito grande, embora se pudesse supor uma ve-
locidade média. Isso abriu as portas para um tratamento probabilístico da
questão que, no entanto, ficou sem solução até 1860, quando foi aborda-
da por James Clerk Maxwell (1831-1879), professor da Universidade de
Cambridge. Este, sabendo que as velocidades das N moléculas de um gás
contidas num volume V poderiam ser decompostas em três componentes,
dirigidas segundo eixos de coordenadas cartesianas, formulou a hipótese
que as funções de distribuição das três componentes seriam independentes
umas das outras e que a função N(v), isto é, o número de moléculas com
velocidade v num determinado volume infinitesimal, seria igual ao produ-
to dessas funções de distribuição nas três direções.
Posto isso, Maxwell chegou analiticamente a concluir que o logaritmo
de cada uma dessas funções era proporcional ao quadrado das velocida-
des nas respectivas direções. Dado isso, conclui-se imediatamente que as
funções de distribuição das velocidades em cada uma das três direções

303
cartesianas têm a mesma forma que a função de Gauss (a conhecida equa-
ção das probabilidades). Dessa forma, se os gráficos de cada uma dessas
funções forem iguais à distribuição gaussiana das probabilidades, a função
N(v) – número de moléculas com velocidade v – terá também uma dis-
tribuição probabilística. Multiplicando essa função pela energia cinética
de cada molécula de massas iguais (pois se trata de gás constituído por
moléculas iguais) chega-se a concluir que a velocidade mais provável é
função da raiz quadrada da temperatura absoluta do gás. Assim, a tempe-
ratura absoluta de um gás ficou definitivamente relacionada com a energia
cinética de suas moléculas. A dedução matemática dessa correlação não
é isenta de crítica quanto ao seu rigor. Muitas outras formas de dedução
foram propostas, todas elas igualmente criticáveis.
Ludwig Boltzmann (1844-1906), professor de Física da Universidade
de Viena, retomou a questão e, numa série de artigos publicados na dé-
cada de 1870, sobre a segunda lei da Termodinâmica, chegou a correla-
cionar a distribuição estatística dos estados de energia das moléculas de
um gás com o acréscimo da entropia desse gás ao sofrer uma transforma-
ção térmica. A teoria de Boltzmann, confirmada pela experiência, mostra
que a relação entre esse acréscimo da entropia e a quantidade de calor
perdida na transformação térmica é o inverso da temperatura absoluta –
exatamente como quer a expressão matemática encontrada por Clausius.
Por outro lado, devido a um fato estatístico, sabe-se que a distribuição
desordenada do estado das moléculas é mais provável que a ordenada. Por-
tanto, se à maior entropia corresponde a maior probabilidade de estados de
distribuição, concluir-se-á que às maiores entropias corresponderão os es-
tados de distribuição mais desordenados. Assim, Boltzmann chegou à sua
célebre expressão da entropia de um gás como proporcional ao logaritmo
do estado desse gás.
Ora, se tivermos um corpo quente em contato com um frio, am-
bos isolados do exterior, há uma passagem de calor do primeiro para
o segundo. Como a temperatura absoluta do primeiro é maior que a do
segundo pela relação acima mencionada, a variação total da entropia
dos dois corpos aumenta. O processo inverso não pode acontecer, pois,
como já foi dito, a entropia não pode diminuir. Mesmo numa máquina
frigorífica em que se faz passar o calor do corpo frio para o quente, isso
se faz transmitindo calor para o ambiente e, assim, aumentando a entro-
pia do conjunto.
A introdução da análise probabilística no estudo dos fenômenos físicos,
feita através da Termodinâmica Estatística de Maxwell-Boltzmann, teve

304
uma repercussão violenta na Filosofia da Ciência e no pensamento cien-
tífico da segunda metade do século XIX. Com efeito: o desenvolvimento
científico da primeira metade do século fizera-se sob a égide da doutrina
positivista de que, apesar de existir um reino das Matemáticas ordenando
os fenômenos naturais, todo conhecimento da natureza deveria ter origem
no “fato positivo”. Ora, as moléculas de um gás, por não serem visíveis,
não podiam constituir “fatos positivos”. Portanto, a análise probabilística
dos movimentos de tais partículas inabordáveis pelos sentidos poderia ser
correta, mas corresponderia a elucubrações feitas sobre simples suposi-
ções mentais, não muito diferentes das metafísicas.
Contudo, o positivismo já se vinha transformando. Quando, em 1843,
John Stuart Mill (1806-1873) publicou o seu system of logic, já assimi-
lou o fato positivo a nomes dados a coisas ou eventos129. Assim, Stuart Mill
dá origem a um ramo do positivismo o qual, mais tarde, viria a chamar-se
“positivismo lógico”, em que a ideia de fato positivo já não é mais fun-
damental. Além disso, para Stuart Mill, o Cálculo das Probabilidades é
útil quando ocorre o desconhecimento de permeio com o conhecimento.
Assim, é possível aceitar suas conclusões quando se pretende chegar a
conhecer tão somente a frequência com que ocorrem os diferentes even-
tos, embora nada se conheça sobre cada um deles em particular. Os dados
numéricos não são extraídos do conhecimento de fatos particulares, mas
da experiência da ocorrência dos próprios eventos em seu conjunto. De
qualquer maneira, estava aberta uma querela sobre os fenômenos que en-
volviam partículas inobserváveis, postuladas pelo atomismo. A conjetura
sobre a matéria, como constituída por átomos que não podiam ser percebi-
dos pelos sentidos humanos, estava em questão.
Contra o atomismo Ernst Mach (1836-1916) publicou, em 1886, seu
contestado texto, no qual reduzia todo o conhecimento científico a dados
da sensibilidade130, não havendo necessidade alguma de se indagar sobre
a realidade da fonte desses dados. Isto é, as coisas e os eventos, como
queriam os empiristas ingleses, não constituíam mais do que marcas na
mente do pesquisador. O conhecimento científico seria iniciado pelo re-
gistro desses dados, em seguida ordenados pelas equações matemáticas, as
quais seriam simples regras para a formação da representação mental do
fenômeno por meio de combinações de números e conceitos geométricos.
Por isso o “fenomenismo” de Mach veio a ser entendido como o ramo
empiriocriticista do positivismo.
129 MILL, J. S. Sistema da Lógica Dedutiva e Indutiva. São Paulo: Abril Cultural, 1974.
(Col. Os Pensadores)..
130 MACH, E. Análisis de las sensaciones. Barcelona: Alta Fulla, 1987.

305
Não é de estranhar que a visão machiana do conhecimento científico se
oporia a qualquer atomismo, nos quais se partia, como na teoria cinética
dos gases – do comportamento de multidões de partículas não perceptíveis
pelos sentidos humanos, o qual só poderia ser analisado por meio de pro-
babilidades. Daí a querela sobre o atomismo que dominou as discussões
sobre Filosofia da ciência na segunda metade do século XIX.
Em 1897, Boltzmann publicou nos annalen der physik und chemie
um artigo131 em defesa do atomismo. Esse artigo, parece, foi decisivo para
a necessidade de manter-se a conjetura da matéria como conjunto de par-
tículas imperceptíveis. É uma defesa da conveniência de se manterem as
investigações, iniciadas pela teoria cinética dos gases, no sentido de re-
presentar matematicamente, com base no cálculo das probabilidades, os
fenômenos corpusculares da natureza. Para a análise desses fenômenos,
as equações diferenciais seriam extremamente complicadas e haveria a
necessidade de admitirem-se hipóteses muito além dos fatos positivos, po-
rém, afastando qualquer consideração metafísica.
Dessa querela – da qual Mach e Boltzmann foram os principais per-
sonagens – resultou a necessidade de se completar as investigações con-
cernentes à correlação entre as características macroscópicas, tais como
volume, densidade, pressão e temperatura de um corpo, com suas carac-
terísticas microscópicas: número de partículas, trajetórias, velocidades e
energia cinética.
Um dos que mais atuaram na realização dessa tarefa foi Josiah Willard
Gibbs (1839-1903), professor da Universidade de Yale, quando publicou
em 1902 o seu livro elementary principles in statistical mechanics132.
A Mecânica Estatística é, desde então, o ramo da Física Teórica que repre-
senta matematicamente os fenômenos da natureza relacionados com mo-
vimentos dispersos ao acaso, não somente de moléculas ou átomos, mas
também de partículas subatômicas. Mais uma região da natureza foi assim
completamente matematizada – não mais em termos de leis gerais, mas em
termos de análises de processos que evoluíam probabilisticamente.
É como se fossem abandonadas as ideias de ordem e simplicidade do
modelo newtoniano para dar lugar à desordem, à complexidade e à irre-
gularidade que dominam os fenômenos em que aparecem multidões de
partículas, embora cada uma delas, por si só, deva obedecer às leis gerais.
131 BOLTZMANN, Ludwig. Sobre la inevitabilidad del atomismo en las ciencias de la
naturaleza. In: Escritos de Mecánica y Termodinámica. Madri: Alianza Editorial,
1986.
132 GIBBS J. W. Elementary Principles in Statistical Mechanics. Nova Iorque: Dover
Publication, 1960.

306
j) Eletricidade e magnetismo
Das formas de energia, a eletricidade e o magnetismo são as mais re-
centemente analisadas matematicamente, embora conhecidas desde, pelo
menos, os tempos da Grécia clássica. De fato, a palavra eletricidade vem
do grego elektron, que significa âmbar, pois desde os tempos de Homero
há menção da estranha propriedade desse material de atrair partículas leves
quando friccionado. A propriedade da pedra magnetita de atrair limalha de
ferro foi mencionada por Tales de Mileto. Provavelmente seu nome vem de
Magnésia, na Tessália. Além disso, os chineses conheciam, pelo menos a
partir do século XI, a agulha magnética na navegação – constituída por um
fragmento de magnetita, em forma de agulha, colocado sobre um pivô –
que apontava o norte. É provável que os vikings tenham sido os primeiros
europeus a utilizar a bússola. Mas no final do século XII, o uso da bússola
na navegação europeia já se divulgara. Um engenheiro militar (ou talvez
médico) medieval, Petrus Peregrinus, escreveu uma carta ao seu amigo Sy-
ger de Foucaucourt em 8 de agosto de 1269 (epistola petri peregrini de
maricourt ad sygerum de foucaucourt, militem, de magnete – Carta
sobre o Magneto de Pedro Peregrino de Maricourt para Sygerus de Foucau-
court, Militar), na qual explica o Magnetismo em estreita correlação com
a Cosmologia, considerando que o eixo do mundo é análogo ao dos ímãs.
Entretanto, só no final do Renascimento, em 1600, é que aparece o pri-
meiro livro que se pode considerar científico sobre os fenômenos magnéti-
cos133. É o de magnete magneticisque corporibus et de magno magne-
te tellure physiologia nova (sobre os ímãs e os corpos imantados e a
nova física do grande ímã da terra), de William Gilbert (1540-1603),
fellow do St. John’s College de Cambridge, Inglaterra. Gilbert bacharelou-
-se em Matemática, mas recebeu seu doutoramento em Medicina em 1569.
Em 1601 foi nomeado médico da rainha Elizabeth I.
O de magnete, que, aliás, parece inspirado na carta de Petrus Pere-
grinus, parte de uma longa investigação fenomenológica do magnetismo,
feita pelo autor, na linha renascentista da “visão direta” como critério de
verdade, a qual é precedida, também à moda renascentista, pelo relato dos
conhecimentos da antiguidade clássica sobre os ímãs. Em todo o livro,
trai-se a intenção de refutar os argumentos aristotélicos da Terra imóvel,
no centro do universo.
Assim como a Terra tem dois polos – o norte, dirigindo-se fixamente
para a Estrela Polar, e o sul, como já era conhecido na época, para uma
133 GILBERT, W. On Loadstone and Magnetic Bodies. In: Great Books of Western
World, v. 28. Chicago: Encyclopaedia Britannica, 1978.

307
multidão de estrelas –, a pedra-ímã também os tem. A ponta do magneto
que se dirige ao norte deve ser chamada de polo norte e, a outra, de polo
sul. Deve-se notar, entretanto, que Gilbert já sabia que a agulha magnética
não apontava exatamente o norte. Havia uma “declinação magnética” e
esta variava de local a local do globo. Isso ele atribuía a um dos movimen-
tos naturais dos corpos magnéticos. Aliás, atribui-se a Cristóvão Colombo
a descoberta desse fato em 1492, e sabe-se que já em 1546 Mercator dese-
nhara um mapa das variações magnéticas.
Um ímã atrai outro quando se justapõem polos opostos, porém, repe-
lem-se quando se dá o contrário. Ainda mais, qualquer pedaço de ferro, por
exemplo, uma agulha, pode ser imantado – isto é, ter sua virtude magné-
tica ativada pela simples proximidade de um imã. Além disso, ao quebrar
um ímã em duas peças, não se separam os dois polos, pelo contrário, rea-
parecem ambos nos dois fragmentos.
O interessante é que Gilbert, para justificar sua teoria, moldou uma
esfera de magnetita como se fosse um modelo da Terra, a qual chamou de
“Terrella”. Depois marcou na esfera as direções em que uma agulha mag-
nética apontava quando aproximada de vários pontos da superfície da esfe-
ra. Verificou, então, que as linhas decorrentes dessas direções se cruzavam
em polos da esfera, tal qual os meridianos da Terra. Disso ele concluiu não
tanto que a Terra era um grande ímã, mas que as rochas magnéticas man-
tinham as mesmas potencialidades magnéticas do globo terrestre. A Terra
seria essencialmente magnética e os corpos magnetizados adquiririam sua
imantação por indução da Terra.
A seguir Gilbert descreve, no estilo prolixo e exasperante do Renas-
cimento, os movimentos naturais dos corpos magnéticos. Ao contrário de
Aristóteles, que só encontrava nos corpos terrestres dois movimentos, o
da queda dos corpos pesados e o da subida dos corpos leves, Gilbert pro-
põe mais cinco tipos de movimentos naturais peculiares aos ímãs. Destes,
interessam aqui três: o de atração, o de orientação e o de rotação. É curio-
so que, nesse capítulo, ele refira-se também à atração própria do âmbar,
embora encontre diferenças entre esta e a dos ímãs. De qualquer forma,
essa menção ao âmbar, quando se está tratando de magnetismo, mostra
que, já naquela época, os fenômenos elétricos e magnéticos se mostra-
ram correlacionados. Gilbert mostrou que não só o âmbar adquiria pro-
priedades elétricas de atração quando friccionado, mas que muitas outras
substâncias também o adquiriam. Mostrou também que os ímãs atraíam
somente corpos magnéticos, enquanto os corpos eletrizados atraíam tudo
que era leve.

308
A natureza magnética da Terra seria a responsável pela sua posição e
movimento no cosmos. Sua verticalidade em relação às estrelas fixas era
garantida pela sua orientação. Sua rotação era também um movimento na-
tural próprio dos corpos magnéticos. Os corpos terrestres imantados não
girariam sobre si próprios porque sobre eles agiria uma força maior, a do
seu peso, mas a massa da Terra estaria em tão perfeito equilíbrio em rela-
ção ao seu eixo que não impediria sua rotação.
A natureza magnética da Terra era, assim, algo que a movimentava.
Era, portanto, no sentido renascentista da palavra, uma alma, uma ani-
ma mundi, a qual não se restringiria a ocupar somente a matéria: ela se
expandiria no espaço em torno da Terra, pois os ímãs excitam os corpos
magnéticos situados a distancia. Por uma de suas virtudes, a Terra mantém
sua orientação no espaço; por outra, ela gira em torno de si mesma. Outros
movimentos naturais dos magnetos explicariam fenômenos astronômicos,
tais como o da precessão dos equinócios. A essa altura, Gilbert tenta utili-
zar a Geometria como demonstração dos movimentos da Terra com base
em suas ideias. Entretanto, seus esquemas geométricos são ingênuos e
não conseguem estabelecer qualquer tipo de matematização do fenômeno.
Aliás, como já foi dito anteriormente, o caráter contemplativo da Geome-
tria renascentista, preocupando-se mais com as proporções harmoniosas
das figuras geométricas do que com a análise geométrica dos fenômenos,
não era conveniente para a matematização dos mesmos.
Com o fim do Renascimento e o advento da concepção mecanicista do
mundo no século XVII, as ideias animistas de Gilbert sobre o magnetis-
mo terrestre foram substituídas por concepções mecânicas, entretanto, sua
descrição fenomenológica do magnetismo permanece válida até hoje.
Uma tentativa de entender mecanicamente os fenômenos magnéticos
e elétricos foi feita por Descartes em seus les principes de la philoso-
phie134. O tratamento do magnetismo ocupa 39 capítulos da quarta parte do
livro, enquanto apenas três ocupam-se da eletricidade. Isso mostra a pouca
importância que se dava aos fenômenos eletrostáticos na Física cartesiana.
Depois de enumerar as propriedades dos ímãs – as quais são essencial-
mente as mesmas já descritas por Gilbert –, Descartes propõe-se a explicar
mecanicamente o magnetismo.
No movimento vorticoso dos turbilhões, o qual anima todo o cosmos e
que é a causa do movimento dos astros, há certas partículas que Descartes
chama de partículas canelées (coquille d’un limaçon) – que se ligam umas às
outras e que são de menor agitação. Elas fluem em linhas retas dos polos de
134 DESCARTES, R. Les Principes de la Philosophie. In: Oeuvres de Descartes, IX - 2
- J. Paris: Vrin, 1978.

309
cada turbilhão para o seu centro. Como elas vêm do céu por dois lados con-
trários enquanto todo o céu gira num mesmo sentido, conclui-se que os raios
de partículas de um polo giram (en coquille) em movimento contrário ao do
outro. Aplicando isto à Terra, Descartes supõe que há nela poros ou condutos
por onde as partículas canelées fluem dos polos para o centro. As partículas
que vêm do sul caminham num sentido; as que vêm do norte, em outro. Am-
bas entrando de um lado e saindo do outro. Se, ao circular pela parte externa
do globo terrestre elas vierem a encontrar um ímã ou rocha magnetizada,
encontrarão maior facilidade de passar através dele do que contorná-lo, mas
tenderão a orientar o corpo magnetizado na mesma direção e sentido em que
se movem. Por isso os polos do ímã serão forçados a se orientar na direção do
fluxo das partículas caneleés. Nas palavras de Descartes: “[…] a menos que o
ímã não esteja preso por outras forças mais fortes, elas obrigam-no a mover-
-se até que seu polo, que se denomina austral, esteja inteiramente voltado
para o boreal da Terra, e o que se chama boreal, para o austral.”
Depois de tratar dos ímãs, Descartes dedica três parágrafos da quar-
ta parte dos seus principes à atração eletrostática do âmbar, do vidro e
de outros corpos friccionados. Ele explica o fenômeno supondo que, ao
friccionar esses corpos, algumas de suas menores partículas soltam-se e
espalham-se pelo ar em torno, mas, ao permanecer ligadas umas às outras
em filetes, tendem a retornar ao corpo, trazendo consigo as pequenas par-
tículas de corpos leves que encontraram em seu caminho.
Provavelmente, a ideia cartesiana dos filetes das partículas sutis que
saem dos corpos magnetizados ou eletrizados e retornam a eles produzindo
as atrações e as orientações foi sugerida pela observação das figuras de
limalhas e ferro num papel colocado sobre os polos dos ímãs.
Note-se nas diferenças entre o pensamento de Gilbert e o de Descartes
a curiosa passagem da mentalidade animista renascentista para a mecani-
cista moderna. A natureza deixa de ser entendida como “animada” por uma
alma externa e passa a ser concebida como conjunto de corpos inertes em
movimento mecânico. A Mecânica passa, então, a ser a rainha das ciências
e, como a Matemática mostra-se apta à análise dos movimentos mecâni-
cos, a matematização da natureza toma corpo a partir do início do século
XVII. Inicia-se, então, o chamado “mundo moderno”, apoiado tanto no ra-
cionalismo continental como no empirismo inglês, sempre tendo em vista
a crença de Galileu, de que o “livro da natureza está escrito em caracteres
matemáticos”.
Mas o interesse científico pelos fenômenos eletrostáticos ainda é restri-
to. São efeitos curiosos, mas não apresentam interesse maior. Sua impor-

310
tância começa a aparecer só em 1672, quando Otto von Guericke, em seu
experimenta nova, descreve uma máquina que produz eletricidade. É uma
bola de enxofre com cerca de 20 centímetros de diâmetro que gira em tor-
no de um eixo. Atritando-se a bola com a mão, ela passa a atrair partículas
de ouro, prata, papel e outros corpos.
Porém, a Análise Matemática dos fenômenos elétricos e magnéticos
não poderia ser feita antes que se conseguisse medir a grandeza das forças
neles envolvidas. Não há matematização se antes não houver mensuração.
Mas isso levou muito tempo para se estabelecer. Somente no final do sécu-
lo XVIII é que medidas das grandezas elétricas e magnéticas tornaram-se
possíveis. Por outro lado, o racionalismo, na sua intenção de livrar-se do
animismo, tinha recorrido a noções vagas, como a dos turbilhões e dos
movimentos dos fluidos sutis, dificultando a interpretação quantitativa das
experiências.
Talvez por isso os fenômenos magnéticos e elétricos permaneceram
como meras curiosidades de salão. Contudo, justamente devido a esses jo-
gos, as máquinas de produzir eletricidade estática evoluíram para grandes
globos ou discos de vidro friccionados em rotações intensas. Verificou-se
que a eletricidade gerada pelo friccionamento do vidro neutralizava aquela
conseguida pela fricção de bastões de resina. Supôs-se, então, que havia
dois tipos de eletricidade: a vítrea e a resinosa. Com a continuação dessa
atividade, foi-se descobrindo que a eletricidade poderia ser transmitida por
fios de seda ou de metal, ou mesmo pelo corpo humano, mas não o poderia
por outros materiais, ditos isolantes. Verificou-se, então, que os metais não
eram eletrizados por fricção, mas o poderiam ser por contato, se isolados
dos outros corpos.
Contudo, o problema mais difícil era como acumular e conservar os
fluidos elétricos. Aparece, então, a ideia de acumulá-los numa garrafa
cheia d’água, eletrizando a água por meio de uma barra metálica que to-
casse na máquina elétrica por uma ponta e tivesse a outra mergulhada na
água. Porém, a eletricidade acumulada dissipava-se rapidamente, o que era
atribuído à “evaporação” do fluido elétrico. Daí a ideia de fechar o mais
possível a garrafa. Em 1745, Pieter Musschenbroek, de Leyden, imaginou
uma modificação da garrafa hermeticamente fechada e cheia d’água. A
garrafa foi envolvida por uma lâmina metálica do lado de fora e a água
foi substituída por pedaços de metal. Uma barra metálica atravessava o
tampão e imergia no interior do frasco. Quando o inventor, segurando com
uma mão a parte inferior da garrafa, pôs em contato a barra superior com a
máquina eletrostática, recebeu um tremendo choque. Essa foi a origem do

311
que se veio a chamar de “garrafa de Leyden” – um condensador elétrico.
Assim, encontrou-se uma maneira de acumular energia elétrica e descarre-
gá-la em violentas faíscas.
Com tudo isso, se tornou possível o estudo experimental da eletrici-
dade. Mas o fato de não só essas experiências como também os jogos de
salão, sempre serem feitos com o concurso das mãos e do corpo humano,
veio reforçar a ideia arcaica de que a eletricidade era um “fluxo vital”, da
mesma forma que já o fora o magnetismo. Adquiriram, estes, portanto,
conotações vitalistas e mágicas correlacionadas com o ocultismo e a mis-
teriologia natural. O advento do romantismo, no fim do século, trouxe de
novo certas crenças renascentistas, como a da “conjugação dos contrários”,
sugerida pela polaridade dos ímãs e os dois fluxos elétricos diferentes que
se neutralizavam. Devido a essa contaminação, as teorias que apareceram
na época não se sustentaram. Porém, a experimentação progredia no senti-
do de se impor quase como única forma científica de abordar o problema.
Talvez seja essa conjuntura que permitiu que o progresso dos conheci-
mentos sobre tais fenômenos tenha-se dado, experimentalmente, longe dos
centros mais desenvolvidos, do outro lado do Atlântico, por um pesquisa-
dor genial como o foi Benjamin Franklin (1706-1790), mas não compro-
metido com aspectos teóricos do problema.
Franklin levou a efeito, entre 1746 e 1753, primeiro em Boston, de-
pois na Filadélfia, uma longa série de experiências que libertaram a ele-
tricidade da crendice sobrenatural que a envolvia. Os resultados de suas
experiências estavam, dessa forma, livres de qualquer preconceito teórico.
No entanto, não é possível afirmar que ele não tivesse conhecimento de
investigações anteriores. Contudo, sua mentalidade alheia a especulações
não se interessaria, como ele próprio o afirmava, em saber como e por que
a natureza executa suas leis. Bastaria conhecê-las.
Os resultados dessas experiências foram publicados em Londres, em
sucessivos opúsculos, entre 1751 e 1759, sob o título experiências e
observações sobre eletricidade135. Num dos capítulos desses escritos
– “Opiniões e conjeturas referentes às propriedades e efeitos da matéria
elétrica, consequência das experiências e observações feitas na Filadélfia
em 1749” –, Franklin resume suas principais conclusões. Conjetura que a
eletricidade é uma matéria, constituída por partículas sutis, que penetra em
toda matéria ordinária, por mais densa que seja, difundindo-se uniforme-
mente em toda a sua massa. A matéria elétrica difere da matéria ordinária
pela repulsão mútua de suas partículas, enquanto as da matéria ordinária
135 FRANKLIN, B. Experimentos y Observaciones sobre Electricidad. Madri: Alianza
Editorial, 1988.

312
atraem-se mutuamente. Todo corpo pode conter uma certa quantidade de
matéria elétrica. Quando retém mais do que o normal, a eletricidade a mais
se situará na sua superfície. Nesse caso, Franklin diz que está eletrificado
positivamente. É o caso da eletricidade vítrea. Quando a matéria elétrica
é menor que a normal, está negativamente eletrificada, como é o caso da
eletricidade resinosa. Tanto os vidros como as resinas são ditos “materiais
elétricos”, mas há o caso dos metais que, embora condutores de eletricida-
de, não a retêm. Portanto, para Franklin, não há dois fluidos elétricos dife-
rentes, mas somente um, que impregna a matéria ordinária a mais (positi-
vo) ou a menos (negativo) que a quantidade normal. Há, assim, em torno
do corpo eletrizado, uma atmosfera elétrica que permitiria o fluxo elétrico
ao longo das superfícies dos corpos, mas que tende a escapar do corpo ou
a fluir para ele, principalmente se sua forma for pontiaguda.
Anteriormente, Franklin tinha formulado a conjetura de que o relâmpa-
go e o fluxo elétrico eram a mesma coisa. As nuvens das tempestades se-
riam corpos eletrizados e os relâmpagos, suas descargas. Numa declaração
ao público feita em outubro de 1752, Franklin relata sua experiência para
comprovar a eletrização das nuvens. Monta um papagaio munido de uma
ponta metálica ligada a um fio de seda que vinha até o solo. Empinando o
papagaio durante tempestade, observou que, após o fio ter sido molhado
pela chuva, a eletricidade por ele colhida viera carregar uma garrafa de
Leyden. Com a eletricidade assim obtida foi-lhe possível realizar outras
experiências semelhantes às que se faziam com o auxílio de uma máquina
eletrostática. Assim, Franklin demonstrou a identidade da matéria elétrica
com o relâmpago. Vem-lhe, então, a ideia de defender os edifícios dos
estragos provocados pelos relâmpagos. Para tanto, monta uma barra de
metal, no alto de uma torre, com ponta afilada e ligada a um cabo metálico
que chega até o solo. Tinha inventado o para-raios.
Na terceira parte dos seus relatos sobre experiências elétricas, Franklin
conta uma observação assaz interessante. Recolhendo eletricidade de um
para-raios numa garrafa de Leyden e confrontando-a com a eletricidade de
outra garrafa, carregada por um globo elétrico de vidro, e sabendo que esta
última estava carregada positivamente, concluiu que a garrafa do relâmpa-
go era de carga negativa. Portanto, as nuvens de trovoadas seriam de carga
negativa. E Franklin conclui: “é a Terra que golpeia as nuvens e não as
nuvens que golpeiam a Terra”. Hoje se sabe que o então chamado “fluido
elétrico” é constituído por elétrons de carga negativa, o que esclarece, mas
não justifica a frase de Franklin.
Pelas suas observações e pela sua interpretação de quase todos os fe-
nômenos elétricos conhecidos na época, deve-se à Benjamim Franklin o

313
início da ciência da Eletricidade em termos experimentais modernos. Mas
restava ainda o problema da mensuração das grandezas elétricas para que
se constituísse uma teoria científica da eletricidade.
O primeiro instrumento para medir a força elétrica é o “eletrômetro-
-aerômetro” de Le Roy e d’Arcy, inventado em 1749. Ele é constituído por
uma célula de metal flutuante em água, provida de uma plataforma supe-
rior. Acima dessa plataforma, mas separada dela, há uma placa. Quando
uma carga elétrica é comunicada a esta última placa, a atração faz emer-
gir o aerômetro. A pressão exercida sobre a placa para fazê-la retornar ao
nível inicial mede a força elétrica de atração. Assim, poder-se-ia medir
as “pressões elétricas”, produzidas por efeitos elétricos diferentes. Era o
“grau de eletrificação” que se estava assim medindo, como “compressão”
– o que não é outra coisa senão o que se chama hoje de “tensão elétrica”.
Mas essa grandeza era diferente da quantidade de eletricidade comu-
nicada à placa do “eletrômetro-aerômetro”. Essa é o que se chama hoje
“carga elétrica”. Franklin teria definido essa carga elétrica qualitativamen-
te, quando falava de maior ou menor intensidade das descargas de matéria
elétricas, mas não conseguira medi-las.
Qual é a natureza dessa “carga” e como medi-la? Essa foi a pergunta
respondida por Charles-Augustin Coulomb (1738-1806) – engenheiro mi-
litar francês – com base em estudos anteriores dos ingleses Joseph Pries-
tley e Henry Cavendish, e do alemão de São Petersburgo, Franz Aepinus.
Em 1777, Coulomb publica a pesquisa recherches sur la meilleure
manière de fabriquer des aiguilles aimantées, a qual, além de ser um
trabalho técnico sobre a fabricação de ímãs, contém uma Análise Matemá-
tica do fenômeno do magnetismo, baseada na conjetura de que o campo
magnético terrestre é uniforme e atua sobre a agulha magnética na forma
de um binário de forças proporcionais ao seno do ângulo que o ímã faz
com sua orientação de equilíbrio. Ele mostra que não há polos magnéticos
separáveis, mas que a imantação é definida por um momento magnético,
o qual é resultante dos momentos individuais atuantes em cada molécula
do ímã.
Em 1785, ele adapta a balança, que Cavendish imaginara para medir as
forças de gravitação, a fim de medir, com a precisão da ordem do milioné-
simo de grama, as forças de repulsão e atração entre cargas elétricas. Des-
sas medidas resulta a famosa lei de Coulomb, acerca das forças de atração
e repulsão de cargas elétricas proporcionais a essas cargas e inversamente
proporcionais aos quadrados de suas distâncias. Definiu, assim, que as for-

314
ças eletrostáticas eram análogas às da gravidade. A massa gravitacional
corresponderia a cargas elétricas e a teoria eletrostática seria análoga à
teoria newtoniana da gravitação. Mais tarde, Coulomb mostrou também
que o magnetismo era sujeito a leis semelhantes às da eletrostática.
Nessa época, os dois matemáticos da Revolução Francesa, Lagrange
e Laplace, já tinham criado uma Mecânica Analítica capaz de resolver os
problemas estáticos e dinâmicos correlacionados com forças de atração
entre massas localizadas em pontos do espaço. A principal aplicação dessa
mecânica era nos problemas envolvendo forças gravitacionais, tais como
os da Mecânica Celeste e os da Hidráulica. Com a analogia entre gravi-
tação, magnetismo e eletrostática, a Mecânica assim desenvolvida veio
a ser aplicada, também, às questões de eletrostática e magnetismo. Para
facilitar a solução de tais problemas, Laplace introduziu, em 1782, a fun-
ção “potencial”, cujo valor dependia das coordenadas do ponto no espa-
ço, abrangido pelas forças de atração ou repulsão. Deduziu, então, uma
equação diferencial: a equação de Laplace, a qual teve imediata aplicação
nos problemas de hidráulica e eletrostática. A partir de então é que se veio
desenvolvendo a teoria matemática dos campos de força, principalmente
pelo trabalho do grande matemático alemão do início do século XIX: Carl
Friedrich Gauss (1777-1855).
Campos de força seriam regiões do espaço onde em cada ponto atua-
riam forças, semelhantemente ao que acontecia em torno de uma massa
gravitacional, uma carga elétrica ou um polo magnético. Nesses campos
haveria linhas de fluxo, sugeridas pela orientação de limalha de ferro em
torno dos polos de um ímã. Uma partícula de massa ou uma carga elétrica
poderiam mover-se ao longo dessas linhas, no sentido de passar do “poten-
cial” maior para o menor. Exatamente como uma pedra que cai na vertical
sobre a terra de uma altura maior para uma menor.
As linhas de força que atravessam uma determinada superfície dentro
do campo de força formariam, assim, um “fluxo” análogo ao da água atra-
vés de um orifício. Tal “fluxo de forças” foi definido por Gauss através do
seu célebre teorema: “O fluxo de forças que atravessa uma superfície fecha-
da envolvendo um volume de um campo de forças é igual à soma das car-
gas internas a esse volume multiplicada pelo fator 4”. Essa é a propriedade,
de natureza inteiramente matemática, dos campos newtonianos de força.
Com a teoria matemática dos campos de força foi dado um passo decisi-
vo no longo processo de matematização da natureza. Daí em diante, duran-
te o século XIX, o processo foi-se aprimorando, principalmente no sentido
de que essa matematização permitisse o desenvolvimento da tecnologia,

315
isto é, da possibilidade de resolver problemas técnicos com a utilização de
teorias científicas, predominantemente expressas em termos matemáticos.
Isso se dá com o fato de que, cada vez mais, vai-se tornando mais difícil
separar características do mundo físico das equações matemáticas.
Os fenômenos magneto e eletrostáticos, isto é, aqueles que envolviam
cargas e seus efeitos atuantes em torno de polos magnéticos ou elétricos,
foram assim matematizados com base na teoria formalmente semelhante
à das forças gravitacionais. Porém, quando foram inventados aparelhos
capazes de manter correntes elétricas ao longo de fios condutores, essa
semelhança foi destruída.
Em 1801, numa sessão do Institut de France perante Napoleão, foi con-
ferida uma medalha de ouro ao professor da Universidade de Pavia, Ales-
sandro Volta (1745-1827), pela invenção de um aparelho capaz de fornecer
continuamente eletricidade a um circuito elétrico: era a pilha elétrica. Já não
se tratava mais de descargas elétricas, mas de correntes contínuas e perma-
nentes de eletricidade. Esse fato que parece trivial e que, por coincidência
acontece exatamente na virada do século, marca uma verdadeira revolução
nos conhecimentos de eletricidade. É a passagem da eletrostática, do século
XVIII, centrada nas cargas elétricas, com suas curiosas experiências tão liga-
das à crença da “eletricidade animal”, para a Eletrodinâmica, do século XIX,
com suas correntes elétricas e seus efeitos magnéticos, a qual vai conduzir a
humanidade à era da eletrotécnica, da eletrônica e da indústria elétrica.
A pilha de Volta, constituída por placas de zinco e de cobre justapostas
e separadas por um papelão embebido em salmoura, tinha sido sugeri-
da pelas curiosas experiências do anatomista de Bologna, Luigi Galvani,
quando este dissecava rãs. Ele observou estranhas convulsões nos mús-
culos de uma perna de rã, colocada sobre uma placa de metal, quando era
tocada pelo bisturi do anatomista. Galvani interpretou o fenômeno como
manifestação da “eletricidade animal”, mas Volta, dez anos mais tarde, re-
interpretou o que aconteceu como sendo o estabelecimento de uma corren-
te elétrica entre dois metais diferentes através de um circuito fechado. Por
que isso acontecia, ele confessa não saber, mas o fenômeno deu origem
não só à pilha de Volta, mas também a estudos eletroquímicos baseados no
fenômeno da eletrólise, descoberto em 1800.
Humphry Davy explicou o funcionamento da pilha pelo poder que ela
tinha de decompor a água do cartão umedecido. Baseado no fato de que a
placa de zinco era sempre oxidada, ele sugeriu que tal oxidação devia-se
ao oxigênio liberado da água pela corrente elétrica. Mas só 20 anos depois
a questão foi claramente resolvida.

316
Como foi dito, o estudo das correntes elétricas exigiu um enfoque dife-
rente da visão newtoniana da natureza. Como já se teve ocasião de mencio-
nar, o movimento romântico alemão suscitou uma interpretação filosófica
da natureza: a Naturphilosophie, antagônica ao newtonismo. Schelling foi
um dos filósofos desse movimento. Porém, um dos discípulos de Schel-
ling, Hans Christian Oersted, descobriu, em 1820, que uma corrente elétri-
ca exercia uma força sobre uma agulha magnética no sentido de desviá-la
de sua posição normal para colocar-se transversalmente à corrente. O que
contrariava o modelo de Newton.
Uma semana depois, André-Marie Ampère mostrou que dois fios pa-
ralelos conduzindo correntes elétricas atraíam-se ou repeliam-se mutua-
mente, conforme as correntes seguiam no mesmo sentido ou no sentido
oposto. Estava estabelecida uma correlação entre corrente elétrica, campo
magnético e movimento. Isso era, de alguma forma, concordante com a
concepção do romantismo alemão de que todo fenômeno natural dava-se
pelo conflito entre polos opostos: norte-sul nos fenômenos magnéticos,
positivo-negativo nos elétricos, afinidade-repulsão nos químicos etc. A
corrente elétrica, por exemplo, seria o resultado do conflito entre o flu-
xo da matéria elétrica positiva num sentido e a matéria elétrica negativa
que fluía no outro sentido. Esse conflito repercutiria no espaço em torno
do fio, produzindo aí, também, um conflito negativo. Com essa ideia em
mente e sob a preocupação que dominava a época de encontrar causas co-
muns entre os fenômenos elétricos e magnéticos, é que se deve entender
o fato histórico de ter Oersted, durante uma de suas aulas, descoberto “o
efeito do conflito elétrico sobre a agulha magnética”136. Aí ele descreve
que, colocando-se um fio condutor de eletricidade paralelamente a uma
agulha magnética, esta gira num sentido transversal ao fio: para a esquer-
da, quando o fio está por cima da agulha, e para a direita, quando por
baixo. Além disso, esses sentidos invertem-se quando se inverte o sentido
da corrente elétrica.
Para explicar esse fato, Oersted conjetura que o efeito da corrente elé-
trica não se circunscreve ao fio condutor, mas que produz, em torno de si,
uma aura de atividade capaz de agir sobre qualquer partícula magnetizada
ali colocada. Isso levou-o a admitir a formação de um movimento circular
magnético em torno do fio condutor, conforme explicitado em artigo pu-
blicado na enciclopédia de edimburgo137.
136 OERSTED, H. C. Experiência sobre o efeito do conflito elétrico sobre a agulha
magnética. In: Cadernos de História e Filosofia da Ciência, 10/1986. Campinas:
CLEHC/UNICAMP. Tradução de Roberto Martins.
137 MARTINS, R. A. Oersted e a Descoberta do Eletromagnetismo. Cadernos de Histó-
ria e Filosofia da Ciência, out. 1986.

317
A querela sobre se a descoberta de Oersted foi por mero acaso ou não
parece questão fútil, mas não se pode negar que suas convicções filosó-
ficas o levaram a crer numa correlação entre eletricidade e magnetismo,
reforçada por fatos observados, como o desvio de agulhas magnéticas
durante tempestades – as quais já eram admitidas como fenômenos elé-
tricos. Portanto, restaria a Oersted, dentro desse contexto, descobrir um
fato que comprovasse o que já estava pressuposto em sua mente. Este
fato aconteceu numa ocasião que não era fortuita, pois era uma aula so-
bre Eletricidade e Magnetismo. Depois de, muitas vezes, tentar verificar,
sem sucesso, o efeito procurado, colocando o fio transversalmente, de-
cidiu colocá-lo paralelamente à agulha. Não se percebe nenhum acaso
nessa cena, somente a decisão do experimentador de encontrar algo não
previsto em teoria alguma. Assim, um fato experimental levou à conje-
tura da teoria dos campos magnéticos em torno dos fios condutores de
eletricidade.
Assim, a descoberta do eletromagnetismo por Oersted se constitui
como um belo exemplo de metodologia científica. Uma crença filosó-
fica e o conjunto de conhecimentos que se tem, no momento, sobre um
determinado fenômeno, dão origem a uma opinião na mente do pesqui-
sador. Essa opinião confirmada por um fato experimental conduziu-o
a formular uma conjetura (a dos campos magnéticos em torno do fio
condutor), a qual possibilita a elaboração de uma teoria que, por sua vez,
tem suas conclusões verificadas à medida que os fenômenos eletromag-
néticos foram sendo mais bem conhecidos.
A elaboração da teoria, a partir da conjetura de Oersted, é obra de
Ampère, e, posteriormente, de Maxwell. No dia 11 de setembro de
1820, François Arago reproduziu, durante uma sessão da Academia de
Ciências em Paris, a experiência de Oersted. André-Marie Ampère es-
tava presente, e de tal forma entusiasmou-se pelo assunto que, voltando
para casa, pôs-se imediatamente a pesquisá-lo. Com sua mentalidade de
matemático, procurou uma hipótese que o guiasse em suas pesquisas.
Saltou-lhe à mente que os campos magnéticos conjeturados por Oers-
ted, como existentes em tornos dos fios condutores, eram resultado de
correntes elétricas movendo-se em circuitos fechados. Dizem que, com
essa conjetura em mente, conseguiu formar um campo magnético li-
gando pilhas voltaicas em círculo, de forma tal que o polo negativo da
última se ligasse ao polo positivo da primeira. Com isso, demonstrava
também que, no interior das pilhas, havia uma corrente elétrica seme-
lhante à do circuito externo.

318
Em 18 de setembro, Ampère apresentou, sem muito sucesso, sua pri-
meira comunicação à Academia138. Depois dessa, entre 1820 e 1822, le-
vou a efeito uma série de experiências simples, em colaboração com seu
amigo Arago, mostrando que a hipótese pressuposta era verdadeira. Essas
experiências mostravam a atração e repulsão de fios elétricos paralelos, a
imantação de agulhas colocadas no interior de bobinas elétricas, e bobi-
nas que atuavam como ímãs quando percorridas por correntes elétricas.
É de se admitir que a hipótese pré-estabelecida não foi muito bem rece-
bida pelos acadêmicos, dada sua aparente não conformidade com a Física
newtoniana. Mas Ampère a defendeu por toda sua vida. Contudo, dessas
experiências resultou que o magnetismo não era resultado de correntes
elétricas circulares aos eixos dos corpos imantados, mas de cada uma de
suas partículas mais diminutas, isto é, das moléculas dos ímãs.
Ampère era um aficionado pela Filosofia, principalmente pela de Kant.
À maneira kantiana, ele admitia que o discurso da ciência fazia-se a partir
de sentenças sintáticas, isto é, sentenças em que o significado do predicado
não estava contido no do sujeito. Portanto, essas sentenças traziam conhe-
cimentos novos. Não eram tautologias. Mas, ao mesmo tempo, algumas
sentenças básicas da ciência seriam anteriores a qualquer experiência. O
método científico seria, portanto, o de partir de sentenças sintáticas, con-
jeturadas como hipóteses, para deduzir conclusões, preferivelmente por
meios matemáticos, as quais se verificariam quando confrontadas com a
experiência. É o chamado método hipotético-dedutivo, exposto e defendi-
do por Ampère em uma sua carta a Maine de Biran, em 1810139.
Em 1826, Ampère publicou o texto definitivo de sua análise: memória
sobre a teoria matemática dos fenômenos eletrodinâmicos deduzida
exclusivamente da experiência140. Por esse título, parece ter ele negado
sua ideia original de teorias deduzidas de hipóteses. Por que teria ele afir-
mado, nesse título, que sua teoria teria sido “deduzida” de experiências
– como se fosse possível deduzir algo de caráter geral, como são as teo-
rias – que necessariamente referem-se a fatos particulares? Teria Ampère
renunciado ao seu kantismo original? Teria razão Oersted quando disse
sobre Ampère: “Ele é um debatedor inábil. Não compreende claramente
os argumentos dos outros e nem é capaz de apresentar os seus próprios; no
entanto, é um pensador profundo[…]”?
138 WILLIAMS, L. P. Andre-Marie Ampere. Scientific American, jan. 1989.
139 WILLIAMS, L. P. What were Ampere’s Earliest Discoveries in Electrodynamics?
ISIS, v. 74, dez. 1983.
140 AMPÈRE, André-Marie. Théorie mathématique des phénomènes électro-dynami-
ques uniquement déduite de l’expérience. Paris: Blanchard, 1958.

319
Na realidade, a teorização matemática dos fenômenos eletromagné-
ticos elaborada por Ampère parte do fato fundamental, observado por
ele, da existência de força agente entre dois fios condutores de corren-
te. Suas experiências o levaram a formular hipóteses, por ele entendidas
como “princípios”, pelas quais essa força seria explicada – exercendo-se
perpendicularmente aos elementos de corrente – como ação a distância
proporcional às correntes e inversamente proporcional aos quadrados das
distâncias entre os fios.
Aplicando esses “princípios” a segmentos infinitesimais de fios con-
dutores, Ampère formulou uma equação diferencial. Integrando-a para os
casos de fios retilíneos de comprimento indefinido, ou para o caso de fios
em espiral, ele obteve sua célebre fórmula que dá a força total entre os
dois condutores elétricos próximos. Demonstrou ainda que a ação de uma
bobina eletrizada sobre um “elemento de corrente” é semelhante à de um
ímã. Mas sua teoria mantém o modelo newtoniano, incapaz de explicar
os efeitos magnéticos das correntes elétricas que variassem com o tempo.
Diz-se que Laplace teria enunciado, apoiando-se na teoria dos campos
de força newtonianos, a fórmula que, até hoje, se conhece pelo nome de
lei de Laplace, a qual diz que um campo magnético exerce, sobre uma cor-
rente elétrica que percorre um segmento do fio, uma força proporcional ao
“elemento de corrente” e à intensidade do campo magnético normal à cor-
rente. Na segunda década do século XIX, Jean-Baptiste Biot (1774-1862)
e Félix Savart (1797-1841), com base em experiências, enunciam a co-
nhecida lei de Biot-Savart, a qual, na sua forma mais simples, afirma que
o campo magnético formado num ponto em torno de um fio condutor de
corrente é proporcional a essa corrente e inversamente proporcional a dis-
tância normal desse ponto ao fio. Tudo isso foi constatado experimental-
mente e medido por aparelhagem inventada na época com essa finalidade.
Com essas pesquisas, ficou perfeitamente definido não só o que era uma
corrente elétrica e seus efeitos magnéticos, mas também o cálculo de suas
interações. Porém, foi com Georg Simon Ohm (1787-1854) que aparece a
primeira teoria unificada da condutividade elétrica dos fios condutores. Ele
escreveu, em 1827, a teoria matemática dos circuitos galvânicos, na
qual analisa o fenômeno da condução elétrica entre dois polos sem recor-
rência a maiores indagações sobre a natureza nem da eletricidade, nem da
matéria condutora de eletricidade141. A assim chamada lei de Ohm, básica
para a Física e a Eletrotécnica, indica que há uma proporcionalidade entre
141 POURPRIX, B. e LOCQUENEUX, R. G.S. Ohm et la Théorie Mathématique du
Circuit Galvanique (1827). Fundamenta Scientiae, v. 9, n. 4, 1988.

320
a corrente e a tensão elétrica que a produz. A esta última Ohm chama de
“força eletroscópica” – que hoje é designada por “força eletromotriz”. Tal
conceito tem origem na ideia de Ohm que a eletricidade tem origem no
contato entre dois materiais ativados pela diferença de temperatura entre
eles. Trata-se do fenômeno da termoeletricidade, descoberto por Seebeck
em 1821. Aliás, é de se notar que Ohm substituiu, em suas experiências, as
pilhas voltaicas por pares de metais soldados entre si e mantidos a tempe-
raturas diferentes. Sua ideia é a de que dois metais em contato liberam uma
força primordial não redutível à força mecânica, como admitia Coulomb, a
qual se dirige para o metal de natureza “eletroscópica”. A eletricidade não
é, assim, mais compreendida como força de atração e repulsão entre cargas
elétricas e corpos materiais, mas como efeito próprio da corrente elétrica
no espaço ocupado por corpos materiais em contato.
Note-se que, se ligarmos os dois polos de uma bateria a dois condutores
isolados, estabelecer-se-á entre eles uma diferença de potencial. Porém, se
um fio condutor for ligado do polo positivo ao negativo, estabelece-se uma
corrente ao longo da qual o potencial decresce. A força eletromotriz que
produz a corrente é, portanto, equivalente à diferença de potencial entre os
dois polos. Ao longo do fio forma-se um campo elétrico cuja intensidade
depende do comprimento deste, e o trabalho executado pela carga elétrica
que percorre o fio é a força eletromotriz.
Um outro conceito introduzido por Ohm é o de resistência elétrica,
expressa justamente pelo coeficiente de proporcionalidade entre a tensão
e a corrente para um mesmo condutor. A resistência elétrica dependerá da
maior ou menor condutividade elétrica do metal e das dimensões do con-
dutor. Compreende-se que esse coeficiente possa ser interpretado como
uma resistência do condutor à passagem da corrente. As experiências de
Ohm mostraram que a resistência de um fio condutor cresce com seu com-
primento e decresce com sua seção transversal. A resistência de um con-
dutor de tamanho e seção unitárias é a resistividade, a qual depende da
natureza do corpo condutor e de sua temperatura.
Restava, contudo, esclarecer definitivamente a natureza e as proprie-
dades dos campos magnéticos formados em torno dos condutores, além
de definir e quantificar os curiosos fenômenos, já entrevistos por Arago
e Ampère, da indução de correntes elétricas em outros condutores pelas
correntes que percorressem condutores próximos.
Isso foi feito por Michael Faraday (1791-1867), aluno e, depois, assis-
tente e sucessor de Sir Humphry Davy na Royal Institution. Em 1821, Fa-
raday começou a trabalhar com eletromagnetismo, repetindo, a princípio,

321
todas as experiências anteriormente publicadas e, depois, levando a efeito
experiências próprias. Sua mentalidade era primordialmente experimental,
mas o que descobriu e concluiu do que experimentou levou à mais magnífi-
ca síntese matemática de fenômenos físicos já feita até então: a de Maxwell.
De 1831 a 1855, Faraday publicou, como memórias, nos transactions
of the royal society, sucessivos relatórios de suas experiências sob o
título de Pesquisas Experimentais sobre Eletricidade. Posteriormente,
essas pesquisas foram reunidas e publicadas num só volume142.
A primeira série das “Pesquisas Experimentais”, lidas em novembro
de 1831, refere-se à indução das correntes elétricas, à proveniência da ele-
tricidade a partir do magnetismo, e ao estranho fenômeno, observado por
Arago, do movimento de placas condutoras ou ímãs, produzido por cam-
pos magnéticos ou correntes elétricas.
Logo de início, Faraday descreveu uma experiência feita enrolando
duas bobinas justapostas, porém isoladas eletricamente entre si, num ci-
lindro de madeira. Ele observou que, fazendo passar corrente numa das
bobinas constatava-se, por meio de um galvanômetro, a indução de cor-
rente na segunda no momento em que a corrente da primeira era ligada ou
desligada. Contudo, quando a corrente fluía estacionariamente na primeira
bobina, não se constatava corrente induzida na segunda. Isto é: a indução
só atuava enquanto houvesse variação da corrente no circuito primário.
Em seguida, descreveu a experiência de duas bobinas enroladas nos dois
lados de um anel de ferro doce: as pontas de uma delas ligadas a um galva-
nômetro e as da outra, a uma chave que conectava a segunda bobina a uma
pilha elétrica. Da mesma forma que na experiência anterior, porém desta
vez com maior intensidade, Faraday constatou o fenômeno de indução de
corrente elétrica na segunda bobina somente no momento de ligar ou des-
ligar a pilha no circuito da primeira bobina.
A interpretação do fenômeno seria que a variação da corrente na pri-
meira bobina produzia um campo magnético variável, abrangendo o espa-
ço da segunda (mais intenso no anel de ferro doce do que no espaço entre
as duas bobinas da primeira experiência). Esse campo magnético variável,
por sua vez, produzia uma corrente variável na outra bobina. Percebeu,
então, Faraday, a correlação entre corrente elétrica, campo magnético e
variação, tanto da corrente como do campo.
Na mesma série de memórias, Faraday explica o que ele chamou de
“Fenômeno Magnético de Arago”. Era o fenômeno em que, se um disco
142 FARADAY, M. Experimental Researches in Electricity. In: Great Books of the Wes-
tern World, v. 45. Chicago: Encyclopaedia Britannica, 1978.

322
de cobre for posto em rotação debaixo de uma barra magnetizada, esta
tende a seguir a rotação do disco. Ele repetiu a experiência com mais ri-
gor e atenção e chegou à conclusão que o efeito só era obtido com discos
de metais bons condutores de eletricidade. Além disso, verificou que não
havia nenhuma atração entre o disco e a barra magnética. Assim, concluiu
– ligando um galvanômetro entre o eixo e a periferia do disco – que a barra
magnetizada induzia uma corrente elétrica radial no disco de cobre, e que
era essa corrente que arrastava a barra em seu movimento.
Em seguida, Faraday executou uma experiência inversa à de Arago: fez
girar um disco de cobre entre dois polos de um ímã em ferradura. Ele ligou
o eixo e as bordas do disco a um galvanômetro e, assim, mostrou a geração
de uma corrente elétrica pelo movimento do disco.
Demonstrou-se, assim, que um polo magnético podia girar por efeito
de uma corrente elétrica, ou que, pelo contrário, um condutor de corrente
elétrica giraria por efeito de um polo magnético. É o, hoje conhecidíssi-
mo, efeito eletromagnético – correlacionando campo magnético, corrente
e movimento –, que, mais tarde, vai possibilitar a invenção do gerador e
do motor elétrico. É possível que essa seja a primeira ocasião em que se
consegue, com pleno sucesso, que uma descoberta científica venha solu-
cionar um problema técnico: a construção de um motor elétrico e de um
gerador de eletricidade. É o aparecimento da tecnologia entendida como a
utilização de conhecimentos científicos na solução de problemas técnicos.
Com efeito, no ano seguinte, em 1832, um prático mecânico, Hippolyte
Pixii (1808-1835), construiu o primeiro gerador de eletricidade do tipo
atual baseando-se na interpretação científica que Faraday tirou de suas ex-
periências. Era uma máquina constituída por um ímã em ferradura que
girava em torno de uma bobina enrolada em ferro doce. Notou-se, porém,
que a corrente assim gerada trocava de sentido com a mesma periodicidade
com que o ímã girava. Em 1836, Edward Marmaduke Clarke (1806-1859)
conseguiu imaginar e construir um comutador girante que retificava, isto é,
tornava contínua a corrente elétrica alternada gerada pela máquina de Pi-
xii. Em 1866, Henry Wilde (1833-1919) substituiu o ímã por um eletroímã
alimentado por pilhas. Em 1867, Ernst Werner von Siemens (1816-1892)
conectou o eletroímã ao próprio gerador. Assim foi inventado o dínamo
elétrico: a partir de teoria e método experimental científico.
Com base nas suas experiências, Faraday pôde afirmar que “a relação
que existe entre um polo magnético e um fio ou metal que gira e a direção
da corrente envolvida, isto é, a ‘lei’ que governa a evolução da eletricidade
por indução eletromagnética, é muito simples, porém, muito difícil de ser

323
expressa”. E conclui que a corrente de eletricidade que é induzida num
metal que se move nas vizinhanças de um ímã pode ser expressa de uma
forma simples: a) existem, ligando o polo norte ao polo sul dos ímãs, li-
nhas de força (identificáveis por limalha de ferro ou por pequenas agulhas
magnéticas); b) quando um fio de metal corta as linhas magnéticas, induz-
-se uma corrente elétrica nesse fio e aparece uma força que o impele para
a região de menor intensidade do campo magnético; c) por sua vez, o ímã
é impelido em direção contrária. Por exemplo, num fio vertical, passa uma
corrente elétrica de baixo para cima, em frente a um polo magnético. Sobre
esse fio atuará uma força tendente a movê-lo para a esquerda, enquanto
sobre o polo a força atuará no sentido de movê-lo para a direita.
À medida que desenvolvia suas experiências, tornou-se claro para Fa-
raday que não se tratava do simples aparecimento de correntes induzi-
das, mas da geração de uma “força eletromotriz” produzida num condutor
quando este se move cortando as linhas de força de um campo magnético.
No caso da corrente induzida no momento da ligação ou interrupção de
uma corrente elétrica, o que se dava era uma variação das linhas de força
magnética que cortavam o fio condutor. O que, afinal de contas, vinha a
dar no mesmo.
Surge, então, a ideia de fluxo magnético através de superfícies defini-
das por condutores elétricos. Quando um tal fluxo vem a variar, induz-se
uma força eletromotriz nos condutores que delimitam a superfície atra-
vessada pelo fluxo. Esse fluxo é igual ao número de linhas de força que
atravessa a superfície em questão, e o número de linhas, por unidade de
superfície, representa a intensidade do campo.
Assim, pode-se enunciar a chamada lei de Faraday nos seguintes ter-
mos: a variação, em relação ao tempo, das linhas de força magnética que
passam através de uma superfície delimitada por um circuito, é igual ao
trabalho executado por uma carga elétrica (força eletromotriz) que percorre
esse circuito.

k) As equações de Maxwell e as radiações de energia


James Clerk Maxwell (1831-1879) nasceu em Edimburgo no ano em
que Faraday iniciou a leitura de suas pesquisas na Royal Society de Lon-
dres. Nos seus anos de estudo em Cambridge, veio a interessar-se pelas
experiências relatadas por Faraday em suas “Pesquisas Experimentais so-
bre Eletricidade”. Sua mentalidade não era eminentemente matemática,
porém, foi levado a formular matematicamente as leis do eletromagnetis-

324
mo que até então tinham sido expressas como resultado das experiências
de Oersted, Ohm, Biot, Savart e Faraday. Ampère tinha desenvolvido uma
teoria matemática com base nas teorias dos campos de força newtonianos,
mas tinha chegado a um impasse no caso dos campos induzidos por cor-
rentes não estacionárias. O que impressionou mais Maxwell deve ter sido
o conceito de linhas de força de Faraday. Estas eram a geometrização de
um fenômeno físico, correspondente à disposição de limalhas de ferro, por
exemplo, sobre uma folha de papel sobreposta aos polos de um ímã, ou o
traçado das orientações de uma agulha magnética em torno de um ímã. Era
exatamente isso que Maxwell tinha em mente: geometrizar os fenômenos
eletromagnéticos a partir de sua aparência física.
Entre dezembro de 1855 e fevereiro de 1856, Maxwell leu, já como
fellow do Trinity College de Cambridge, seu trabalho, on faraday’s lines
of force143, sumarizando seus estudos. Nessa época, o eletromagnetismo
era entendido segundo três visões diferentes. A primeira era continental
europeia, iniciada por Coulomb, completada por Ampère e seus seguido-
res, e desenvolvida por físicos alemães, tais como Weber144 e Helmholtz145.
Baseava-se no modelo newtoniano da ação a distância entre duas cargas e
na Análise Matemática segundo a formulação analítica francesa aplicada
aos resultados de experiências simples. A segunda, que poderia ser cha-
mada de germânica, originara-se no enfoque romântico dos fenômenos
magnéticos e elétricos como conflito entre contrários. Esta não considera-
va a Matemática instrumento adequado para a compreensão da natureza. A
terceira era a de Faraday, com suas exaustivas experiências e interpretação
empírica dos resultados experimentais. Pode-se dizer que o trabalho de
Maxwell foi a síntese dessas diferentes teses.
É de se notar aqui que, em 1861, Georg Friedrich Bernard Riemann
(1826-1866) deu uma série de aulas sobre Gravidade, Eletricidade e Mag-
netismo na Universidade de Göttingen, nas quais já teria antecipado as
equações da Eletrodinâmica, com a vantagem de aproximarem-se mais das
futuras implicações da Teoria da Relatividade146.
Antes mesmo de definir, em seu trabalho, o que vem a ser linha de força,
Maxwell chama a atenção para a analogia matemática que há entre os fenô-
143 MAXWELL, J. C. On Faraday’s Lines of Force. In: NIVEN, W. D. The Scientific
Papers of James Clerk Maxwell. Nova York: Dover Publications, 1964.
144 ASSIS, A. K. T. Wilhelm Eduard Weber (1804-1891), sua vida sua obra. Revista
SBHC, v. 5, , 1991. p. 53-59.
145 WOODRUFF, A. E. The Contributions of Hermann von Helmholtz to Electrodyna-
mics. ISIS, v. 59, 1968.
146 WHITE, Carol; RIEMANN, Bernhard. Energy Potential: Toward a New Electro-
magnetic Field Theory. Nova York: Campaigner Publications, 1977.

325
menos gravitacionais de atração a distância entre dois corpos e os da irra-
diação de calor no vácuo, apesar da grande diferença entre eles, pois, nestes
últimos, a palavra “força”, por exemplo, está completamente ausente. Entre
tais formulações matemáticas, a única coisa que muda é o significado dos
símbolos matemáticos. Seu professor, William Thomson, barão Kelvin, já
tinha observado a analogia entre a irradiação de calor e a eletrostática. Pois
bem, ao definir as linhas de força de Faraday, Maxwell encontrou uma ana-
logia semelhante com o movimento de um fluido incompressível, tal como a
água, percolando através de um meio permeável, desde a sua fonte – a qual
viria a corresponder às cargas positivas – até seu escoadouro, as cargas ne-
gativas. As linhas de força seriam como que “tubos” através dos quais cor-
reriam os fluidos imaginários magnéticos ou elétricos, com uma intensidade
correspondente às velocidades de fluidos incompreensíveis reais. Lembre-se
que a palavra “fluido” não levará a erro algum “se for mantida em mente que
ela denota uma substância puramente imaginária que tem a seguinte pro-
priedade: a quantidade de fluido que, em qualquer instante, ocupa um dado
volume, ocupará no instante seguinte o mesmo volume”. Assim, as linhas
de força poderão ser definidas como linhas que, partindo de um certo ponto,
indicam a direção do movimento do fluido em todos os seus pontos.
A partir dessas ideias, Maxwell inicia, em seu trabalho, a matematiza-
ção das redes de linhas de força e suas correspondentes superfícies equipo-
tenciais. Nas palavras do estudioso de Maxwell, Paulo Abrantes147:
Frente aos sucessos da tradição continental – que Maxwell reconhece –, sua
atitude é a de defender as virtudes do pluralismo metodológico, e de mostrar que
a abordagem proposta por Faraday, além de explicar igualmente bem os fenôme-
nos, também pode ser traduzida em linguagem matemática.
De fato, Maxwell, por meio das linhas de força, conjeturava que os
efeitos eletromagnéticos efetuavam-se através de um meio interveniente,
porém, não esquecia os resultados das análises feitas com base no modelo
da teoria da ação a distância.
Numa segunda parte do trabalho, Maxwell estuda o que Faraday tinha
chamado de “estado eletrônico”, isto é, um estado em que qualquer corpo é
lançado quando em presença de magnetos ou correntes, por analogia com
o movimento turbilhonar da água quando escoa, por exemplo, em um ralo.
Ali ele desenvolve uma teoria matemática dos campos eletromagnéticos
na qual já estão anunciadas duas das equações que mais tarde vão ser cha-
madas de equações de Maxwell.
147 ABRANTES, Paulo C. A metodologia de J.C. Maxwell e o Desenvolvimento da
Teoria Eletro-magnética. Cadernos Catarinenses de Ensino da Física, v. 5, número
especial, jun. 1988.

326
No seu estudo, Paulo Abrantes ressalta esse caráter pluralista da meto-
dologia de Maxwell, a qual lhe permite a utilização ampla da analogia ao
mesmo tempo que lança mão indiscriminadamente de ideias matemáticas
e físicas. Ele analisa os sucessivos trabalhos de Maxwell, publicados en-
tre 1855 e 1873, sob esse enfoque, ressaltando a intenção do pesquisador
em enfatizar que as ações eletromagnéticas transmitem-se imediatamente
de ponto a ponto e não a distância, como queriam os seguidores da tradi-
ção newtoniana. Além disso, Maxwell insiste, a princípio, numa ilustra-
ção mecânica dos fenômenos eletromagnéticos; porém, parece que essa
sua insistência vai-se atenuando ao longo do tempo. Abrantes enfatiza
que o trabalho de Maxwell é o de traduzir as ideias de Faraday em termos
matemáticos, sem comprometimento com hipóteses sobre a natureza da
eletricidade.
Já em seu trabalho subsequente, on physical lines of force (1861),
Maxwell propõe uma visualização mecânica do fenômeno. Ele conjetura
que exista um meio capaz de entrar em movimentos vorticosos, localizados
ao longo dos percursos de linhas de propagação elétrica. Haveria partícu-
las elétricas que, ao se deslocarem no campo eletromagnético, produziriam
movimentos turbilhonares em elementos de volume do meio. Estes comu-
nicariam seus movimentos vorticosos uns aos outros ao longo da corrente
de partículas. Além de esses turbilhões disseminarem tal movimento por
todo o meio, um tal movimento, por sua vez, arrastaria outras partículas
elétricas, formando correntes induzidas.
No mesmo trabalho de 1861, Maxwell estende sua conjetura das célu-
las turbilhonares ao campo eletromagnético, considerando a plausibilidade
de as células vorticosas possuírem elasticidade. Haveria uma proporciona-
lidade entre a força eletromotriz que produz o deslocamento das partícu-
las e esse deslocamento. Maxwell estabelece analiticamente essa relação
e identifica o coeficiente de proporcionalidade, mostrando ser ele igual
à relação entre as unidades de medidas eletrostáticas e eletromagnéticas.
Curiosamente, essa relação é numericamente igual à velocidade da luz.
Daí a plausibilidade da conjetura, ainda não passível de prova objetiva, de
que o meio eletromagnético seria semelhante ao “éter luminífero” suposto
por Fresnel como meio pelo qual se propagaria a luz.
Mas a teoria maxwelliana da unidade de toda propagação de ondas
eletromagnéticas vai aparecer no trabalho publicado em 1864, sobre uma
teoria dinâmica dos campos eletromagnéticos148. Agora, Maxwell aban-
148 MAXWELL, J. C. A dynamical theory of the electromagnetic field. In: NIVEN, W.
D. The Scientific Papers of James Clerk Maxwell. Nova York: Dover Publications,
1964.

327
dona suas imagens mecânicas do fenômeno eletromagnético – o que ele
interpreta como abandono de hipóteses – e parte para a aplicação da ra-
cionalidade matemática segundo princípios formulados em equação dife-
rencial. Em sua fórmula original, essa equação relaciona todas as forças
de inércia (massas pelas respectivas acelerações) com as coordenadas dos
pontos materiais. Maxwell dá aos símbolos dessa equação os significados
das grandezas e parâmetros eletromagnéticos, e chega às duas equações
do eletromagnetismo (as duas últimas de um grupo de quatro que hoje são
denominadas equações de Maxwell).
Na Parte VI desse mesmo trabalho, Maxwell investiga analiticamente
se as propriedades dos campos eletromagnéticos são suficientes para ex-
plicar a propagação da luz. Ele mostra que há uma relação entre o índice
de refração, a capacidade indutiva e o coeficiente de indução magnética.
Finalmente, estuda as perturbações eletromagnéticas nos cristais, chegan-
do à conclusão que a luz polarizada consiste de perturbações eletromag-
néticas. Mostra ainda as relações matemáticas existentes entre resistência
elétrica e transparência.
Maxwell conclui analiticamente, por fim, que as ondas eletromagné-
ticas são da natureza da luz, pois as duas equações acima mencionadas,
combinadas entre si, levam à forma diferencial da equação das ondas, na
qual o coeficiente correspondente à velocidade de propagação (como já foi
referido anteriormente) é numericamente igual à velocidade da luz. Além
disso, a equação mostra que se trata de ondas transversais como as da luz.
Essa equação tem como solução particular a fórmula das ondas senoidais,
como é o caso das da luz simples. Daí firmar-se sua conjetura de que a luz
e as radiações de calor são fenômenos eletromagnéticos.
Ficou patente, assim, que um campo elétrico, variável com o tempo,
mesmo formado em espaço vazio, viria formar “correntes de deslocamen-
to” que produziriam, em torno de si, campos magnéticos que também se
deslocariam no espaço. Assim, ondas de movimento eletromagnético pro-
pagar-se-iam, de ponto a ponto no espaço, com a velocidade da luz.
Em 1873, Maxwell publicou seu a treatise on electricity and mag-
netism, sistematizando sob forma matemática tudo que se conhecia até
então sobre os fenômenos eletromagnéticos149. Esse livro veio a ser a fonte
de todos os conhecimentos posteriores sobre Eletricidade e Magnetismo,
além de se constituir como referência básica para todo o esplêndido desen-
volvimento tecnológico que se deu, a partir de então, na Eletrotécnica e na
149 MAXWELL, J. C. A Treatise on Electricity and Magnetism. Nova York: Dover Pu-
blication, 1954.

328
Eletrônica. Com esse trabalho, Maxwell completou sua portentosa obra,
conseguindo matematizar toda a região da natureza ocupada pela energia
eletromagnética. As quatro partes do livro são precedidas por um capítu-
lo preliminar, no qual são apresentadas e definidas as noções, métodos e
entidades matemáticas utilizadas na análise. Entre elas está uma novidade
matemática da época: os vetores. Os símbolos matemáticos inicialmente
indicavam quantidades, mas com o aparecimento das forças no estudo da
dinâmica, começou-se a perceber que havia grandezas físicas que indica-
vam, além de quantidades, também direções e sentidos.
Assim, a utilização de setas indicando a direção das forças foi-se tornan-
do frequente entre os físicos e disso surgiu o uso de vetores quando se tratava
de estudar forças e velocidades. A Álgebra dos vetores adota, para as opera-
ções de soma e subtração, as regras de composição de forças, e, para a mul-
tiplicação, define dois tipos de operações. A primeira, chamada de produto
escalar, baseia-se no modelo de cálculo do trabalho mecânico executado por
uma força (força multiplicada pelo deslocamento e pelo cosseno do ângu-
lo entre a força e o deslocamento). A segunda, chamada produto vetorial,
baseia-se no cálculo do momento de uma força em relação a um ponto (força
multiplicada pela distância da força ao ponto e pelo seno do ângulo entre a
força e a distância). O resultado do produto escalar é um escalar, porém, o do
produto vetorial é um vetor normal ao plano formado pelos dois vetores cujo
produto vetorial se processa. Esse é exatamente o modelo da conjugação de
campo, corrente e força no eletromagnetismo.
Ora, as forças dos campos elétricos e magnéticos, bem como as corren-
tes elétricas, são vetores. Assim, com a Álgebra vetorial, tornou-se possí-
vel, representando não só suas grandezas como também suas direções, cal-
cularem-se suas ações mútuas, deduzindo-se não só as quantidades, mas
também as direções das forças e correntes resultantes. Assim, a Álgebra
Vetorial tornou possível representar matematicamente o fato, observado
experimentalmente, de que a direção das forças, correntes e campos ele-
tromagnéticos eram perpendiculares entre si.
Maxwell utilizou os vetores e a Álgebra Vetorial em seu tratado, mas
não os empregou na dedução das suas equações diferenciais. Ele diz que,
sendo o método cartesiano – isto é, a utilização da Geometria Analítica
– mais familiar e mais útil aos estudantes de ciência, expressará todos
os seus resultados na forma cartesiana. Isso era possível, pois os vetores
poderiam ser representados como a soma de três componentes, cada uma
dirigida segundo os eixos de um sistema de referência cartesiana. Isso une
o Cálculo Vetorial à Geometria Analítica e torna possível a análise das
fórmulas vetoriais em termos cartesianos. É verdade que, naquela época,

329
a análise vetorial ainda não tinha sido suficientemente desenvolvida. Seria
necessário esperar até que J. Willard Gibbs publicasse, em 1902, seu tra-
balho desenvolvendo a análise diferencial dos vetores.
As quatro agora chamadas equações de Maxwell estabelecem respec-
tivamente: 1º) que os campos eletrostáticos são formalmente análogos aos
gravitacionais em virtude de a lei de Coulomb ser formalmente semelhante
à de Newton, exceto no fato de que há atração quando as cargas são de si-
nais contrários e repulsão quando são de mesmos sinais; 2º) que o mesmo
pode-se dizer dos campos magnéticos, mas neles não há polos magnéticos
isolados, a carga magnética é sempre nula; 3º) a terceira equação expressa
matematicamente a lei de Faraday, isto é, que um campo elétrico forma-se
sempre que há variação de um campo magnético; 4º) finalmente, a quarta
lei indica que há o aparecimento de um campo magnético não só em torno
de uma carga elétrica, mas quando há variação de um campo elétrico, quer
seja nos materiais, quer seja no espaço vazio, e, além disso, aparece uma
corrente de deslocamento. Essa foi sua grande inovação.
Atualmente, a análise maxwelliana dos fenômenos eletromagnéticos
é feita inteiramente em termos vetoriais, com radical economia de símbo-
los e operações. Nos tratados modernos de Física apresentam-se as quatro
equações, anteriormente referidas, sob forma inteiramente vetorial, em ca-
pítulo especial, sob o nome de “Equações de Maxwell”, como equações
fundamentais da Eletricidade e do Magnetismo.
Somente como ilustração, essas quatro equações escrevem-se em ter-
mos vetoriais da seguinte forma:

São símbolos matemáticos que contêm em si a teoria do eletromagne-


tismo. Como já foi dito, as duas primeiras foram enunciadas, sob forma algé-
brica, no trabalho de Maxwell de 1855 sobre as linhas de força de Faraday.
As duas últimas foram deduzidas em termos cartesianos no trabalho de 1864,
sobre a teoria dinâmica dos campos eletromagnéticos. Todas elas constam
do “Tratado de Maxwell”, mas lá não foram enfatizadas como fundamentais
nem foram expressas na forma vetorial acima indicada, num conjunto único.
Deve-se enfatizar que a teoria maxwelliana apoia-se numa série de ex-
periências, desde Coulomb até Faraday, que não só forneceram leis empí-
ricas, mas também permitiram a definição e a mensuração das grandezas

330
do eletromagnetismo. Porém, foi recorrendo à analogia dos fenômenos
elétricos e magnéticos com outros fenômenos já formalizados segundo os
princípios da Mecânica Analítica, que Maxwell conseguiu incorporá-los
numa grande síntese teórica – a qual veio a explicar racionalmente todas
as leis empíricas já conhecidas e permitiu a antecipação teórica dos fenô-
menos ainda não observados, como é o caso das ondas eletromagnéticas. É
como se as variadas e diversificadas aparências empíricas fossem manifes-
tações diversas de uma única realidade formal, a qual, como conjeturava
Galileu, expressar-se-ia em símbolos matemáticos.
A teoria de Maxwell foi recebida com resistência tanto na França como
na Alemanha, principalmente devido à tradição continental, em prol das
teorias de origem newtoniana da ação a distância, firmada desde as primei-
ras ideias de Ampère e apoiada por Gauss. Ora, a ideia que Faraday tinha
dos fluxos elétricos e magnéticos era de uma ação através de um meio
interveniente propagando-se de ponto a ponto. Pois, Maxwell adotara essa
ideia, daí a resistência francesa e alemã à sua teoria.
Em Tese de Doutorado que Paulo Cesar Abrantes defendeu na Sorbon-
ne150, estudam-se as opiniões contrárias à teoria de Maxwell na França. Em
suma, Abrantes considera que um fator importante da oposição francesa à
Maxwell estava no seu pluralismo metodológico – isto é, no uso indiscri-
minado e sucessivo dos métodos fenomenológico, analógico e analítico.
Isso estaria em franco contraste com o monismo metodológico racionalista
e essencialista dominante na França desde os matemáticos da Revolução.
A aceitação da teoria maxwelliana teria sido propiciada somente no final
do século XIX, com a crítica dos seus fundamentos epistemológicos feita
por Poincaré. Para esse filósofo da ciência, a teoria científica não teria por
fim descobrir a essência dos fenômenos, mas construir sua estrutura for-
mal, preferivelmente matemática, como o fez Maxwell. Para Poincaré, o
grande valor dessas estruturas estava em indicar novas linhas de pesquisa,
pelas quais novos fenômenos pudessem vir a ser observados. Exatamente
como acontecia com a teoria de Maxwell apontando a existência, ainda
não observada, das ondas hertzianas.
Num apêndice à sua tese, Paulo Abrantes examina a tradição continen-
tal em Eletrodinâmica. Ela se estabelecera a partir das leis de Ampère e de
Weber, de uma teoria elaborada por Neumann e de uma generalização pro-
posta por Helmholtz. Este pretendia assimilar todas as teorias continentais e,
além disso, demonstrar a existência da propagação de ondas eletromagnéti-
150 ABRANTES, Paulo Cesar. La Réception en France des Théories de Maxwell Con-
cernant l’Électricité et le Magnétisme. (Tese de Doutorado). Paris: Université de
Paris I, 1985.

331
cas mantendo o princípio da ação a distância. Mas foi o longo e exaustivo
trabalho experimental de Heinrich Hertz (1857-1895) provando a existência
objetiva das ondas eletromagnéticas, agora chamadas de ondas hertzianas,
que veio estabelecer definitivamente o predomínio da teoria de Maxwell.
Em 1879, Helmholtz propôs ao seu assistente Hertz que se dedicasse à
pesquisa experimental da relação entre forças eletrodinâmicas e polarização
dos isolantes, pois essa questão poderia levar à escolha definitiva entre a
teoria da ação a distância e a de Maxwell, da propagação das ações ele-
tromagnéticas através de meios intervenientes, inclusive os isolantes. Mas
tais experiências não foram adiante. Somente depois de ter sido nomeado
professor em Karlsruhe em 1885 é que sua atenção voltou-se novamente
para as oscilações elétricas capazes de provocar ações a distância. Depois
de uma série de experiências preparatórias, Hertz leva a efeito suas expe-
riências sobre a propagação das ondas eletromagnéticas no ar. Demonstra
experimentalmente que elas propagam-se no ar utilizando como transmissor
hastes metálicas, em cujas pontas saltaram faíscas elétricas, e como receptor
espiras metálicas. Ele observa que tais ondas refletem-se contra placas ou
paredes metálicas. Finalmente, mede o comprimento da onda, e, calculando
a frequência própria do transmissor, tenta deduzir sua velocidade de propa-
gação. Chega, por um erro de cálculo, a uma velocidade diferente à da luz.
Contudo, esse erro é logo descoberto e corrigido por outros investigadores.
A velocidade das ondas hertzianas era exatamente igual à da luz.
Finalmente, em sua pesquisa publicada em 1888, sobre as radiações
elétricas, Hertz descreve experiências feitas colocando o oscilador trans-
missor no foco de um grande espelho parabólico. Obtém ondas curtas e
verifica, com elas, que as ondas hertzianas possuem todas as propriedades
da luz: propagavam-se em linha reta, refletiam-se, difratavam-se e polari-
zavam-se. A série de todas as suas pesquisas contendo a descrição detalha-
da de suas experiências e dos aparelhos utilizados foi reunida num livro
cuja tradução para o inglês apareceu em 1893151. O livro termina com dois
artigos publicados em 1890 sobre as equações fundamentais do eletromag-
netismo, respectivamente para os corpos em descanso e para os em movi-
mento. O propósito de Hertz, ao escrever esses artigos, era desembaraçar
a teoria de Maxwell de todos os seus aspectos supérfluos e corrigir certas
incoerências, como ele próprio observa na introdução ao primeiro artigo.
Confessa não ser o primeiro a abordar esse assunto, pois, cinco anos antes,
Oliver Heaviside (1850-1925) tentara o mesmo e no mesmo sentido152.
151 HERTZ, Heinrich. Electric Waves. Being Researches on the Propagation of Electric
Action with Finite Velocity through Space. Nova York: Dover Publications, 1962.
152 NAHIN, P. J. Oliver Heaviside. Scientific American, n. 262, jun. 1990.

332
Os trabalhos de Heaviside, publicados numa revista técnica, o electri-
cian, além de se constituírem como de valor científico, eram de enorme valor
tecnológico, pois, empregando um método por ele próprio desenvolvido – o
“Cálculo Operacional”, a princípio muito combatido por falta de rigor, mas
amplamente adotado pelos engenheiros eletricistas –, ajudou a solucionar os
graves problemas da distorção e amortecimento dos sinais transmitidos na
telegrafia e na telefonia, a longas distâncias por meio de fios condutores.
Heaviside, simplificando a teoria de Maxwell, destacou do contexto
do tratado duas das suas equações e as exprimiu sob forma vetorial. São
elas as terceira e quarta equações de Maxwell anteriormente mencionadas.
Aliás, essas mesmas equações aparecem, sob forma analítica, no artigo
de Hertz em 1880. Tais equações foram, na época, chamadas de Hertz-
-Heaviside, depois, de Maxwell-Hertz, e agora, em conjunto com as duas
primeiras, ostentam muito justamente o nome de Maxwell.
Aparentemente, a necessidade de simplificar a Análise Matemática de
Maxwell era, na época, imperiosa, principalmente devido às suas aplica-
ções tecnológicas que já se faziam urgentes. Talvez devido a essa urgência
foi que o próprio Maxwell publicou um tratado elementar de Eletricidade
cuja tradução francesa de 1884 veio a ser o livro de texto dos engenheiros
eletricistas das primeiras décadas do século XX, pois o inglês ainda não
era considerado língua internacional153.
Hertz mostrara que as ondas eletromagnéticas existiam objetivamente
e que, regidas pelas equações de Maxwell, comportavam-se como as on-
das luminosas. Por sua vez, a expressão matemática deduzida por Fresnel
para representar as oscilações da luz era uma solução particular das equa-
ções de Maxwell. Portanto, a luz seria, dessa forma, o resultado sensível
das oscilações eletromagnéticas. A diferença entre luz e ondas hertzianas
estaria tão somente no comprimento das respectivas ondas, uma vez que
suas velocidades de propagação eram iguais. Fresnel calculara a partir do
fenômeno de difração em fendas que o comprimento das ondas de luz es-
tava entre 0,6 (para o vermelho) e 0,4 (para o violeta) mícron. Hertz conse-
guira calcular, a partir das características elétricas do seu circuito emissor,
que o comprimento de suas ondas seria superior a algumas dezenas de
centímetros e chegaria a atingir centenas de metros.
Já em 1801, William Herschel (1738-1822), deslocando um termôme-
tro ao longo do espectro de luz, mostrara que havia uma irradiação “in-
fravermelha” de calor em continuação à da luz visível. No mesmo ano,
153 MAXWELL, J. C. Traité Élémentaire d’Électricité. [S.l.]: Gauthier-Villars, 1884.

333
Johann Ritter (1776-1810), ao projetar o espectro de luz solar sobre uma
placa recoberta de nitrato de prata, verificou que havia escurecimento de
placa não só na faixa atingida pelo espectro, mas também além do extremo
da luz visível, do lado do violeta. Eram os raios ultravioletas. No final do
século, Wilhelm Roentgen (1845-1923) descobriu os raios X, cujo com-
primento da onda, medido por difração através de cristais, estava entre o
centésimo e o décimo milionésimo de mícron. Todas essas radiações mos-
traram refletirem-se, refratarem-se e difratarem-se como a luz. Portanto,
seriam todas produzidas por campos elétricos variáveis, normais a campos
magnéticos também variáveis propagando-se na matéria e no vácuo com a
velocidade da luz, em obediência às equações de Maxwell.
É fácil calcular, a partir das equações de ondas eletromagnéticas, a
energia transportada por elas, desde os emissores até os receptores. De há
muito que se tinha percebido que os corpos quentes emitem energia térmica
que é recebida pelos frios. Um dos grandes exemplos disso é o da energia
solar recebida pela Terra, pois o mesmo acontece no caso de qualquer das
irradiações acima referidas, desde as ondas hertzianas até os raios X. São as
irradiações de energia que perfazem um enorme domínio da natureza, pro-
vavelmente mais extensos que o da matéria, já agora expressa em símbolos
matemáticos graças à teoria de Maxwell. Uma das decorrências dessa ener-
gia transmitida pelas ondas eletromagnéticas é que elas exercem, sobre as
superfícies que atingem, uma pressão que pode ser medida experimental-
mente, e cujo valor medido concorda com o calculado pela teoria.
Para o estudo da emissão da energia térmica, tornou-se clássico recorrer
à observação das intensidades e comprimentos de ondas de irradiações que
atravessam um pequeno orifício nas paredes de um invólucro no interior do
qual há corpos mantidos em temperaturas elevadas, uniformes e constantes.
Tais dispositivos receberam o clássico nome de “corpos negros”, em analo-
gia a um emissor descolorido cuja energia emitida é igual à absorvida. Veri-
fica-se que a intensidade dessa irradiação de incandescência, numa tempe-
ratura absoluta constante, só depende do comprimento das ondas visíveis ou
invisíveis emitidas pelo “corpo negro”, e não da natureza do corpo emissor.
Observa-se, além disso, que a energia radiante distribui-se num espec-
tro em torno de um valor máximo, o qual é função da quarta potência
da temperatura absoluta do forno emissor. Por sua vez, o comprimento
de onda correspondente à máxima energia emitida é tanto maior quanto
menor for a temperatura. Experimentalmente, pode-se traçar essa família
de curvas, cada uma delas para uma temperatura absoluta constante, num
gráfico que tenha em ordenadas as intensidades específicas da energia emi-
tida, e em abscissas os respectivos comprimentos de onda.

334
Os físicos teóricos do final do século XIX tentaram deduzir as curvas
acima mencionadas a partir da teoria eletromagnética de Maxwell, con-
siderando que, no corpo incandescente, os emissores seriam micropolos
magnéticos. Mas as curvas resultantes não coincidiam com as traçadas a
partir de experiências. Esse impasse perdurou até que Max Planck (1858-
1947) publicou, em 1900, o resultado de suas investigações sobre o espec-
tro do “corpo negro”. Para explicar o fenômeno, recorreu à ideia revolu-
cionária de que cada microemissor não irradiava em quantidades contínuas
de energia, somente em quantidades inteiras de quanta de energia – cujo
valor seria inversamente proporcional aos comprimentos das ondas emiti-
das. Quanto essa ideia é revolucionária ver-se-á quando se estudar a Me-
cânica Quântica.

l) A natureza da energia
A princípio, a energia foi entendida como um ímpeto, uma “virtude”
que se incorporaria à matéria para mantê-la em movimento. Era o que
mantinha a flecha em sua trajetória. Depois foi defendida como uma capa-
cidade de produzir trabalho, como a que tinha a água corrente para mover
as rodas d’água. Percebeu-se ainda que, além dessa energia presente nos
corpos em movimento, haveria também uma energia de posição (poten-
cial), pois um corpo pesado caindo de uma certa altura poderia também
exercer um trabalho, por exemplo, quebrando outros corpos.
No século XVII, com a ciência moderna, a energia ainda não se dis-
tinguia muito da noção de força. Com efeito, desde Huygens e Leibniz,
a energia de um corpo em movimento era chamada vis viva. Aceitava-se
que nos sistemas isolados, como nos pêndulos, um corpo em movimento
adquiriria energia potencial, a qual o tornava capaz de, por sua vez, pôr-
-se em movimento gerando energia cinética, de forma tal que a soma das
duas mantinha-se constante. Assim, haveria uma energia global soma da
energia potencial com a cinética.
Mas a constância da energia global só veio a se tornar uma lei da natu-
reza no século XIX, com o desenvolvimento dos estudos sobre o calor e a
eletricidade. Então percebeu-se que o calor, a eletricidade, a luz e as outras
irradiações eram formas de energia e que também, as reações químicas
absorviam ou desprendiam energia. Assim, à soma da energia cinética e
potencial devia-se juntar um termo adicional correspondente à energia mo-
lecular ou atômica, para que a lei da conservação da energia se mantivesse.
De fato, mostrou-se experimentalmente que todas essas formas de
energia podiam transformar-se mutuamente umas nas outras, mas sempre

335
que uma forma desaparecia, outra surgia, mantendo a quantidade de ener-
gia constante.
Daí Henri Poincaré – coerente com sua posição filosófica, que só cabe
às ciências investigar as determinações das coisas, e não as coisas em si
– propôs que se considerasse a lei de conservação da energia como uma
definição disfarçada da própria energia. “Energia é aquela coisa que se
conserva”, disse ele154.
Assim, o princípio da conservação da energia seria expresso afirman-
do-se que energia é uma certa grandeza que deve permanecer constante e
expressa-se como a soma de três termos: o primeiro, função unicamente
da posição do ponto material onde age; o segundo, do quadrado da sua ve-
locidade; e eventualmente um terceiro, de algo absorvido ou desprendido
das moléculas ou átomos de corpos envolvidos no processo.
Em 1847, Helmholtz publicou seu fundamental trabalho sobre a con-
servação da energia, über die erhaltung der kraft, no qual o princí-
pio da energia enunciava-se em toda a sua generalidade. Um corpo possui
energia mecânica se é capaz de produzir trabalho, porém, tanto o calor
quanto a eletricidade e a energia química podem ser associados à produ-
ção de trabalho. Assim, poder-se-á admitir o seguinte princípio: “se, num
sistema isolado, desaparece uma certa quantidade de trabalho, ou equiva-
lente ao trabalho sob diversas formas de energia, uma quantidade igual de
trabalho deve reaparecer sob outras formas”.
Duas complicações apareceram então. A primeira era que a energia
calorífica provinha da energia cinética das moléculas dos corpos, às quais
era impossível simplesmente aplicar as equações de Lagrange devido ao
seu número desmesuradamente grande. A solução foi a aplicação da aná-
lise estatística por Maxwell e Boltzmann. Com isso apareceu a Mecâni-
ca Estatística a qual veio introduzir na Física um ponto de vista inteira-
mente novo. Porém, de qualquer forma, por ela conseguiu-se matematizar
as questões de energia relacionadas com o movimento de multidões de
corpúsculos.
A segunda complicação foi que até a descoberta das ondas hertzianas,
imaginava-se sempre a energia como atuante através de corpos ou fluidos
em movimento. Com as investigações de Hertz, começou-se a admitir as
irradiações de energia, quer como eletricidade, magnetismo, calor, quer
como outras irradiações através do vazio. Portanto, qualquer suporte ma-
terial da energia passou a ser considerado apenas acidental.
154 POINCARÉ, H. La Science et l’Hypothèse. Paris: Champs/Flammarion, 1968.

336
De qualquer forma, essa “qualquer coisa” que se conserva na natureza
chegou, no final do século XIX, a ser expressa de forma matemática, com
toda abrangência. Os fenômenos energéticos mecânicos o seriam pelas
equações de Lagrange ou de Hamilton (vide item “e” do Capítulo VII); os
moleculares, pelas equações de Mecânica Estatística (vide item “i” do Ca-
pítulo IX); e os eletromagnéticos, pelas equações de Maxwell (vide item
“k” do Capítulo IX). Suas equações, entretanto, dividiram os fenômenos
energéticos em três campos, embora a experiência mostrasse que sem-
pre que esgotada uma energia, como trabalho mecânico, ela reaparecesse
como calor, luz, eletricidade ou magnetismo, e vice-versa.
Caberia, assim, às ciências aplicadas e às tecnologias solucionar os
problemas energéticos a partir da integração de tais equações dentro das
circunstâncias e condições de limites em que ocorreriam as inumeráveis
diferentes manifestações do fenômeno. Portanto, tornou-se possível con-
siderar a natureza da energia simbolizada por sua formulação matemática.
Hertz, no prefácio a seu livro sobre as ondas elétricas, afirma que,
apesar das tentativas de Maxwell de construir modelos mecânicos para
explicar suas teorias, ele desiste dessas tentativas e adota a pura formu-
lação matemática. Assim, a teoria maxwelliana do eletromagnetismo e
da luz não é outra coisa senão o seu sistema de equações. Apesar do
empenho de Maxwell em elaborar modelos mecânicos para explicá-las,
Hertz deixa de lado esses modelos para insistir que são só as equações
que encerram todo conhecimento possível da natureza das ondas hert-
zianas.
Pode-se estender essa convicção de Hertz aos fenômenos energéticos
mecânicos, aceitando que as teorias da Dinâmica Analítica não são, senão,
as equações de Lagrange e de Hamilton.
Um sistema de equações diferenciais, ao ser assimilado por uma teoria
física, tem dois aspectos. O primeiro é a estrutura formal matemática ou
Lógica que lhes assegura a coerência e não a contradição. São as equa-
ções diferenciais, como as estudadas na Matemática, independentemente
dos significados de seus símbolos. O outro aspecto é o do significado
atribuído às variáveis, constantes e funções das equações, que lhes confe-
re realidade e objetividade físicas. Os tipos de equações diferenciais são
relativamente poucos, mas os significados que lhes podem ser atribuídos
são inúmeros, daí que fenômenos diferentes possam ser expressos pelas
mesmas equações.

337
Algo de semelhante acontece na simbolização de fenômenos naturais
por meio de equações probabilísticas. Há o aspecto formal da teoria ma-
temática das probabilidades (ou dos erros) e o significado da população a
que ela se refere.
A Física do início do século XX levava a crer que a natureza da energia
estaria menos nos seus efeitos sensíveis do que na sua expressão matemá-
tica. Não que a expressão matemática fosse a própria “coisa-em-si”, mas,
sem dúvida, ela permitiria vislumbrá-la. Com isso, não se quer encobrir a
realidade dos efeitos da energia, desde os dos simples esbarrões que nos
ferem até os das catastróficas explosões nucleares que nos ameaçam, mas
tudo isso são efeitos da realidade expressa nas fórmulas matemáticas.
Aproximamo-nos, assim, da concepção neokantiana de Ernst Cassirer155:
a ciência como um sistema de símbolos que se interpõem entre o pensamen-
to e a coisa pensada. Para Cassirer, não haveria solução de continuidade en-
tre o conhecimento advindo da própria linguagem – com a sua denominação
e ordenação das coisas percebidas – e o conhecimento científico. A ciência
adquiriu seu significado quando, na Grécia antiga, descobriu-se a linguagem
dos números e das figuras geométricas. Mas isso foi apenas um começo. A
ciência moderna aparece com a descoberta de que a linguagem matemática
pode servir para analisar os fenômenos expressos por equações e, por meio
delas, chegar racionalmente a conclusões insuspeitadas.
Assim, no caso em que o conhecimento objetiva a região da realidade
que chamamos de “energia”, os símbolos mais apropriados seriam os ma-
temáticos. Eles referem-se à realidade e, num certo sentido, a decifram.
Tornam-se, assim, a “natureza” das energias no sentido em que a palavra
grega physis adquiriu ao ser utilizada pelos filósofos antigos para simboli-
zar teoricamente as coisas naturais.
Contudo, não se pode admitir integralmente o idealismo crítico de
Cassirer, pois as expressões não provêm tão somente do intelecto puro.
Se assim fosse, não haveria Geometrias diferentes, válidas para condições
experimentais diferentes. Por outro lado, essas Geometrias não provêm
da experiência sensível. Se assim fosse, elas poderiam ser modificadas à
medida que novas experiências fossem sendo adquiridas através de fatos
novos. Pelo contrário, elas são adotadas para explicar fatos novos, orde-
nando-os segundo suas ordens próprias. Em outras palavras: são escolhi-
das a partir da análise cientifica, a qual esquematiza os fenômenos naturais
através das equações matemáticas.
155 CASSIRER, E. An Essay on Man, An Introduction to a Philosophy of Human Cultu-
re. New Haven: Yale University Press, 1944.

338
Além disso, o significado da expressão matemática deve ser verificado
pela experiência científica – a qual, necessariamente, tem de ser organi-
zada de acordo com conjetura prévia sobre a natureza do fenômeno. Por-
tanto, não se trata nem de idealismo, positivismo ou empiricismo, porque
a mente por si só não é capaz de esgotar a realidade do objeto, nem de
realismo, porque a experiência sensível por si só não basta para que se
possa formular o conhecimento científico. Em outras palavras: é tão difícil
afirmar a existência do objeto sem o observador como acreditar que o ob-
servador possa existir sem o mundo em que vive. Em suma, o conhecimen-
to científico exige uma complementariedade entre o real e o ideal, entre a
experiência e a teoria.
De acordo com essa complementariedade, nem é possível dizer que as
equações matemáticas esgotam a realidade da energia, nem que a energia é
algo real além dessas equações. A energia é um processo que se realiza na
natureza. Como processo não tem substância, é sua própria sucessão, mas,
ao realizar-se na natureza, apresenta-se como algo sensível.
Depois da descoberta dos quanta, essa concepção da energia não se
modificou, pelo contrário, reforçou-se, pois a natureza corpuscular da
energia não a tornou substancial. Os quanta de energia estão mais próxi-
mos de número do que de matéria, que passou a poder ser entendida como
uma outra forma de energia.
Contudo, a natureza da energia passou a ser a do fluxo dessas partícu-
las, cuja única definição é a de serem produto de uma constante por uma
frequência, embora tornem-se visíveis ao chocarem-se com uma placa
sensível. Mas nem por isso as equações da Mecânica Clássica, associadas
às da Mecânica Estatística, deixaram de ser válidas. No dizer de Werner
Heisenberg, estas vieram a se constituir como verdades a priori da Mecâ-
nica Quântica.

339
340
X – A ANÁLISE DA MATÉRIA

a) Introdução
O significado grego clássico da palavra matéria (hylé) é o de estofo
com o qual é feito tudo que há, não só na natureza, mas também em todas
as coisas e obras feitas pelo homem. Nesse sentido a palavra hylé foi usada
pelos gregos para designar a madeira, como o seu principal material de
construção. Depois se estendeu para também designar os metais e ainda foi
generalizada para denominar qualquer matéria-prima, abrangendo assim a
totalidade dos materiais com que as coisas são feitas.
Por outro lado, note-se que a palavra latina mater (mãe) é a mesma
que matéria. Portanto, ao lado do significado de matéria como material de
tudo que existe, há também o de origem primeira de tudo que é gerado na
natureza ou, por extensão, feito pelo homem. A expressão “matéria-prima”
conota os dois sentidos.
É possível que os primeiros filósofos milésios tenham, justamente por
esse duplo significado do conceito da matéria, entendido que a natureza
(physis) provinha de uma entidade primordial. Esta seria a água ou o ar, ou
o indeterminado (ápeiron) que poderia ser entendido como a “matéria-pri-
ma” da natureza. Mas, não se deve esquecer que, para eles, essa entidade
seria dotada de uma animação vital (hilezoísmo) capaz de explicar a muta-
bilidade natural. Pois não se poderia conceber que a perene mutabilidade
da natureza se coadunasse com a inércia da matéria. Daí, um desses filóso-
fos milésios, Anaximandro, ter preferido identificar a entidade primordial
como ápeiron não como matéria, mas como aquilo que não tem limites que
é indeterminado e, portanto, indefinível.
Mas, a natureza em si, embora constituída por um material indefinido,
era algo perfeitamente definido e compreensível pela mente humana. Esse
foi o problema básico com o qual tiveram que se defrontar os filósofos
gregos, inventores do tipo de conhecimento que se veio denominar de teo-
ria. Para pensar teoricamente é necessário admitir princípios, unitários,
não contraditórios, que permaneçam sempre como verdadeiros ou falsos.
Isto é, que permaneçam sendo sempre aquilo que são. Por isso, os eleatas
sustentando que, se tudo que é permanece sendo o que é, a matéria não
poderá ser nada – é pura ilusão. Argumentavam que aquilo que permanece
sendo o que é, deve estar oculto por trás das ilusórias coisas do mundo,
que nascem, corrompem-se e morrem em eterna mutabilidade. Portanto,

341
devem existir elementos estáveis e perenes que um destes filósofos, Empé-
docles, identifica como a água, o ar, o fogo e a terra, cuja contínua mistura
e separação explicaria a mutabilidade ilusória da natureza, em obediência
aos princípios do amor e da discórdia.
Daí por diante a matéria, para muitos filósofos gregos, passou a ser
entendida como a combinação desses quatro elementos imutáveis, que,
por sua virtude de combinarem-se e separarem-se explicariam a geração e
a corrupção da natureza.
Para Platão, com sua teoria de que o real são as ideias, pois só elas per-
manecem sempre sendo o que são, a matéria, com sua mutabilidade, não
poderia ter realidade. Platão no seu timeu distingue três gêneros de ser.
O primeiro é arquetípico, isto é, modelo ideal, perene e imutável de tudo
que há na natureza. O segundo é o da physis, cópia do modelo arquetípico.
O terceiro é o de tudo que é engendrado, corrompe-se e morre. Note-se,
porém, que o ser desses entes corruptíveis não designa isso ou aquilo, mas
algo que está sendo. A natureza (physis) é um organismo, dotado de uma
Alma do Mundo, feita de formas puras combinadas em proporções harmo-
niosas com o seu oposto, isto é, com o que é perecível. Como será, portan-
to, possível que a physis, sendo ela mesma imperecível, abrigue em si coi-
sas perecíveis? Platão exemplifica essa possibilidade dizendo, no timeu:
Suponhamos que alguém modele em ouro todas as figuras possíveis e não pare
um só momento de transformá-las uma nas outras. Suponhamos que ao artista
mostre-se uma das figuras e pergunte: que é isto? Sua resposta, certamente ver-
dadeira seria: isto é ouro. Portanto, uma figura triangular, ou qualquer das ou-
tras que, embora tenham sido feitas com ouro, não podem nunca ser designadas
como entes, pois que são transformadas no mesmo instante em que feitas.
E Platão conclui: “esse mesmo raciocínio pode ser feito quanto à ques-
tão da physis, pois ela recebe os corpos mutáveis, mantendo-se sempre a
mesma.”
A physis move-se e apresenta-se sob diferentes aspectos pela ação dos
corpos que dela participam, mas esses são imitações de ideias perenes
que permanecem sendo reais fora dela. Pois bem, o que recebe a imagem
dessas ideias eternas é a matéria. A matéria seria assim o receptáculo das
formas ideais, tornando-se visíveis e sensíveis. Não se deve confundir os
corpos: ar, fogo, água e terra com os elementos dos mesmos nomes, pois
eles somente se “parecem”: com ar, fogo, água e terra, da mesma forma
que seus compostos “parecem” corpos sensíveis. À medida que a massa
informe da matéria é modelada, é que surgem as figuras arquetípicas dos

342
elementos ou de seus compostos. A matéria (hylé), de cada uma das coisas
da natureza, é um não ser, um mero receptáculo (cora) da ideia imitada, e
é essa conjugação que torna as coisas da natureza perceptíveis pelos sen-
tidos humanos.
Assim, a matéria em si não seria apreciável nem pela intelecção dos
filósofos nem pela opinião da maioria das pessoas, pois é um não ser. En-
tretanto, em outro trecho do timeu, Platão parece admitir a matéria como
um algo preexistente à ordem cósmica, com uma massa informe e primá-
ria com a qualidade que sempre se transforma sem ordem alguma. Algo
visível embora não inteligível. Como diz Platão, em relação ao Demiurgo
que construiu o universo: “tomou toda essa massa visível, desprovida de
todo repouso e quietude, submetida a um processo de transformação sem
medida e a levou da desordem à ordem”. Foi dessa matéria informe que,
recebendo as formas dos sólidos perfeitos: o cubo, o tetraedro, o octae-
dro e o icosaedro, formaram-se os elementos: a terra, o fogo, o ar e a
água. Com esses elementos formaram-se todos os corpos da natureza – os
quais guardam a qualidade original da matéria de estar constantemente em
transformação. Porém, as aparências sensíveis da terra, fogo, ar e água são
ilusões dos sentidos. O real são suas formas geométricas ou proporções
numéricas, daí o pitagorismo de Platão.
Para Aristóteles, a realidade é constituída pelos entes individuais, com
suas substâncias e respectivas essências e atributos. Contudo, o que con-
fere unicidade e identidade ao ente tornando-o inteligível é sua substância
(ousía).
A natureza (physis) é constituída por substâncias que, por não serem
separadas das coisas sensíveis, são elas mesmas mutáveis e perecíveis. Es-
sas substâncias são constituídas por três princípios: matéria (hylé), forma
(morphe) e privação de forma (steresis). É essa privação que possibilita ao
ente natural transformar-se, no sentido de atingir forma conveniente a sua
finalidade (tellus), ou mover-se para alcançar seu lugar natural. Por isso
Aristóteles admite que as coisas da natureza são dotadas de uma psyché,
uma alma que anela por sua forma final e sua posição natural.
Assim, a matéria será o estofo, indefinido porque não tem forma, de
toda substância da natureza. Mas, se suprimirem-se todos os atributos
de um ente da natureza não restará senão a matéria. É de se admitir, en-
tão, que essa também, sob um certo ponto de vista, seja substância, no
sentido de substrato (hypokeimenon). Assim é que, na Metafísica, “H”
lê-se: “as substâncias sensíveis são todas de matéria”. Ora, o substrato
é substância e é, nesse sentido, a matéria. “Chamo matéria àquilo que,

343
não sendo um ser determinado em ato é, somente em potência, um ser
determinado” 156.
É, portanto a matéria que trás, em si, por uma espécie de anelo de
forma, o princípio da transformação, quer seja ele de movimento de lugar
para lugar, quer seja de aumento ou diminuição, quer seja de alteração,
geração e corrupção. Está claro, ainda, que para Aristóteles existe uma
alma – vegetal, animal ou racional –, mas ele é ambíguo no que se refe-
re à “alma” dos corpos sem vida. E, entretanto, esses são compostos dos
elementos: fogo, ar, água e terra – todos eles serão dotados do “desejo”
de atingir seus lugares naturais. O fogo sobe, o ar fica acima da água e da
terra e essa última tende a cair. Essas “virtudes” são inerentes às matérias
dos respectivos elementos e delas todos os corpos compostos participarão.
A cada um desses elementos correspondem quatro “qualidades”: quente,
frio, úmido e seco.
Contra tal concepção de matéria animada eram os epicuristas, os quais
se baseavam na Física de Leucipo e Demócrito, pela qual o universo, infi-
nito e eterno, constituía-se tão somente de átomos e vazio. Os átomos se-
riam elementos diferentes entre si tão somente por seus tamanhos, forma,
peso e posição, permanecendo em eterno movimento no vácuo e forman-
do os corpos da natureza e mundos visíveis, quando, em seu movimento,
chocavam-se e aglutinavam-se. Mas, da mesma forma, desuniam-se e des-
truíam as coisas da natureza e, também, os mundos por eles formados. As
almas desses mundos seriam também o resultado de aglutinação de átomos
mais sutis. Essas impregnariam tudo e confeririam à natureza a ordem da
necessidade. Assim, o que havia de eterno e inteligível, por trás das coisas
da natureza, seriam os átomos. A matéria, como conjunto de átomos, con-
tudo, seria obediente à necessidade. Teria, portanto, alguma “animação”.
Essa ideia é a que veio a dominar na ciência moderna.
Epicuro veio a ensinar sua doutrina em Atenas, nos seus “Jardins”, a
partir de 306 a.C., apenas 16 anos após a morte de Aristóteles. Seu ensino
filosófico tinha a finalidade declarada de, como atividade que visava por
meio do raciocínio e do convívio amistoso, conduzir a uma vida feliz. Não
se entenda, porém por vida feliz, a dedicada aos prazeres luxuriosos, como
acusaram seus inimigos. Pelo contrário, seria uma vida simples, despreo-
cupada e serena.
O tratado peri physeos de Epicuro que, dizem, compreendia 37 livros,
perdeu-se. Restam somente alguns aforismos reunidos de citações de di-
156 ARISTÓTELES. Physique et Métaphysique. Paris: PUF, 1972.

344
ferentes comentaristas. Uma antologia de textos de Epicuro foi coligida e
traduzida para o português por Agostinho da Silva157.
Contudo, a Física de Epicuro, com a ideia atomista de matéria, chegou
a nós no poema do romano Lucrécio: de natura rerum158. Titus Lucretius
Carus (96-55 a.C.) escreveu seu poema em Roma, num período de guerras
externas e revoltas internas de escravos e gladiadores, descrença religiosa
e crises políticas. Daí a adesão dos melhores da época à doutrina de Epicu-
ro, na procura pela serenidade de uma vida feliz. Em seu poema, Lucrécio
não se aprofundou na teoria da busca pela serenidade como finalidade úl-
tima da vida, em vez disso, seu intento foi o de descrever a natureza, para
compreender sua origem e seu fim, baseando-se na ideia atomista, e na
crença da infalibilidade do conhecimento obtido pelos sentidos.
Logo no primeiro canto encontra-se o verso: “Nada podem tirar do nada
os numes”, iniciando um trecho onde o poeta descreve os prodígios que
poderiam acontecer se fosse possível que algo pudesse surgir do nada. Do
outro lado, não seria igualmente possível que algo de essencial existente na
natureza fosse aniquilado. Portanto, há de haver uma matéria eterna, em-
bora essa sempre se renove. São os átomos, esse algo de eterno e essencial:
a matéria. Estes, se entrechocando, formam os corpos cambiantes da natu-
reza. Mas eles não poderiam mover-se, unindo-se e desunindo-se, se não
houvesse o vácuo. Assim, o universo é constituído tão somente por matéria
e vácuo. Os átomos diferem entre si pelo peso, pela dureza e pela forma.
Movem-se no vácuo desagregando-se dos corpos que decaem e agregando-
-se aos que crescem. Caem na vertical, porém são capazes de pequenas
declinações em seus trajetos, o que torna possível uma indeterminação dos
efeitos. Átomos de mesmo peso, figura e posição formam os elementos e
estes últimos, combinando-se entre si, formam todos os corpos da natureza.
A própria alma humana é constituída por átomos mais sutis.
Dos corpos da natureza emanam corpúsculos sutis que vêm ferir os
sentidos. A vista recebe os simulacros dos corpos que são refletidos nos
espelhos e na superfície da água. O ouvido recolhe aqueles que têm forma
de sons, os quais podem atravessar os vazios dos corpos opacos, enquanto
que os simulacros da luz não os podem transpor. O paladar é ferido pelas
partículas dos alimentos que se entranham na língua. Somente o tato é
atingido pelo contato direto dos corpos. Todas essas partículas atingem a
157 EPICURO. Antologia de Textos de Epicuro. São Paulo: Abril, 1973. (Coleção Os
Pensadores).
158 LUCRÉCIO. Da Natureza das Coisas. Tradução de Antonio José de Lima Leitão.
São Paulo: Cultura, 1941.

345
alma através dos orifícios dos corpos e nela produzem o conhecimento da
natureza. Assim, são as sensações, e só elas, o veículo do conhecimento, e
não se diga que sejam enganadoras. Pelo contrário, os enganos originam-
-se quando a alma intervém por si própria através de ideias nos raciocínios,
os quais deveriam ser feitos a partir dos sentidos. Quando há confusão de
simulacros emitidos pelas coisas é que se originam ideias enganosas. As
sensações são, em si, sempre verdadeiras.
Lucrécio termina o quarto canto do seu poema descrevendo, em longos
e lascivos versos, a conjugação sexual do homem e da mulher, para ilustrar
como são os simulacros que emanam das coisas que atingem a alma, fa-
zendo-a animar os corpos vivos. Quando o homem, como qualquer animal,
move-se ou permanece em repouso, é porque sua alma foi atingida, através
dos sentidos, por corpúsculos sutis que o fazem assim agir.
Depois de um elogio a Epicuro e da refutação das doutrinas de Aris-
tóteles, pelas quais o mundo é eterno, Lucrécio procura demonstrar que
nosso mundo teve um começo, com a agregação de átomos e terá um fim
com sua desagregação, com consequente formação de um novo mundo.
Isso porque os elementos – fogo, ar, água e terra – são contrários e tendem
a destruírem-se mutuamente. Porém os próprios átomos permanecem eter-
namente no vácuo.
Na sequência do quinto canto, Lucrécio ilustra poeticamente a forma-
ção deste mundo a partir do caos primitivo de átomos. Descreve a forma-
ção dos astros e da Terra e finaliza com a história da natureza terrestre até o
aperfeiçoamento da cultura humana. O poema termina em um sexto canto,
no qual ele desenvolve uma meteorologia, isto é, uma portentosa descrição
poética dos fenômenos naturais: raios, trovões, chuvas, arco-íris, en-
chentes, terremotos e maremotos. Termina com as pestes e as doenças con-
tagiosas, tomando como ilustração a grande peste que devastou a Ática,
durante a Guerra do Peloponeso.

b) A matéria na Alquimia e na Química


A evolução das teorias medievais sobre a matéria foi muito bem es-
tudada por Robert P. Multhauf159, desde sua origem grega até sua trans-
ferência para a Europa pelos árabes, entre os séculos XII e XIV, e sua
absorção e desenvolvimento pelos filósofos cristãos, a partir do século
XIII. Na opinião de Multhauf essas teorias e suas correlações com a
159 MULTHAUF, R. P. The Science of Matter. In: LINDBERG, D. C. (Ed.). Science in
the Middle Ages. Chicago: The University of Chicago Press, 1976.

346
Alquimia e com a Metalurgia, foram extremamente importantes para
o desenvolvimento da revolução tecnológica da qual resultou o mundo
moderno. O acontecimento mais notável dessa revolução foi o uso das
armas de fogo, baseadas na pólvora e no salitre, e numa Metalurgia de
alto nível.
Na Alquimia, a matéria é um substrato informe dos corpos da natureza
que pode ser transformada, pois é dotada de uma alma que excitada pelas
operações de laboratório transforma-se em concomitância com o espírito
do alquimista.
A decorrência desses estudos medievais sobre a matéria foi a identifi-
cação de um enorme número de substâncias minerais e orgânicas de ex-
trema utilidade, não só para o desenvolvimento industrial posterior, como
também para o conhecimento das propriedades medicinais da matéria.
E, não menos importante, as especulações filosóficas medievais, quer
sob o caráter abstrato, quer sob o experimental sobre a matéria, abriram
caminho para os conhecimentos químicos atuais e todas suas decorrências
na ciência moderna.
Por outro lado, as técnicas de Mineração e Metalurgia medievais viam
também a matéria como que dotada de virtudes mágicas. Os mineradores
medievais consideravam os minerais como que “gerados” na terra e a mi-
neração como algo muito próximo da obstetrícia. Assim, a prática da mi-
neração medieval incluía mistérios, segredos e rituais de propiciação para
o trato com a mãe-terra e controle dos seus espíritos protetores.
As técnicas metalúrgicas também, de acordo com antiquíssima tradi-
ção, são tidas como uma continuação da “geração” dos minerais, acelerada
pela ação humana. O uso do fogo na fusão e na forjaria dos metais seria
uma ação violenta no sentido de apressar a transformação natural lentís-
sima dos minerais no seio da terra. Portanto, a ideia de matéria dos forja-
dores e ferreiros mantinha ainda a antiga crença da matéria como dotada
de uma alma que atuasse em sua transformação. A têmpera do aço, por
exemplo, sempre foi tida como um processo de libertação dos espíritos
aprisionados no ferro pelo sofrimento que lhe era infligido pela forjaria.
É verdade que as práticas minerais e metalúrgicas alquimistas, as quais
remontavam a tempos antiguíssimos, já estavam em crescente descrédito à
medida que desenvolviam-se as técnicas baseadas nas ars romanas, como
descritas por Strabo ou por Plínio, o Velho – em que o interesse estava
centrado na questão prática de como extrair os minerais da terra, fundi-los
e obter os metais, e não em explicar o que eles são.

347
Uma concepção semelhante da matéria é a dos boticários e curandeiros
medievais, quanto às drogas e às poções medicais. A preparação dessas
drogas, não só a partir de substâncias vegetais e animais como também de
minerais e de utilização de águas minerais, obedeciam à crença de “virtu-
des” curativas e poderes mágicos relacionados com a transformabilidade
da matéria.
Quando a Alquimia árabe chegou à Europa, no século XII, já lá havia
conhecimentos técnicos, sobre Metalurgia, farmácia e tinturaria envolven-
do a matéria e suas transformações. Além disso, a Alquimia árabe confron-
tou-se com o desenvolvimento já em nível elevado da Teologia cristã. O
resultado dessa conjunção foi duplo. O primeiro concentra-se na descri-
ção de processos de laboratório e na descrição das substâncias usadas nas
operações em busca do ouro alquímico ou na obtenção do elixir de longa
vida, muitas vezes de permeio com segredos e processos mágicos. Num
segundo grupo, encontram-se, entretanto verdadeiros textos místicos, já
mencionados no item d do capítulo V.
A transição da Alquimia europeia para a Química moderna foi muito
bem estudada por Ana Maria Afonso-Goldfarb160, em trabalho em que ela
mostra como, nesse trânsito histórico, a concepção alquímica animista da
matéria foi paulatinamente transformando-se na da matéria inerte.
Um tratado de Alberto Magno (1193-1280), no qual o grande teólo-
go, adaptador da obra de Aristóteles à Teologia cristã, é um intermediário
entre os dois grupos acima mencionados. Trata-se do de mineralibus et
rebus metallicis em que Alberto Magno aplica as ideias de Aristóteles à
formação dos minerais na crosta terrestre, aproximando-as da concepção
alquímica de matéria. Não é nem um tratado puramente descritivo de ope-
rações alquímicas, nem um compêndio de mística alquímica. Na realidade,
talvez seja a primeira análise filosófica do saber alquímico. A ideia de ma-
téria é, portanto, para esse dominicano, teólogo máximo da cristandade, a
ideia aristotélica da matéria como substrato indefinível, porém dotado de
uma “alma” que lhe permite a transformação, peculiar a todos os entes da
natureza.
Um grupo em que os estudos alquímicos tiveram acolhida, também na
Idade Média, foi o dos franciscanos nominalistas de Oxford, devido à sua
forte tendência de colocar a experiência como uma das principais fontes do
saber sem, contudo, abandonar a doutrina aristotélica.
160 AFONSO-GOLDFARB, Ana Maria. Da Alquimia à Química. São Paulo: Nova
Stella/Edusp, 1987.

348
Um deles foi Roger Bacon (1214-1292) que é o autor de três tratados:
opus majus, opus minus e opus tertium, tidos como os iniciadores de uma
“ciência” baseada na experiência. Entretanto, a palavra “experiência” na
obra de Roger Bacon não se refere, de maneira alguma, ao experimento
científico no sentido moderno. Ela refere-se a qualquer vivência ou mesmo
ao relato de qualquer pessoa que tenha vivido ou observado qualquer fato
sem nem mesmo necessidade expressa de comprovação ou documenta-
ção. Relatos de escritos extraordinários, como viagens fantásticas, podem
ser incluídos na categoria de experiência. Em princípio não é necessário
nenhuma “autoridade” para autenticar a experiência. Pelo contrário, os
relatos dos artífices, artesãos, alquimistas e mesmo adivinhos e mágicos
teriam todo o crédito para serem aceitos como base da sua sciencia expe-
rimentalis (isto é: conhecimento pela experiência) evidentemente depois
de submetidos à crítica do conjunto da ciência. Essa crítica, entretanto, já
não seria do domínio do vulgo, mas sim daqueles que fossem devidamente
instruídos e treinados nos conhecimentos científicos. É nesse sentido que a
Alquimia e sua concepção da matéria são aceitas no pensamento de Roger
Bacon.
Talvez o interesse principal de Bacon pela Alquimia tenha sido justa-
mente o do estudo da matéria. Diz Ana Maria Goldfarb, que esse interesse
teria sido despertado pela leitura de um tratado da literatura alquímica, o
secretum secretorum, atribuído duvidosamente a Aristóteles. Não nos
interessa aqui saber as opiniões de Roger Bacon sobre a Alquimia, mas
sim sua concepção de matéria, em vista da importância que ele dava à
Alquimia, como uma ciência experimental – capaz de esclarecer os co-
nhecimentos da natureza e da Medicina. Sua ideia de matéria seria aquela
dos tratados alquímicos, atribuídos a Aristóteles e a Avicena. Por essas,
os metais seriam constituídos por combinações definidas dos dois prin-
cípios elementares: o mercúrio e o enxofre. Quanto mais perfeita fossem
as proporções dessa mistura tanto mais nobre seria o metal. O mercúrio
representaria o princípio feminino a ser fecundado pelo enxofre para gerar
os metais e a opus alquímica seria a de processar essa germinação pelas
operações de laboratório. Assim, Roger Bacon introduz uma “prática” da
Alquimia que já é um primeiro passo para a Química. Entretanto, é de se
lembrar de que a opus é ainda um processo vital-mágico, do qual participa
a própria alma do adepto, alcançando ele próprio também uma perfeição
anímica. Mas de qualquer forma esse enfoque da Alquimia a transforma
numa ars de fabricar metais, tinturas e elixires, embora não muito distante
da magia natural. Ora, isso ainda deve basear-se na ideia de matéria como

349
substrato indefinido dotado de vitalidade. Os alquimistas assimilaram essa
ideia aristotélica da matéria a uma substância primeira mercurial – maté-
ria-prima de todas as coisas da natureza e do céu – a qual continha em si
todas as possibilidades de transformação.
Surgiu então um campo onde a Alquimia foi muito bem acolhida: a
Medicina. Arnaldo de Villanova (1250-1311) espanhol, professor de Me-
dicina em Montpellier – que se interessava pela conservação da juventu-
de e prolongamento da vida, por processos alquímicos – foi um desses
médicos-alquimistas.
A ideia de Arnaldo de Villanova sobre a matéria não diferia da corrente
entre os que tratavam na época da Alquimia especulativa. Adotava a teo-
ria do mercúrio e do enxofre como elementos, respectivamente, matriz e
fecundador dos metais. A matéria-prima seria mercurial e o enxofre, uma
espécie de esperma germinador. Todo o trabalho alquímico deveria, assim,
partir da substância mercurial, como elixir, prosseguindo pela transforma-
ção dos elementos nas substâncias almejadas. É curioso que Arnaldo de
Villanova encontra tal substância na aqua vitae que não é senão o álcool
destilado a partir do vinho. É daí que a utilização do álcool na farmacolo-
gia torna-se cada vez mais difundido. Assim, a Alquimia passa cada vez
mais a ser utilizada na preparação de substâncias químicas utilizadas pela
Medicina como remédios. A ideia de um remédio que curasse todas as
doenças é, então, assimilada à do “elixir”. Abre-se, cada vez mais, o cami-
nho para a Química.
Por outro lado, a atitude critica dos filósofos do século XIII e início
do XIV, embora aristotélica, leva-os a especular sobre pontos da doutri-
na aristotélica, referentes à sua “Física”. Entre eles, o da matéria, muito
relacionado com o problema do vácuo e do movimento. Aristóteles ne-
gava a possibilidade do vácuo e dos átomos. Para ele, a matéria era “ple-
na”, isto é, preenchia totalmente o espaço e o mundo era finito, porém
eterno. Ora, todas essas questões suscitavam discussões sobre o “lugar”
ocupado pelos corpos materiais, suas dimensões e seu movimento. O
que evidentemente fazia retornar a discussão do atomismo, contestado
por Aristóteles. Embora a doutrina atomista de que a natureza era cons-
tituída por átomos e vácuo não tenha tido muita acolhida durante a Idade
Média, ela nunca foi totalmente esquecida, nem pelos filósofos cristãos
nem pelos árabes. Com a crítica aristotélica do século XIII, começaram,
porém a aparecer certos aspectos contraditórios. Por exemplo: Grosse-
teste concebia o espaço finito do mundo como que preenchido por uma
multiplicidade de pontos luminosos. Enfim, surgia a controvérsia de se a

350
matéria seria constituída por átomos unidos plenamente uns aos outros,
ou por átomos separados entre si161.
Sob o ponto de vista religioso, o atomismo, desde o início da Idade
Média, era não só considerado errôneo, como também blasfemo. O poema
de Lucrécio, de rerum natura, fora considerado, já no final do mundo
romano, como mero resultado de superstições pagãs e, assim, ridiculariza-
do e esquecido. Mesmo quando ele foi redescoberto no Renascimento, e
teve uma edição impressa em 1473, sua aceitação foi simplesmente como
poesia, em que a verdade da doutrina na qual se baseava não era impor-
tante. Contudo, o atomismo já lá estava preparando o advento das ideias
modernas sobre a matéria.
A passagem da antiga filosofia da matéria e da prática alquímica para a
química – considerada como a teoria da composição e mudanças de estado
da matéria – deu-se através das técnicas metalúrgicas e da iatroquímica.
O conhecimento técnico dos minerais e metais tinha-se desenvolvido rapi-
damente. Por outro lado, a Medicina também se desenvolvera apoiada na
ideia dos processos fisiológicos serem semelhantes aos da Alquimia, o que
deu origem à, assim chamada, iatroquímica nas investigações de médicos
como Paracelso e Jan Baptista van Helmont, que procuravam curar doen-
ças por meio de substâncias químicas162.
Phillipus Aureolus Theophrastus Bombastus von Hohenheim (1493-
1541), cognominado Paracelso, é conhecido por sua violenta oposição ao
saber estabelecido pelas autoridades. Sua noção de matéria deveria, por-
tanto, ser diferente da dos filósofos gregos, entretanto, só aparentemente
o era. Concordava com eles que haveria uma “matéria-prima” informe e
indefinível, a qual adquiria forma nas aparências dos quatro elementos.
Porém não concordava que a água, o ar, a terra e o fogo fossem elementos
primordiais e nem que a “matéria-prima” fosse eterna. Contrapunha ao que
ele chamava de visão pagã da natureza, a sua ideia cristã da “matéria-pri-
ma” criada por Deus do nada, segundo o Livro do Gênese. Além disso,
lembrava que durante a criação, o fogo não aparecia.
Sua ideia da formação dos corpos da natureza era a mesma que a dos
alquimistas alexandrinos e árabes. Aceitou que os minerais formar-se-iam
no seio da Terra, numa lenta geração, em tudo semelhante à dos animais no
ventre da mãe. A geração dar-se-ia lentamente dos mais brutos para os mais
161 CROMBIE, A. C. História de la Ciencia: De San Augustín a Galileo. Madri: Alian-
za Editorial, 1973.
162 DEBUS, A. G. A Longa Revolução da Química. Ciência Hoje, v. 13, n. 34, out./nov.
1991.

351
perfeitos, por ação de enxofre e do mercúrio. Porém, Paracelso acrescenta
um terceiro elemento formador: o sal. Isto é: a matéria, desde os minerais
até o corpo humano, é o resultado da ação, sobre a “matéria-prima”, de
três princípios: enxofre, mercúrio e sal. O primeiro confere-lhe combus-
tibilidade, o segundo fusibilidade e liquidez, o terceiro é o princípio não
volátil e incombustível. Em um seu tratado, de rerum natura, lê-se: “Isto
é, todos os minérios nos quais existam metais imaturos podem ser levados
à maturidade pelas artes qualificadas do alquimista”163. Portanto, para ele,
a função do alquimista é a de acelerar processos naturais.
Num seu tratado hermético, o paramirum, Paracelso descreve essa sua
doutrina dos três elementos fecundadores. O interessante é que ele procura
ali demonstrar “experimentalmente” suas ideias, dizendo:
[...] para entender a questão, tome primeiro a madeira, que é um corpo. Deixe-a
queimar, o que queimou é o enxofre, o que se vaporizou em fumaça foi mercú-
rio, o que se transformou em cinza foi o sal [...], nada queima senão enxofre, o
que fumega é mercúrio, nada se sublima que não seja mercúrio, nada se trans-
forma em cinza que não seja sal164.
Lembra Paracelso que Hermes (Trismegisto) chama esses três princípios:
espírito, alma e corpo, mas não explica como isso deva ser entendido nem o
que significa para ele. Manteve silêncio. Mas, segundo Paracelso, o que pre-
cisa ser entendido é que Hermes refere-se exatamente aos três princípios dos
quais os sete metais originam-se. Mercúrio é o espírito (spiritus), enxofre é
a alma (anima), e sal é o corpo (corpus). Não se trata do enxofre, mercúrio e
sal comuns, mas, exatamente como os primeiros alquimistas consideravam,
são “matéria-prima” informada. Essa “matéria-prima” tomaria forma quando
aparecesse com o enxofre, o mercúrio e o sal comuns. Compunham-se para
formar os corpos da natureza, inclusive os quatro elementos aristotélicos. Po-
rém, para cada elemento, haveria uma forma diferente dos três princípios. Há
formas diferentes, por exemplo, do enxofre, do ouro, da prata ou dos outros
metais, da mesma maneira que há formas diferentes do sal e do mercúrio, nos
vários metais. Além disso, Paracelso introduziu um novo elemento que ele
chama de “caos”, como uma expressão generalizada para toda matéria gaso-
sa. Essa teoria de Paracelso dominou o conceito renascentista de matéria até
o aparecimento da teoria do flogisto.
Essa concepção de matéria dominou a mentalidade do Renascimento.
Invadiu mesmo o século XVII, pois, somente quase um século depois de
163 STILLMAN, John Maxson. The Story of Alchemy and Early Chemistry. Nova York:
Dover Pubublication, 1960.
164 PARACELSO. A Chave da Alquimia. São Paulo: Editora Três, 1973.

352
Paracelso é que foi dado mais um passo na transformação da Alquimia em
Química. Passo esse dado por Johann Baptista van Helmont (1577-1644),
o qual, ainda, de uma certa forma seguia as ideias de Paracelso, porém sem
exageros emocionais e místicos.
Vivendo já no século XVII, quando o vitalismo renascentista já tinha sido
suplantado pelo mecanicismo moderno, Van Helmont não pode mais ser tido
como um alquimista, mas sim, como um químico na concepção atual deste
termo. Isto é: como teórico das combinações e transformações de estado da
matéria. Sua educação foi a clássica acadêmica, recebida nos cursos da Uni-
versidade de Louvain, onde doutorou-se em Medicina. Entretanto, as dou-
trinas mágicas e místicas não lhe eram estranhas, daí talvez sua admiração
por Paracelso e aceitação de algumas das suas estranhas ideias, como a do
archaeus – talvez já no sentido simbólico da ordem que dirigia as funções
do corpo humano. Porém não aceitava a ideia dos três princípios da matéria.
Foi ele também que introduziu na Química o termo “gás” para subs-
tituir o “caos” de Paracelso, em decorrência das suas experiências sobre
substâncias gasosas, especialmente o gás carbônico.
As afinidades entre Van Helmont e Paracelso explicam-se naturalmen-
te no que a Química de Van Helmont tinha em comum com a “Alquimia”
de Paracelso, no fato que ambas eram dirigidas para a compreensão dos
fenômenos fisiológicos do corpo humano, ambos eram médicos e ambos
encaravam a Química como disciplina intimamente ligada ao problema da
cura das doenças.
Porém, apesar disso, a ideia de matéria de Van Helmont era diferente
tanto da aristotélica quanto da de Paracelso. Ele rejeitava tanto a ideia
dos quatro elementos quanto a dos três princípios primordiais, pois, dizia
ele, “todos eles provinham da ação do fogo e da água, sendo essa última a
matriz de tudo que existe”. Afirmava ele que, no seu laboratório, teria con-
seguido, com o auxílio do fogo, várias outras substâncias com exceção do
ar. Além disso, várias outras por ele examinadas, libertavam água quando
destiladas ou submetidas ao fogo. Tentou provar sua ideia por meio de
experiências organizadas, nas quais ele teria mostrado evidências da trans-
formação da água em carvão vegetal e madeira.
Mas não se pode afirmar que sua Química era experimental, pois que
sua ideia das transformações químicas da matéria envolvia a crença em
algo imaterial e informe conferido à matéria pela vontade de Deus. Era
esse algo que determinava os produtos resultantes da ação “química”, sob
a direção do archaeus de Paracelso. Evidentemente, uma tal conjectura

353
adequava-se mais à explicação das doenças onde há a conotação da in-
fluência do mal, do mau-olhado e do poder dos feiticeiros como causa das
doenças. Isto tudo seria o que o levava a conservar a crença na velha ideia
alquimista da transmutação dos metais. Enfim, sua ideia de matéria manti-
nha ainda a velha crença vitalista. Daí sua preocupação em encontrar uma
substância milagrosa tanto para a transmutação dos metais quanto para a
Medicina. Acreditou encontrá-la e denominou-a sal mirabilis, sobre a qual
enunciou inúmeros poderes e virtudes.
Entretanto, não foi só na área da Medicina que se deu a transição da
noção de matéria da antiga Alquimia, como substância dotada de um certo
vitalismo, para a da moderna Química, como substância inerte. Tal transi-
ção deu-se também no campo das técnicas mineral e metalúrgica.
Para Georgius Agricola, os minerais (embora, no seu tempo, ainda não
se conhecesse sua composição química) seriam compostos de partículas da
mesma ou de diferentes substâncias. No seu tratado mais conhecido, o de
re metallica, publicado em 1553, são descritas as práticas de Mineração
e Metalurgia adotadas na época. Mas de forma alguma é introduzida uma
“teoria” da matéria. Contudo, propõe métodos industriais de manuseio de
minérios e metais que não fazem apelo a concepções filosóficas ou místi-
cas. Portanto, pode-se inferir do texto que seu conceito de matéria é o de
substância inerte, até hoje dominante, capaz de suportar operações mecâ-
nicas e combinações químicas em seu manuseio, sem intervenções de es-
píritos ou divindades. Trata-se de uma técnica no sentido atual da palavra,
a qual, apesar do seu interesse limitar-se aos mineradores e metalurgistas,
impõe a ideia de matéria inerte.
Em suma: o conceito renascentista de matéria prende-se à ideia de
ciência dominante no período, isto é, a de um saber baseado na visão direta
dos fenômenos, em crítica a qualquer teoria antiga. Entretanto, há também
a preocupação da atuação do homem sobre a natureza, no sentido de trans-
formá-la, onde o apelo à magia está presente. Tal tipo de saber contestava
a utilização da Matemática na compreensão ou atuação sobre a natureza.
Portanto, o conceito de matéria estava ainda longe da matematização. Po-
rém, as pesagens e medidas já utilizadas nas combinações de substâncias
medicinais e na atuação técnica sobre os minerais e metais, já anunciava a
futura possibilidade de uma concepção teórica da matéria.

c) A noção de matéria na Química moderna


É geralmente aceito que, quem deu origem à instituição da Química,
como ela é entendida hoje, foi Robert Boyle (1627-1691), já no século

354
XVII, quando a mentalidade dos que se dedicaram à, então chamada, Fi-
losofia Natural já era dominada pela ideia da natureza como uma grande
máquina regida pelas leis da Mecânica. Entretanto, não se pode deixar de
notar que ela já se tinha envolvido anteriormente com a Alquimia, a Me-
dicina e a Metalurgia.
Boyle é mais conhecido por sua lei, induzida de uma série de experiên-
cias de acordo com os preceitos de Francis Bacon. Como é sabido, essa
estabelece que os volumes ocupados por gases (no seu tempo Boyle refe-
ria-se tão somente ao ar) é inversamente proporcional às pressões agentes
sobre ele165. Este fato é, por si só, suficiente para mostrar a mentalidade
mecanicista de Boyle, pois, assimila os gases a molas. Por outro lado, o
relato da experiência da qual resultou a lei em questão, mostra sua adesão
ao método experimental da ciência moderna.
Entretanto, o que mais interessa aqui é a posição de Boyle no que se
refere à sua concepção de matéria. Nesse particular o seu livro, publicado
em 1661, the sceptical chymist166 é importante porque, na realidade,
escrito em forma de diálogo, gira em torno da questão: de que são feitos
os corpos materiais? Pelo personagem que encarna suas próprias ideias,
Boyle contrapõe-se tanto à concepção aristotélica dos corpos constituídos
pela combinação dos quatro elementos, como contra a iatroquímica dos
três princípios. Entretanto, ele não trata de contestar diretamente ambas as
doutrinas, mas sim, de exigir que tanto os aristotélicos quanto os iatroquí-
micos comprovem experimentalmente suas doutrinas. Não aceita as dedu-
ções teóricas feitas a partir de princípios admitidos como evidentes. Não
contesta a existência de elementos constitutivos da matéria, mas, sim, o
método pelo qual eles são introduzidos a priori. É verdade que há menção
de experiências, por parte dos aristotélicos, mas tais experiências visavam
“ilustrar” teorias dedutivas já aceitas como verdadeiras, e não verificá-las,
como requer a ciência moderna.
Pelo contrário, a experiência organizada mostra que, pela ação direta
do fogo e pela destilação, alguns corpos, como o ouro, não se decompõem
em elementos, e outros, como o sangue, decompõem-se em mais de quatro
substâncias. Reciprocamente nunca foi mostrado experimentalmente que
a síntese dos elementos aristotélicos tivesse recomposto corpos tidos como
constituídos pela combinação dos mesmos.
165 BOYLE, Robert. Física, química y filosofía mecánica. Introdução, tradução e notas
de Carlos Solís Santos. Madri: Alianza Editorial, 1985.
166 BOYLE, Robert. The Sceptical Chymist. In: Breakthroughs in Chemistry. Nova
York/Toronto: New American Library, 1967.

355
Quanto aos iatroquímicos, a quem ele se refere simplesmente como
“químicos” – apesar de louvar sua mentalidade contrária à dos aristotéli-
cos e apegada à experiência efetuada pela “visão direta dos fenômenos” –,
Boyle dirige uma crítica diferente. Apegado aos ensinamentos de Bacon,
a experiência, para Boyle, deve ser organizada de forma a tornar-se livre
de qualquer preconceito ou teoria anterior, a fim de que seus resultados
possam servir como premissas de um raciocínio indutivo.
A dedução a partir de observações vivenciadas pela “visão direta dos
fenômenos” não será, para Boyle, confiável, a não ser se, posteriormente,
verificada experimentalmente.
Por outro lado, Boyle contesta a ideia de qualquer virtude inerente à
matéria – seja ela sobrenatural, seja vitalista – e nega a existência na maté-
ria de qualquer princípio anímico. Para ele, a matéria é o estofo inerte com
o qual a grande máquina da natureza foi construída. É a ideia da separação
entre as substâncias materiais e as espirituais, comum tanto aos racionalis-
tas como aos empiristas do século XVII, que é a origem da atual inflexível
distinção entre espírito e matéria.
A obra de Boyle é imensa. Está constituída pelos relatórios de centenas
de experiências, reunidos em meia dúzia de volumes in-fólio, cada qual de
várias dezenas de páginas. A maioria desses relatórios foi esquecida, ape-
sar da notoriedade daquele que descreve a experiência para chegar à lei de
Boyle-Mariotte. Entretanto, a importância deles para a história da ciência
é primordial, pois relatam experiências de decomposição, pela ação do
fogo e da destilação, de inúmeras substâncias em seus componentes. Mais
ainda: a reversão do processo, realizada por Boyle em laboratório, quan-
do conseguiu sintetizar substâncias componentes, no composto original, o
que deu base experimental à sua conjetura de que todos os corpos mate-
riais seriam constituídos pelo arranjo e pela combinação de corpúsculos de
matéria inerte. É a teoria atomística reaparecendo no contexto da ciência
moderna, depois de refutada e esquecida durante toda a Idade Média.
Boyle foi muito criticado pelos racionalistas do continente europeu,
no século XVII, por não contribuir para o processo de matematização das
ciências da natureza, à vista de sua metodologia baconiana acentuadamente
empírica. Entretanto, o processo de análise dos fenômenos naturais, a partir
da Matemática, só veio a ter êxito quando o empirismo inglês conjugou-se
ao racionalismo continental na formação da Física newtoniana. O empiris-
mo, com o método indutivo de um Boyle, salvou a Química moderna de um
possível dogmatismo apriorístico, inerente à inter-relação entre Ciência e
Metafísica, própria do racionalismo. Mas, por outro lado, o emprego da de-

356
dução matemática, a partir de princípios axiomáticos, impediu que a nova
ciência se resumisse a coleções de experiências e leis gerais.
Em suma, o que aconteceu, na época de Boyle, é que a Química liber-
tou-se tanto de sua ligação com as técnicas metalúrgicas como das especu-
lações alquimistas, da mesma forma que se constituiu como uma ciência
da natureza e deixou de ser uma mera disciplina da Medicina. Contudo, a
Química continuou, ainda por algum tempo, a desenvolver-se como disci-
plina autônoma nas escolas de Medicina. A primeira cátedra universitária
dessa disciplina, sob o nome de: Chymiatria, foi inaugurada em 1609, em
Marburg, sob a regência de Johann Hartmann, o qual escreveu um tratado
prático de preparação de remédios, de larga divulgação no século XVII. A
influência de Paracelso continuava com a tradução e divulgação em lar-
ga escala de suas obras, ainda nos meados do século XVII. Na Inglater-
ra, principalmente suas doutrinas, difundidas pelo médico místico inglês
Robert Fludd (1574-1637), foram defendidas até o final do século.
Contudo, no início do século XVIII, dominava, nas próprias escolas
de Medicina, uma interpretação mecanicista dos fenômenos fisiológicos, o
que resultou uma visão mecânica da própria Química Farmacêutica. Her-
mann Boerhaave (1668-1738), professor da Universidade de Leiden, é um
exemplo desses professores de Medicina que, abandonando o vitalismo,
passaram a considerar a Química como ciência da combinação de corpos
inertes. Para Boerhaave, o corpo humano era uma máquina composta de
vigas, colunas, eixos e alavancas. A Fisiologia deveria ser entendida na
base de fenômenos hidráulicos e processos químicos de combustão e des-
tilação. A Química seria uma disciplina a ser utilizada pelos médicos, por
exemplo, na análise dos fluidos do corpo. Porém, de maneira alguma ele
a aceitava como um saber abrangente que explicasse, por si só, a natureza
humana.
Ainda neste período, aparece também a reação contra essa visão me-
canicista da Medicina. Entre aqueles que se opõem a essa visão, está o
médico Georg Ernst Stahl (1660-1734), formado em Medicina pela Uni-
versidade de Jena, em 1680, fundador da teoria do flogisto, que domina o
cenário da investigação química do século XVIII. Stahl sustentava uma
diferença radical entre a matéria viva e a inorgânica. Essa última poderia
ser estudada por teorias mecanicistas, mas a viva seria “animada” por um
processo inabordável pela Mecânica. Os fenômenos químicos na matéria
viva deveriam, portanto, ser regidos por um princípio vital, teleológico e
livre que ele chamava de anima (não muito distante dos archaea de Para-
celso). Porém, não admitia que os processos químicos dominassem a prá-

357
tica da Medicina – os processos vitais não poderiam ser explicados pelos
fenômenos químicos. A Química, portanto, era independente da Medicina.
Em 1703, Stahl publicou um comentário sobre o livro de Johann Joa-
chim Becher (1635-1682), physica subterranea: um tratado sobre Quí-
mica Inorgânica, prevalente no mundo mineral, em que defendia a con-
jetura de que o elemento “terra”, na realidade seriam três “terras”, que,
de uma certa forma, corresponderiam aos três princípios da iatroquímica.
Uma delas, que seria o elemento combustível, foi denominado, por Be-
cher de terra pinguis ou phlogiston correspondente ao enxofre, o elemento
combustível dos iatroquímicos.
A partir disso, Stahl desenvolveu sua teoria do flogisto, cujo objetivo
era explicar os fenômenos químicos. O flogisto era tido como o princí-
pio presente em todos os corpos combustíveis, e que se perdia quando
o corpo entrava em combustão. O que correspondia à crença de origem
aristotélica de que, na combustão, o elemento fogo desprendia-se do cor-
po ao queimar. Essa teoria foi bem-sucedida na explicação de uma série
de fenômenos químicos que envolviam a combustão. Ora, uma tal teoria
trazia de novo, embora de forma mitigada, a concepção da matéria dotada
de um certo princípio anímico, pois o flogisto, embora considerado como
a “matéria” do fogo, não seria pura matéria inerte, pois não era uma subs-
tância sensível. De qualquer forma, apesar do mecanicismo dominante,
veio ela constituir-se como base da teoria química dominante no século
XVIII. Talvez esse sucesso deva-se ao fracasso da concepção mecanicista
do mundo, em explicar a vida e sua animação, justamente no momento em
que o interesse pelos fenômenos vitais estava surgindo.
A teoria do flogisto explicava, por exemplo, porque os metais eram
encontrados nas minas, sob a forma de minérios (quase sempre óxidos,
na nossa nomenclatura; chamados de “cales”, na época). Pela operação de
calcinação sob ação direta do fogo, transformavam-se nos metais puros.
Reversamente, os metais puros, também por ação do fogo, retornavam ao
estado de cales.
A teoria do flogisto explicava, ainda, a obtenção do ferro gusa em
fornos, a partir do minério de ferro e do carvão. O minério de ferro, consi-
derado um material desflogisticado, era encontrado nas minas. O carvão,
como material combustível, seria rico em flogisto. Na sua combustão, o
carvão desprenderia flogisto, enquanto o minério o absorvia, transforman-
do-se no metal ferro. Note-se que a teoria do flogisto está muito ligada
a questões de Mineração e Metalurgia, técnicas que estavam em pleno
desenvolvimento na época. Seria este mais um exemplo da estreita corre-

358
lação entre ciência e técnica no século XVIII da qual, entre outras coisas,
resultou a Revolução Industrial.
Um dos mais ardentes seguidores da teoria do flogisto foi, curiosamen-
te, um dos criadores da Química Moderna, o teólogo anglicano Joseph
Priestley (1733-1804), apaixonado defensor da independência norte-ame-
ricana, o que o levou para os Estados Unidos em 1794, onde ficou até sua
morte, abandonando suas pesquisas químicas. Sua principal contribuição
refere-se às suas experiências com o ar atmosférico, com as quais ele fi-
liou-se ao ramo da ciência então denominada Química Pneumática.
O que principalmente resultou de suas experiências, publicadas em
1790, foi a identificação do que chamava “diferentes espécies de ar”, entre
as quais estaria o “ar flogisticado”. Na época, acreditava-se que o ar at-
mosférico (livre de poluidores estranhos) fosse uma “substância elementar
simples”, mas já havia sido observado que, ao se queimar uma substância
combustível no interior de um ambiente fechado, o ar ali contido tornava-
-se impróprio para a respiração dos animais e, também, não permitia a
permanência de uma vela acesa. A teoria do flogisto interpretava esse fe-
nômeno como acréscimo de flogisto ao ar ambiente. Priestley notou que
seria possível restabelecer o ar puro agitando o ar flogisticado em água e
concluiu que o “ar puro” seria o ar desflogisticado. Observou ainda que,
queimando o pó vermelho de mercúrio oxidado (que ele chamou de mer-
curius calcinatus) contido numa cápsula, por meio de uma lente, conse-
guia extrair uma espécie de ar. O “ar” assim obtido fazia uma vela acesa
arder com mais intensidade e mantinha uma cobaia viva por mais tempo
que o ar comum, quando encerrada num ambiente fechado167. Concluiu
que o “ar” assim obtido era mais “puro” que o ar atmosférico. Não supôs
que o gás que estava sendo obtido era o que hoje chamamos de oxigênio,
um dos principais componentes do ar atmosférico.
Na sequência de suas experiências, Priestley identificou o “ar” que re-
sultava depois da queima de uma substância combustível em ambiente
fechado. Concluiu que se tratava de “ar flogisticado” – o que corresponde
ao azoto (nitrogênio) – outro gás componente do ar atmosférico.
Já anteriormente, Joseph Black tinha identificado o “ar fixo” (o nosso
atual gás carbônico) como desprendido da combustão de calcário ou de
carvão. Mais tarde, verificou-se que esse “ar fixo” resultava também da
respiração dos animais.
Dessa forma, começou-se a desconfiar que o ar atmosférico não po-
167 PRIESTLEY, J. Of Dephlogisticated Air. In: Breakthroughs in Chemistry. Op. cit.

359
deria ser considerado como uma substância elementar simples pois asso-
ciava-se, em maior ou menor quantidade, com o flogisto para dar lugar a
diferentes espécies de ar. Curiosamente, porém, Priestley não chegou a
conceber o ar atmosférico como uma mistura das diferentes espécies de
gases. Pelo contrário ele acreditava que suas experiências confirmavam a
teoria do flogisto.
Por outro lado, em 1766, Henry Cavendish publicava o resultado de
suas experiências, das quais resultara a obtenção do “ar inflamável” (o gás
que hoje chamamos de hidrogênio). Este, era obtido pela ação do ácido
sulfúrico sobre limalha de ferro. Logo, chegou-se a perceber que esse “ar”
era muito mais leve que o ar atmosférico. Aliás, como na época se estava
investigando a possibilidade do emprego de um gás mais leve que o ar nos
balões aerostáticos, Jacques Charles utilizou, para isso, com pleno suces-
so, o hidrogênio, numa experiência que fez em Paris, em 1783168.
Foi ainda Cavendish que, seguindo sugestão de Priestley sobre os efei-
tos de descargas elétricas nos gases, observou a formação de água como
resultado de descarga elétrica, em uma mistura de “ar inflamável” e ar,
conforme seu comunicado à Royal Society em 1784. Sua explicação para
esse fenômeno foi feita em termos da teoria do flogisto: o “ar desflogistica-
do” é água livre do flogisto e o “ar inflamável”, água flogisticada ou, então,
mais provavelmente, puro flogisto.
Apesar das “evidências” introduzidas pela teoria do flogisto, depois das
experiências de Priestley, Black e Cavendish, começou-se a perceber que
os gases eram substâncias químicas diferentes do ar atmosférico e que era
bem provável que o compusessem. Portanto, o ar não seria um dos quatro
elementos da matéria, da mesma forma que não o seria, a água, pois essa
fora sintetizada por Cavendish. Esse foi o fim tanto da teoria aristotélica
dos quatro elementos quanto dos três princípios da iatroquímica. Assim,
terminou a antiga concepção grega da matéria formada por uns poucos
elementos dotados de matéria indefinida.
Além disso, apesar da fé dos químicos da época na teoria do flogisto,
essa tinha sido duramente abalada. E isso se deu pelo fato de que se começou
a prestar atenção nas medidas de volume e de peso dos sólidos e gases en-
volvidos em reações químicas. O uso da balança nos laboratórios alquímicos
já vinha de longa data, principalmente para a determinação das densidades,
desde o célebre episódio da descoberta de Arquimedes de como identificar
168 SCOTT, Arthur F. The Invention of the Balloon and the Birth of Modern Chemistry.
Scientific American, v. 250, jan. 1984.

360
o metal da coroa do tirano de Siracusa, Hieron. Mas, as pesagens e medidas
de volume não despertavam muito a atenção nem dos alquimistas nem dos
químicos que os sucederam. Entretanto, com a crença da natureza como pas-
sível de ser conhecida através da Matemática – que irrompeu no pensamento
do século XVII e XVIII – a mensuração tornou-se imprescindível.
O sucesso da teoria do flogisto em explicar os fenômenos químicos, sem
recurso aos números, tinha afastado a Química, por quase um século, da
preocupação das medidas. Mas, quando essas vieram finalmente a se impor,
já na segunda metade do século XVIII, verificou-se que elas desmentiam a
ideia antiga de que a combustão se dava pela fuga de algo (da natureza do
fogo ou do flogisto) do corpo em combustão. Pelo contrário, as pesagens
mostraram que os metais calcinados (dos quais deveria haver a fuga do flo-
gisto) aumentavam de peso, em vez de diminuir. Os fanáticos do flogisto
chegaram a inventar a absurda hipótese que o flogisto teria peso negativo.
Coube a Antoine Laurent Lavoisier – nascido em 1743 e guilhotinado
pelo Terror, na Revolução Francesa, em 1794, sob a acusação de corrup-
ção, como membro de uma corporação encarregado de coleta de impostos
– estabelecer as bases da Química moderna, afastando definitivamente to-
das as reminiscências da antiga concepção aristotélica de matéria.
Isto foi feito a partir da descoberta do oxigênio e da interpretação do
fenômeno da combustão como uma oxigenação da substância queimada
(1777). É verdade que Priestley já tinha separado esse gás. Também o
químico sueco Karl Wilhelm Scheele (1742-1786) o separara em 1772.
Porém, ambos não o identificaram como tal, mas somente como “ar desflo-
gisticado”. Foi Lavoisier que, a partir dessa descoberta, revolucionou toda
a Química, refutando a teoria do flogisto e conferindo-lhe sua forma atual.
Pode-se então perceber que, embora a combustão fosse uma reação
química pela qual o oxigênio combinava-se com uma outra substância,
dessa reação desprendia-se calor (na opinião da época, sob a forma de
corpúsculos calóricos). Mas havia também outras reações, por exemplo,
a calcinação do mercúrio, que necessitava que lhe fosse cedido o calor.
Portanto, o calor e a reação química estariam ligados entre si.
Uma outra façanha de Lavoisier foi a de demonstrar, por uma série de
destilações de água pura, feitas entre 1768 e 1769, que era falsa a crença
milenar de que a água seria convertida, pelo calor, em terra. Além disso,
ficou claro que nenhuma partícula de fogo era acrescida à água durante
as repetidas destilações, pois, o peso da água, ao final de 100 dias de des-
tilações sucessivas em vaso fechado, era o mesmo que o inicial.

361
Em 1774, Priestley visitou Lavoisier em Paris e contou-lhe sobre suas
experiências com o mercurius calcinatus. Lavoisier repetiu a experiência
de Priestley, na sua memorável “experiência dos 12 dias”169, porém, agora
tendo o cuidado de pesar todas as substâncias antes e depois da experiên-
cia e medir o volume do ar envolvido nelas. Primeiro, aqueceu por 12 dias
uma determinada quantidade de ar, sobre mercúrio, numa retorta fechada.
O ar contido na retorta reagiu com o mercúrio formando o pó vermelho
mercurius calcinatus. O ar, contido na retorta, diminuiu de volume, pois
fora desprovido da parte que Priestley chamava de “ar puro” ou “ar desflo-
gisticado”. Depois, com temperatura mais alta, decompôs o pó vermelho
em mercúrio e um gás. Notou que o volume do gás assim formado era igual
ao decréscimo de volume do ar, originalmente contido na retorta fechada.
Lavoisier interpretou o resultado da experiência como se parte do ar
combinara-se com o mercúrio, formando o pó vermelho, e depois essa
mesma parte de ar voltava a se acrescer ao ar contido na retorta. A medida
do volume dessa parte de ar era de 5/6 do volume original. O ar atmosfé-
rico seria, portanto, formado por uma mistura de 1/6 do gás que Priestley
chamava de “ar desflogisticado”, o qual reagia com o mercúrio formando
o pó vermelho. Lavoisier observou, ainda, que os 5/6 restantes do ar não
permitiam respiração nem mantinham acesa uma vela.
Finalmente, em 1779, depois de uma longa série de experiências relata-
das em várias apresentações à Academia, Lavoisier convenceu-se que o “o
ar eminentemente respirável” era convertido em “ar fixo” (gás carbônico)
pela respiração, pela queima de velas, ou combinava-se com substâncias
não metálicas para formar óxidos. Por isso, propôs que fosse denominado
“princípio oxigênio”, como sendo aquilo que gerava os óxidos.
Sumarizando todas suas ideias, Lavoisier publicou, em 1789 (o mesmo
ano da queda da Bastilha) o seu tratado de química170. O livro é dividido
em três partes. A primeira, trata da formação e da decomposição de fluidos
aeriformes, da combustão dos corpos simples e da formação dos ácidos.
Na segunda parte, trata da combinação de ácidos com bases salificáveis
e da formação de sais naturais. A terceira parte, a mais extensa, trata da
descrição de instrumentos e das operações da Química.
A primeira parte inicia com a descrição dos gases, como sendo com-
postos de uma base química e mais calórico – o que se supunha na época
ser o fluido do calor. As partículas do calor é que mantinham as partículas
169 LAVOISIER, A. Names and Numbers are added to Chemistry. In: Breakthroughs in
Chemistry. Op. cit.
170 LAVOISIER, A. Elements of Chemistry. Madison: Dover Publications, 1965.

362
das matérias químicas separadas, conferindo ao corpo seu estado aerifor-
me. As partículas de todos os corpos estariam sujeitas a uma força atrativa
e outra repulsiva. No estado gasoso, as forças repulsivas das partículas do
calor predominavam, enquanto que no estado sólido, o contrário aconte-
cia. A água fornece ilustração desse fato, pois, a mais de 100oC está no
estado do vapor, enquanto que, a menos de 0oC, apresenta-se como sólido.
No intervalo entre essas duas temperaturas, as forças de atração entre as
partículas químicas são equilibradas pela repulsão do calórico. Permanece,
assim, no estado líquido. O mesmo pode ser dito de todos os corpos da
natureza. Esse fato é admitido por Lavoisier como prova da existência de
um “fluido ígneo” ou “matéria do calor”, que se insinuaria entre os corpús-
culos das substâncias químicas. O fato de que todos os corpos aumentam
de volume ao serem aquecidos seria outra evidência do poder repulsivo
das partículas de calórico.
Lavoisier é de opinião, ainda, que a luz também seja constituída por
partículas de muita semelhança com as do calor. Apesar de ser forçoso
distinguir a luz do calor, há a possibilidade desse ser uma simples modi-
ficação daquela. Lavoisier prefere distingui-las, embora não possa negar
que elas tenham qualidades em comum e que, em certas circunstâncias,
combinem-se e produzam efeitos semelhantes.
De suas experiências, Lavoisier conclui que o ar atmosférico compõe-
-se de uma mistura de todos os corpos que nas condições normais de pres-
são e temperatura, estão no estado gasoso. Contudo, nessa mistura pre-
dominam dois gases: o gás eminentemente respirável, que ele chama de
oxigênio, e o que não permite nem a respiração nem a combustão, que ele
chama azoto. O oxigênio reage com o enxofre, o fósforo e o carvão, isto
é, com substâncias não metálicas, formando os ácidos, mas reage também
com os metais, formando os óxidos metálicos. Portanto, o ar não é um
elemento, como acreditavam os antigos. E também a água não o é, como
demonstram várias experiências por ele citadas, nas quais a água reagia,
quando aquecida, por exemplo, com o carvão, formando gás carbônico e
um gás muito leve e muito combustível em contato com o ar (hidrogênio),
ou com o ferro, formando óxido de ferro e hidrogênio.
Depois de mostrar que as substâncias orgânicas, compostas principal-
mente de carbono e oxigênio não diferiam quanto à sua natureza química,
das inorgânicas, Lavoisier estudou a formação dos sais. As substâncias
ácidas, isto é, combinadas com oxigênio, adquirem a suscetibilidade de
combinarem-se com metais ou com substâncias não metálicas, formando
os sais.

363
Assim, estabelece-se uma classificação das substâncias químicas em
gêneros. O primeiro seria o das substâncias elementares, como o oxigênio,
o hidrogênio e o azoto, entre os quais Lavoisier, seguindo a opinião domi-
nante do seu tempo inclui os corpúsculos de calor e de luz. Os metais, as
substâncias não metálicas e, segundo Lavoisier,as substâncias chamadas
“terrosas”, como o sódio, o potássio, o calcário, a argila etc., são também
substâncias simples, porém, de uma certa forma, por ele diferenciadas dos
primeiros elementos. Em seguida, vêm os gêneros dos óxidos, dos ácidos
e dos sais. Estabelece ainda uma nomenclatura pela qual as substâncias
químicas seriam denominadas primeiro pelo nome do seu gênero seguido
pelo do radical ou base que o formam. Por exemplo: oxigênio, óxido de
ferro, ácido sulfúrico, fosfato de sódio, nitrato de prata etc. Nomenclatura
química que persiste, em sua essência, até hoje.
Note-se que, em todas as experiências de Lavoisier, as substâncias
reagentes eram pesadas, assim como as que resultavam da reação. Disso
resultava sempre que a soma dos pesos, antes da reação, era sempre igual
à das substâncias resultantes. Daí, o chamado princípio de Lavoisier, ao
afirmar não haver criação ou perda de massas durante as reações químicas.
É a lei da conservação da matéria.
Lavoisier termina os seus elementos de química com uma extensa
terceira parte, na qual ele descreve com abundância de detalhes não só os
instrumentos usualmente empregados pelos químicos em suas pesquisas
como, também, as operações comuns da Química. Trata-se, portanto, de
um livro que visa, antes de tudo, o ensino prático da Química.
Em suma, a grande contribuição de Lavoisier para a futura matema-
tização dos fenômenos químicos foi a introdução da pesagem na análise
desses fenômenos.
No primeiro decênio do século XIX, enquanto a Europa era dilace-
rada pelas guerras napoleônicas, cientistas da Inglaterra, França e Itá-
lia, pesquisavam em estreita colaboração, no sentido de descobrirem
a constituição íntima da matéria. Foi assim que o inglês John Dalton
(1776-1844), o sueco Barão Jöns Jacob Berzelius (1779-1848), o fran-
cês Joseph-Louis Gay-Lussac (1778-1850) e o italiano Amedeo Avoga-
dro (1776-1856), tomando conhecimento recíproco de seus trabalhos,
vieram a estabelecer as bases da moderna teoria atômica da matéria.
Não mais o fizeram como conjetura filosófica, mas agora apoiada na
objetividade da experiência científica, baseando-se na pesagem dos in-
gredientes químicos.

364
Já em 1796, Dalton iniciava suas investigações. Provavelmente influen-
ciado pela concepção corpuscular da matéria de Boyle, e inspirado nas lei-
turas dos relatos das experiências de Priestley e de Lavoisier, convenceu-se
do atomismo da matéria, como única explicação das combinações e disso-
luções das substâncias químicas. Assim, estabeleceu a conjetura de que os
elementos eram constituídos por átomos maciços e indivisíveis, extrema-
mente pequenos. Os átomos de substâncias diferentes, que se combinavam
um a um para formar os corpos compostos, diferiam entre si somente pelo
seu peso. Os pesos atômicos dos diferentes elementos poderiam ser ex-
pressos em relação ao peso do hidrogênio, tomado como unidade. Numa
de suas anotações, datada de setembro de 1803, encontra-se uma lista de
elementos ordenados em relação aos seus pesos atômicos crescentes171.
Essa sua conjetura foi expressa em seu livro a new system of chemical
philosophy, publicado em 1808.
Contudo a mentalidade positivista que estava despontando na época
reagiu fortemente contra a suposição de uma entidade real que não podia
ser observada pelos sentidos humanos, e acusou o atomismo de pura Meta-
física. Essa polêmica perdurou durante todo o século XIX, mas, num certo
sentido foi benéfica para o progresso da ciência, como foi mostrado no
item i do capitulo IX, quando se falou da Análise Matemática da energia.
O barão Berzelius, entre 1809 e 1814, levou a efeito, num pequeno la-
boratório instalado em sua própria casa, em Estocolmo, uma incrível série
de experiências, pelas quais estabeleceu a lei de combinação das substâncias
em proporções múltiplas de seus pesos, e por meio dela, determinou com
precisão os pesos atômicos, em relação ao oxigênio, tomado como peso 100.
Isto levou ao conceito dos equivalentes, como pesos relativos das subs-
tâncias que reagiam entre si para formar compostos. Tal conceito agradou
aos positivistas contrários ao atomismo, porque então não seria mais ne-
cessário mencionarem-se os átomos. Chegou-se a formar uma doutrina
dos “equivalentistas” em oposição aos atomistas.
Berzelius propôs ainda uma nova classificação dos elementos químicos,
os quais eram denotados pelas duas primeiras letras do seu nome latino.
Durante suas experiências, conseguira isolar vários elementos e ainda des-
cobrir outros,172 por isso bem merece o renome que alcançou na época e
ainda perdura até hoje.
171 DALTON, John. On Chemical Synthesis. In: Breakthroughs in Chemistry. Op. cit.
172 RHEINBOLDT, H. História da Balança. A Vida de J. J. Berzelius. São Paulo: Nova
Stella/Edusp, 1988.

365
Um passo importante no estabelecimento da teoria atômica foi dado
por Gay-Lussac quando, em artigo lido na Société Philomatique de Paris,
em 1808, enunciou a lei que até hoje conserva o seu nome: “Quando dois
gases reagem, seus volumes mantêm uma relação simples entre si e com o
volume do gás resultante”.
Assim expressa, essa lei veio a introduzir uma enorme confusão na
Química, pois se referia a volumes, enquanto que as experiências de Dal-
ton e de Berzelius eram em termos de pesos. Consequentemente, Dalton
a questionou asperamente. Porém, Avogadro a aceitou sem a menor dúvi-
da, pois a partir dela é que pode supor que volumes iguais de gases, nas
mesmas condições de pressão e temperatura, possuiriam igual número de
partículas. Avogadro apresentou sua conjetura em 1811173. Mas, devido ao
transtorno que ela veio a introduzir nas concepções de Dalton, só veio a
ser aceita em 1858, quando Stanislao Cannizzarro (1826-1910) a expôs em
seu ensaio sunto di un corso di filosofia chimica e, também, brilhan-
temente a defendeu em sua comunicação ao I Congresso Internacional de
Química realizado em Karlsruhe, em 1860.
A dificuldade de aceitação da conjetura de Avogadro, por parte daque-
les que seguiam a de Dalton, estava que, por essa, cada partícula seria
constituída por um único átomo que, nas combinações, unir-se-ia a um
único átomo da outra substância, segundo proporções referidas aos seus
pesos atômicos. Por outro lado, Avogadro, com base nas observações de
Gay-Lussac, admitia as combinações em proporções referidas aos volumes
dos gases combinados. Levando em conta a conjetura do mesmo número
de partículas em volumes iguais e o princípio da conservação da matéria,
é fácil ver que as duas hipóteses não se coadunavam. Por exemplo, para
explicar que dois volumes de hidrogênio, combinados com um volume de
oxigênio resultam dois volumes de vapor d’água, cada volume contendo o
mesmo número de partículas (levando em conta outras reações em que o
hidrogênio e o oxigênio participem) seria necessário admitir que as partí-
culas do hidrogênio e do oxigênio fossem moléculas de dois átomos cada
e que as moléculas do vapor d’água fossem compostas de dois átomos de
hidrogênio e de um de oxigênio.
Com a brilhante defesa da conjetura de Avogadro, por parte de Can-
nizzarro, ficou definitivamente estabelecido que as partículas últimas,
tanto das substâncias simples como das compostas, são moléculas com-
postas de vários átomos. Os mesmos volumes, nas mesmas condições de
pressão e temperatura, conterão igual número de moléculas.
173 AVOGADRO, Amedeo. On a Manner of Determining the Relative Masses of Bo-
dies. In: Breakthroughs in Chemistry. Op. cit.

366
Chegou-se posteriormente a determinar esse número para o volume de
22,4 litros, o qual tomou o nome de “número de Avogadro” e que é espan-
tosamente grande, porém finito. Expressa-se pelo algarismo 6 seguido de
23 zeros. Avogadro jamais sonhou que seria possível determiná-lo.
Berzelius já investigara, em 1803, a ação da corrente galvânica so-
bre soluções de sais. Observou que a corrente elétrica decompunha os
compostos dissolvidos em água quando se mergulhavam dois eletrodos
na solução. Os combustíveis, inclusive o hidrogênio, acumulavam-se no
polo negativo, enquanto o oxigênio e os ácidos iam para o polo positivo174.
Berzelius propôs então explicar a maior ou menor afinidade entre as subs-
tâncias que se combinavam quimicamente, admitindo que cada partícula
seria carregada positiva ou negativamente, mas teve de admitir também
que algumas substâncias seriam neutras.
Aliás, a existência de pilha voltaica já mostrava que as reações quí-
micas podem produzir eletricidade como também requerer dispêndio de
eletricidade, como no caso da síntese da água, da mesma forma que, como
já foi dito, podem desprender ou absorver energia calorífica.
Porém, foi Michael Faraday (1791-1867), estudando o fenômeno por
ele mesmo denominado eletrólise, quem elucidou as propriedades elétricas
da matéria, fundando a Eletroquímica, numa sua comunicação à Royal So-
ciety, em 1830175. Para a eletrólise faz-se fluir uma corrente elétrica através
de uma solução condutora de eletricidade, de um cátodo, ligado ao polo
negativo de uma bateria, para o ânodo, ligado ao polo positivo, sendo am-
bos mergulhados na solução, chamada por Faraday, de eletrólito. Durante
a eletrólise, a substância dissolvida em água, decompõe-se em duas partes,
às quais Faraday deu o nome de íons (viajantes). Uns deles, que chamou
cátions, caminhavam para o cátodo e, portanto, estavam carregados de car-
gas positivas e os outros, chamados ânions, dirigiam-se para o ânodo, o
que indica estarem carregados negativamente.
Por exemplo: se a substância dissolvida é o cloreto de sódio (NaCl) sua
molécula decompõe-se em dois íons: o de sódio (Na+) que se encaminha
para o cátodo, e o de cloro (Cl-), para o ânodo. Portanto, pelo menos nos
corpos ionizáveis, as moléculas são mantidas unidas por forças elétricas.
Faraday interessou-se particularmente pela eletrólise da água, a qual era
tornada condutora de eletricidade pela dissolução de uma pequena quan-
tidade de ácido. A eletrólise indicava que, para dois cátions de hidrogênio
174 RHEINBOLDT, H. Op. cit.
175 FARADAY, M. On Electrochemical Decomposition In: Experimental Research in
Electricity. Chicago: Encyclopaedia Britannica, 1975. (Great Books of the Western
World).

367
(H+) havia um ânion de oxigênio (O2-) com dupla carga elétrica negativa.
Esses íons liberavam-se junto aos eletrodos, formando uma dupla medida
de hidrogênio para cada uma de oxigênio. Faraday observou ainda que a
quantidade de água assim decomposta era proporcional à quantidade de
eletricidade gasta. Generalizou essa sua observação para todos os eletró-
litos, afirmando que a mesma quantidade de energia sempre decompõe a
mesma quantidade de um dado composto. Indo adiante em suas observa-
ções, concluiu que os pesos das substâncias, liberadas em cada eletrodo,
são proporcionais aos pesos equivalentes químicos dessas substâncias.
Pela metade do século XIX, já se poderia perguntar como seria possível
compreender a estrutura atômico-molecular da matéria, porém, a resposta
ainda não podia ser convenientemente respondida. Um passo a mais no
sentido de formular a resposta foi dado pelo químico russo Dimitri Men-
deleiev (1834-1907), quando esse mostrou que os vários elementos cons-
tituintes da matéria podiam ser agrupados de forma tal que, numa tabela
convenientemente ordenada, tanto os elementos que caiam nas mesmas
colunas quanto nas mesmas linhas tinham propriedades químicas seme-
lhantes. Essas se repetiam periodicamente na sequência dos grupos.
Mendeleiev publicou seu famoso trabalho no jornal da sociedade
química russa, em 1869. Porém, sua divulgação só se fez pelo capítulo
“Agrupamento dos Elementos e Lei Periódica”, do seu tratado em russo
princípios da química, e só alcançou divulgação internacional quando o
seu primeiro trabalho foi traduzido para o alemão, em 1895, já com dis-
posição diferente da tabela periódica. O tratado foi impresso em inglês
apenas em 1905176.
Mendeleiev tirou conclusões surpreendentes do seu agrupamento dos
elementos. Chegou a modificar os pesos atômicos a fim de melhor dispor
os elementos, modificações essas que foram posteriormente confirmadas.
Previu a existência de elementos que deveriam corresponder a lugares va-
zios em sua tabela e deduziu, daí, suas propriedades, as quais foram confir-
madas ao se descobrir tais elementos. A descoberta dos gases raros inertes
da atmosfera fez acrescentar à tabela de Mendeleiev mais uma coluna, o
que melhorou sua coerência. A descoberta posterior dos elementos radioa-
tivos veio completar a lista.
Mas, as razões profundas que justificavam o agrupamento dos elemen-
tos e a repetição periódica de seus grupos, juntamente com a correlação
176 MENDELEEV, D. Grouping of the Elements and the Periodic Law. In: Breakthrou-
ghs in Chemistry. Op. cit.

368
entre esses agrupamentos e as propriedades químicas dos elementos, só
vieram a ser conhecidas quando, a partir do final do século XIX, pesquisas
físicas vieram a revelar a estrutura interna dos átomos.

d) Matematização do espaço, tempo e gravitação


Já foi dito que, para Newton, seria possível imaginar um espaço e um
tempo sem que houvesse matéria, porém, não seria possível imaginar a ma-
téria sem espaço e tempo. Em seguida, afirmou-se que teria sido a leitura dos
principia, de Newton, que levara Kant a justificar filosoficamente a possibi-
lidade do conhecimento objetivo da natureza. Tal conhecimento iniciava-se
com a experiência sensível, porém, em alguns casos, necessitava que algo
mais fosse acrescentado aos dados da sensibilidade. Esse algo mais seriam
as formas de espaço e tempo, anteriores a qualquer experiência, isto é, na
linguagem kantiana, seriam a priori (vide itens c e d, do capítulo VI). De
fato, Newton mostrara que, subtraindo à matéria todas suas determinações
sensíveis, como cor, peso, cheiro etc., ficaria o espaço por ela ocupado e o
tempo em que ocorrera. Ora, esses dois termos denotariam formas anteriores
a qualquer experiência. Isto é: uma vez percebida a matéria, o entendimento
humano imediatamente a localizaria no espaço e no tempo. Seria então que
apareceria o fenômeno e a matéria percebida adquiriria realidade.
Se estivermos tentando analisar a matéria como um ingrediente real da
natureza, uma análise do espaço e do tempo deve ser um dos itens dessa
análise. Isto é: a matéria só será algo real se localizada no espaço e ocor-
rendo no tempo. Assim, para prosseguir-se nesse relato histórico do pro-
cesso de matematização da natureza, deve-se relatar como o espaço-tempo
foi geometrizado por Einstein.
A Física newtoniana postula o tempo como absoluto, decorrendo uni-
forme e independentemente da presença ou ausência da matéria. O espaço
será também absoluto e como tal homogêneo e infinito. É fácil ver que a
noção galileico-newtoniana de inércia, como persistência natural dos cor-
pos em movimento retilíneo e uniforme ou em repouso, exige a intuição a
priori de um espaço e de um tempo absolutos, embora existam também os
espaços e os tempos relativos. Mas, é de se concluir que a noção galileana,
de que todo movimento é relativo, é contraditória com a noção de espa-
ço e tempo absolutos. Pois, se há um espaço e um tempo absolutos seria
possível admitir como, aliás, o fez Newton, um movimento absoluto nesse
espaço homogêneo e infinito. Daí a ideia de medir a velocidade da Terra
movendo-se nesse espaço imóvel e infinito.

369
O físico norte-americano Albert Abraham Michelson (1852-1931), tra-
balhando no Observatório de Potsdam, em 1881, projetou e construiu um
interferômetro (aparelho capaz de medir a velocidade da luz pela obser-
vação das franjas de interferência) de dois braços, perpendiculares entre
si e de comprimentos iguais visando medir o movimento da Terra através
do éter, meio fixo onde se dava o movimento da luz. Contudo, somente
após sua volta aos Estados Unidos, em 1887, foi que ele e Edward Morley
conseguiram utilizar seu interferômetro na conhecidíssima experiência de
Michelson-Morley.
A velocidade de rotação da superfície da Terra é inteiramente despre-
zível em relação à da luz. Mas sua velocidade de translação é de cerca de
um décimo daquela e pode ser considerada, para fins da experiência em
questão, como retilínea e uniforme. Assim, medindo-se a velocidade da
luz na direção da translação da Terra, essa deveria aparecer acrescida da
velocidade da Terra, enquanto que, se a medida fosse na direção contrária,
deveria mostrar-se como diminuída. Na direção normal à translação da
Terra, a medida de velocidade da luz deveria mostrar-se inalterada.
Desta forma, seria possível calcular-se a velocidade da Terra, em rela-
ção ao éter fixo, sede do movimento da luz. Medir-se-ia com o interferôme-
tro a velocidade de um raio de luz indo e voltando por reflexão, na direção
do movimento da Terra e, também, indo e voltando na direção normal a
esse movimento. Mas o resultado da experiência foi incompreensível. A
velocidade da luz, em ambos os sentidos, qualquer que fosse a orientação
dos braços do interferômetro, era a mesma. Portanto, a velocidade da Terra,
em relação ao éter, suposto fixo no espaço absoluto, seria nula, ou, então, a
velocidade da luz seria independente da velocidade de sua fonte.
Aventou-se a hipótese de um movimento de todo o sistema solar, por
coincidência igual e contrário ao da translação da Terra. Mas, repetida a
experiência seis meses depois, quando a translação da Terra dava-se em
sentido contrário, o resultado foi o mesmo.
Foi um resultado decepcionante, porém de qualquer forma veio com-
provar o princípio galileano da relatividade de todo movimento. Por esse
seria impossível a determinação, de dentro de um sistema animado de mo-
vimento retilíneo e uniforme, do seu movimento absoluto. Por outro lado,
a experiência confirmou a constância da velocidade da luz e sua indepen-
dência do movimento da fonte luminosa.
Michelson tentou explicar os resultados de sua experiência pela hipó-
tese de que o éter seria totalmente arrastado pelos corpos que se moviam

370
nele. O que era desmentido por observações astronômicas as quais, de
fato, atestavam ser a velocidade da luz independente do movimento de
suas fontes.
Em 1892, Fitzgerald aventou a hipótese de que os corpos se encur-
tariam na direção de seu movimento em relação ao éter, permanecendo
inalteradas suas dimensões normais ao movimento, de forma a tornar a
velocidade da luz aparentemente independente do movimento. Essa hipó-
tese, apesar de arbitrária, veio a tornar-se fecunda.
Em 1895, o físico holandês Hendrik Antoon Lorentz (1858-1928), que
dedicava sua vida à pesquisa dos fenômenos eletromagnéticos, desenvol-
vendo a teoria eletrônica da luz, publicou um pequeno artigo177 no qual
sustentava a hipótese de Fitzgerald, mostrando que os tempos em que os
fachos de luz caminhavam nos dois braços do interferômetro de Michelson
deviam diferir de um valor igual ao que seria compensado admitindo-se
que o braço na direção do movimento encurtar-se-ia de um certo valor.
Esse encurtamento seria explicado se as forças moleculares fossem trans-
mitidas através do éter, da mesma forma que as elétricas e magnéticas.
Em 1904, Lorentz publicou um longo trabalho analisando os fenôme-
nos eletromagnéticos nos sistemas em movimento178. Nesse trabalho, ele
demonstrava a suposição feita no trabalho anterior. Imaginando um refe-
rencial fixo: x, y, z, t, em relação ao qual um outro – x’, y’, z’, t’ –, que se
move na direção de x com velocidade uniforme e retilínea menor que a luz,
demonstrava, pelas leis de Maxwell aplicadas aos movimentos de elétrons
que, mantendo-se as duas outras coordenadas inalteradas, havia um encur-
tamento da dimensão x’.
Esse encurtamento refletir-se-ia na dimensão das moléculas e, conse-
quentemente, na do corpo, encurtando-o na direção do seu movimento.
Isto tornaria impossível a determinação da influência do movimento ter-
restre em qualquer experiência ótica.
Acontece, porém que para admitir esse encurtamento é necessário que
seja também corrigido o tempo t’ do sistema em movimento em relação
ao tempo t do sistema fixo, a fim de que a velocidade da luz mantenha-se
constante e independente da velocidade de sua fonte. Lorentz interpretou
essa correção do tempo, como um simples artifício matemático e chamou
177 LORENTZ, H. A. Michelson Interference Experiments. In: The Principle of Rela-
tivity. Nova York: Dover Publication, 1952. Tradução portuguesa: O Princípio da
Relatividade. Lisboa: Fundação Calouste Gulbenkian, 1971.
178 LORENTZ, H. A. Electromagnetic Phenomena in a System Moving with any velo-
city less than that of Light. In: The Principle of Relativity. Op. cit.

371
o tempo corrigido de “tempo local”. As equações correspondentes a essa
transformação de coordenadas tomaram o nome, sobejamente conhecido
em Física, de “transformações de Lorentz”.
Contudo, a hipótese de Fitzgerald-Lorentz, apesar de sua justificação
eletromagnética, permanecia como algo um tanto arbitrário. No dizer de
Poincaré: “a introdução de uma nova hipótese cada vez que aparece um
novo fato, é algo de arbitrário”. Mais tarde, em 1905, quando Albert Eins-
tein (1879-1955) anunciou sua Teoria Especial da Relatividade,179 essa ar-
bitrariedade foi superada.
Nesse trabalho, Einstein parece não ter tido, ainda, conhecimento com-
pleto da teoria de Lorentz sobre o efeito do movimento nos fenômenos
eletromagnéticos. Curiosamente não se refere diretamente à experiência
de Michelson-Morley, apenas se refere às transformações de Lorentz em
nota de rodapé, mas chega a elas abandonando a hipótese da contração
dos corpos no sentido do movimento e adotando a ideia de que o espaço e
tempo seriam relativos aos movimentos dos sistemas onde esses espaços e
tempo estariam sendo medidos.
Para desenvolver sua Teoria da Relatividade Restrita (isto é, restrita
aos movimentos retilíneos e uniformes), Einstein parte de dois postulados.
O primeiro é que o princípio da relatividade do movimento mecânico vale
também para os fenômenos eletromagnéticos. Esse é o seu chamado Prin-
cípio da Relatividade. O segundo postulado é que a velocidade da luz no
vazio é constante e independente do movimento da fonte luminosa. Eins-
tein avisa, ainda, que na sua teoria, a introdução de qualquer conceito de
éter luminífero é supérfluo, visto que nela não será necessário introduzir o
conceito de “espaço em repouso absoluto e nem de atribuir vetores, veloci-
dades de qualquer ponto do espaço vazio, em que tenham lugar processos
eletromagnéticos”.
Prossegue Einstein na definição de simultaneidade dos acontecimen-
tos. Para acontecimentos próximos, num sistema em repouso, basta cons-
tatar sua simultaneidade com uma posição dos ponteiros de um relógio. No
caso de acontecimentos em repouso, porém distantes, sua simultaneidade
só pode ser constatada entre dois pontos A e B quando o tempo de ida do
raio de A para B é igual ao tempo de volta do mesmo raio refletido de B
para A. Porém, no caso do observador em movimento, como a velocidade
da luz é independente do movimento de sua fonte, o critério acima men-
179 EINSTEIN, A. On the Electrodynamics of Moving Bodies. In: The Principle of Re-
lativity. Op. cit.

372
cionado indicará que o que é simultâneo para o sistema fixo, não o será
para o observador móvel.
Com efeito, se o comprimento de uma haste rígida for medida por meio
de uma régua, num sistema em repouso e suas extremidades forem marca-
das pelas letras A e B , por um observador que participe desse sistema em
repouso, a distância entre os dois pontos é sempre a mesma, pois o instante
de medida dos dois pontos pode ser simultâneo pelo critério considerado
acima. Mas, se o observador que faz a medida entrar em movimento, as
coisas mudam. Imagine-se que, junto aos pontos A e B existam observa-
dores e relógios e que ao longo do eixo AB corre um observador munido
de um sistema de medida, com velocidade uniforme e retilínea v. Quando
esse sistema de medida passar pelo ponto A, o observador móvel lerá no
relógio A um tempo tA. Refletido num espelho em B, é lido, pelo observa-
dor móvel, o tempo tB. Ao chegar no ponto B o observador móvel lerá di-
retamente o tempo tB e refletido no espelho o tempo tA. Como a velocidade
da luz, c é independente da fonte, pode-se mostrar, pelo cálculo, que os
instantes de medida nos pontos A e B são simultâneos para o observador
imóvel, mas não o serão para o observador em movimento. Isto é, o tempo
decorrerá diferentemente nos dois sistemas.
Tendo em vista esse seu conceito de simultaneidade e o postulado de
invariância da velocidade da luz, Einstein determinou as equações que re-
gem a transformação de coordenadas de um sistema x, y, z, t para outro
x’, y’, z’, t’ animado de um movimento retilíneo e uniforme.
Essas fórmulas deduzidas por Einstein são iguais às da “transformação
de Lorentz”, porém sem admitir a hipótese do encurtamento das distâncias
ao longo do eixo x e admitindo que espaço e tempo são relativos a sistemas
que se movam retilínea e uniformemente em relação um ao outro. Note-
-se que, por essas transformações, diversas eventuais velocidades não se
adicionarão sucessivamente, como ensina a Mecânica Clássica, mas com-
portar-se-ão de maneira tal que sua soma nunca ultrapassará a velocidade
da luz. Assim, constitui-se a velocidade da luz como um limite superior de
velocidades na natureza.
Prosseguindo, em seu artigo Einstein mostra que, aplicando as trans-
formações de Lorentz às equações de Maxwell – as quais regem os fenô-
menos eletromagnéticos –, elas não mudarão de forma. São invariantes às
transformações de Lorentz. Assim, confirma-se o princípio da relatividade
restrita, isto é, que as leis que regem tanto os fenômenos mecânicos quanto
os eletromagnéticos não dependem dos sistemas de referências em movi-
mento uniforme e retilíneos. São as mesmas leis, independentemente de

373
serem definidas em qualquer sistema de referência em repouso ou movi-
mento retilíneo e uniforme.
Em decorrência de seus estudos sobre os fenômenos eletromagnéticos
nos corpos em movimento, Einstein publicou, em 1915, um outro artigo180
que conclui com sua genial descoberta: “Se um corpo perde energia E, em
forma de radiação, a sua massa sofre uma diminuição E/c2 . É claro que
não importa ser ou não ser direta a transformação da energia saída dos
corpos como energia de radiação”.
Com isso, Einstein anteviu o efeito da desintegração da matéria nas
transformações atômicas, segundo sua divulgada fórmula E = mc2; pela
qual se mostra que, de uma pequena massa, pode resultar a geração de
uma enorme quantidade de energia, pois aquela é multiplicada pelo fabu-
losamente grande número que é o quadrado da velocidade da luz. Esse foi,
infelizmente, o resultado mais atual e contundente da Teoria da Relativi-
dade Restrita, pois a relacionou à bomba atômica.
A matéria perdeu assim sua secular conotação de substância última,
mas, em contrapartida, a energia adquiriu um caráter até aqui restrito à ma-
téria: a inércia. Com a transformação da energia em matéria e vice-versa,
tanto o princípio de conservação da matéria como o da conservação da
energia tiveram de ser modificados e unificados em um só: o da conserva-
ção do conjunto energia-matéria como duas formas de uma mesma reali-
dade.
Os conceitos de espaço e tempo da Teoria da Relatividade receberam
uma formulação inteiramente matemática na comunicação de um antigo
professor de Einstein – Hermann Minkowski (1869-1909) –, feita duran-
te um congresso em Colônia, em 1908181. Nessa conferência, Minkowski
propõe abandonar os conceitos de espaço e tempo na Física, substituindo-
-os por um conjunto dos dois. Ele propõe representar graficamente seu
espaço-tempo a partir da representação de um “ponto do universo”, isto é,
um ponto do espaço num determinado tempo, representado por suas coor-
denadas x, y, z, t. A coordenada do tempo t é espacializada, multiplicando-
-se, pela velocidade da luz c, e tornada imaginária multiplicando-se por
i = √-1 . À multiplicidade de todos os valores dessas coordenadas, ele pro-
põe chamar de “Universo”. Uma “linha de universo” seria definida pelas
coordenadas x, y, z, para um determinado tempo ict.
180 EINSTEIN, A. Does the Inertia of a Body depend upon its Energy Content. In: The
Principle of Relativity. Op. cit.
181 MINKOWSKI, H. Space and Time. In: The Principle of Relativity. Op. cit.

374
Minkowski toma como origem do espaço-tempo um ponto arbitrário
do Universo e define o “cone” c2t2 - x2 - y2 - z2 = 0 cujo vértice está na ori-
gem das coordenadas, o ponto O. Esse cone compreende duas partes: a de
t < 0 que é formada pelos pontos do Universo que “enviam luz” para O; a
segunda, de t > 0 é a dos pontos que recebem luz de O. Diz Minkowski:
“Todo o universo se apresenta resolúvel em tais linhas de universo”.
Portanto, a explicação do resultado da experiência de Michelson-Mor-
ley não está em admitir um encurtamento dos corpos materiais na direção
do movimento nem em admitir um tempo local dos corpos móveis como
artifício matemático. Trata-se, na realidade, de uma deformação do pró-
prio espaço-tempo introduzida pelo movimento dos corpos.
Adotando o conceito de espaço-tempo de Minkowiski em sua Teoria
da Relatividade, o que fez Einstein foi geometrizar o Universo sob a con-
dição de que suas propriedades geométricas não são independentes, mas
estão condicionadas ao movimento da matéria e, consequentemente, tam-
bém da energia. A matéria não está num ponto do espaço nem ocorre num
instante do tempo, sua realidade física é a de um evento no espaço-tempo.
No seu livro mais acessível,182 Einstein insiste que as leis da Mecânica
Clássica são invariantes quanto às transformações de Galileu (translação
retilínea e uniforme dos sistemas de referência), mas as do Eletromagne-
tismo só o são em relação às transformações de Lorentz. Nesse aspecto,
a Teoria da Relatividade garantiria o princípio da independência das leis
da natureza em relação aos seus sistemas de referência. Porém, ainda essa
independência estaria restrita ao movimento retilíneo e uniforme. A esse
respeito Einstein diz, na obra citada:
As experiências na Terra nada dizem sobre nós estarmos em movimento (trans-
lação) em relação ao Sol com a velocidade (retilínea e uniforme) de aproxima-
damente 30 km por segundo. Mas, por outro lado, essa equivalência física não
parece ser válida para espaços de referência em movimento arbitrário, pois os
efeitos mecânicos não parecem estar sujeitos às mesmas leis num trem ferroviá-
rio aos solavancos, como o estão num que se movesse com velocidade uniforme,
a rotação da Terra tem de ser considerada quando escrevemos as equações do
movimento em relação à Terra.
Para estender o princípio de relatividade aos movimentos rotativos e
acelerados é que Einstein criou a sua Relatividade Generalizada.
Considerando tudo isso, Einstein propõe que todo conhecimento da
182 EINSTEIN, A. The Meaning of Relativity. Princeton: Princeton Univ. Press, 1945.

375
natureza seja baseado em dois postulados: o primeiro é que a velocidade
da luz é constante e independente do movimento de sua fonte. O segundo
é o que ele chama de “princípio da relatividade”, o qual diz que as leis que
regem as transformações de estado dos sistemas físicos são independen-
tes dos sistemas de coordenadas aos quais esses sistemas são referidos.
A Teoria da Relatividade Restrita restringe esse princípio aos sistemas de
coordenadas que se movem uniforme e retilineamente em relação uns aos
outros. A Teoria Generalizada estende esse princípio a qualquer movimen-
to relativo dos sistemas de referência.
Na Física pré-relativista, os sistemas de referência pressupõem um es-
paço euclidiano absoluto e um tempo absoluto. Na Teoria Restrita, viu-se
que os sistemas de referência pressupõem um espaço-tempo (isto é, um
sistema de referência a quatro dimensões: três espaciais e uma temporal,
sendo as dimensões espaciais as de um espaço-tempo não euclidiano e a
dimensão temporal, considerada como um eixo imaginário normal ao sis-
tema espacial).
Einstein mostra, de uma maneira engenhosa, que, se considerarmos
um sistema de referência girando em torno de um ponto do espaço-tem-
po, para referir as leis da natureza a tal sistema, será necessário conside-
rar o espaço-tempo curvo. Se, por exemplo, considerássemos um sistema
de referência constituído por um plano girando em torno de um eixo
vertical, verificaríamos que as circunferências de maior raio girariam
com velocidades tangenciais maiores que as de pequenos raios. Assim,
de acordo com a Teoria Restrita, haveria um encurtamento dos círculos
maiores em relação aos menores, contudo, seus diâmetros não se en-
curtariam, pois são normais ao movimento giratório. Assim, a relação
entre circunferência e diâmetro não seria mais constante, como requer a
Geometria euclidiana. Trata-se, então, de uma deformação espacial que
só pode ser descrita por Geometrias não euclidianas. Na Geometria de
Riemann, na qual se parte do princípio da não existência de paralelas –
cujo modelo pode ser tido como o de uma superfície esférica –, o valor de
relação circunferência e diâmetro não é constante, portanto, ela é perfei-
tamente admissível no estudo de espaços curvos. Para manter o princípio
de que as leis físicas são independentes dos sistemas de referência, será
eventualmente necessário recorrer a Geometrias que descrevam as pro-
priedades de espaços curvos.
Desta forma, para generalizar esse princípio, Einstein adota, em sua
análise dos fenômenos gravitacionais, um espaço curvo a quatro dimen-
sões, sendo uma delas temporal. Nessa análise, é preciso recorrer à Geo-

376
metria de Riemann, por intermédio do instrumento matemático apropriado
que é o Cálculo Tensorial.
Para relacionar o espaço-tempo curvo com a gravitação, Einstein esta-
belece um outro princípio: o de que um campo de forças gravitacionais é
equivalente a um campo de acelerações. Isto é: se imaginarmos uma região
do espaço em que haja acelerações, isto será equivalente à existência de
um campo gravitacional nessa região. Einstein recorreu a uma “experiên-
cia pensada” para explicar esse seu princípio. Imagine-se uma caixa fecha-
da, com um observador e vários objetos no seu interior. Imagine-se que
essa caixa está sendo tracionada no espaço, longe da atração gravitacional
de qualquer massa, com movimento vertical acelerado, igual à aceleração
gravitacional na terra (9,8 m/s2). O observador terá a impressão de que
tudo se passa como se estivesse numa situação normal sobre a gravidade
da Terra. Um vaso que estivesse seguro nas suas mãos, se largado “cairia”
ao chão da caixa, pois o movimento acelerado, em sentido contrário, faria
o chão da caixa alcançar o vaso. Se, por outro lado, deixasse de haver a
aceleração da caixa, então todas as coisas, inclusive o observador, perde-
riam “peso”. Esse é o mesmo fenômeno que acontece na cabine de uma
astronave, quando a sua aceleração compensa a atração terrestre.
Note-se que, no sistema de referência giratório referido, há uma acelera-
ção centrípeta que, pelo princípio de equivalência, corresponderia a um cam-
po gravitacional. Então, pode-se, desde já, conjeturar que aceleração, campo
gravitacional e curvatura do espaço estão correlacionados. Note-se, ainda,
que a aceleração num espaço-tempo, sendo ela expressa como distância pelo
quadrado do tempo, é uma característica inteiramente espaço-temporal.
A análise dos campos gravitacionais será assim assimilada à análise
da geometria de um espaço-tempo quadridimensional e curvo. Assim, a
Teoria da Relatividade Generalizada não só geometriza o espaço e o tem-
po, mas também, o fenômeno da gravitação universal. Isto é, substitui-se
o estudo dos campos de força gravitacionais pela análise da curvatura do
espaço-tempo.
Ora bem, todo espaço é caracterizado por um invariante que é a distân-
cia entre dois de seus pontos tão próximos quanto se queira. Na Geometria
euclidiana o quadrado dessa distância é igual à soma dos quadrados das di-
ferenças entre suas coordenadas cartesianas. Mas, se o espaço não é eucli-
diano, mas multidimensional, curvo, o produto das diferenças entre coor-
denadas deve ser multiplicado por coeficientes gµν – que são componentes
de um tensor de segunda ordem –, os quais caracterizarão o espaço-tempo
em análise.

377
Portanto, para chegar a conhecer a lei que governa o movimento dos
corpos num espaço-tempo, é necessário desenvolver a Análise Matemática
a partir dos coeficientes gµν desse espaço-tempo. Como esses coeficientes
são os componentes de um tensor, foi necessário recorrer ao Cálculo Ten-
sorial, o qual, na época, estava sendo elaborado pelos matemáticos italia-
nos Levi-Civita e Ricci-Curbastro.
Einstein, no seu livro citado, indica o caminho a seguir, nessa análise,
para chegar a exprimir sua lei do campo gravitacional. Apenas como ilus-
tração, tal lei é expressa pela seguinte equação tensorial.
Rµν - -12 gµν R = -K Tµν
Onde Rµν é uma contração do tensor de Riemann, o qual indica a cur-
vatura em torno de pontos de espaço-tempo. Ele é função dos coeficientes
gµν e anula-se quando esses são constantes, como é o caso do espaço eu-
clidiano, referido a coordenadas cartesianas. R é um escalar que se anula
quando Rµν é nulo, e Tµν é um tensor que inclui, em si, a densidade da ma-
téria ponderável e também a do campo eletromagnético presentes. Einstein
chama esse tensor de “tensor de energia da matéria”. K é uma constante
relacionada com a constante gravitacional de Newton. Consequentemente,
a presença de matéria ou campo eletromagnéticos modifica a curvatura do
espaço-tempo.
Einstein insiste que a primeira coisa a fazer, para verificar se sua equa-
ção concorda com a experiência, é verificar se ela leva à teoria newtoniana
como primeira aproximação. Isto é, mostrar que ela explica mais aproxi-
madamente, os fatos que a teoria de Newton explica, em primeira aproxi-
mação. Demonstra em seu livro que isso realmente acontece.
Além disso, é preciso mostrar que a Teoria Generalizada concorda com
a experiência, também nos pontos em que ela explica fatos não explica-
dos pela teoria de Newton. Por exemplo, uma consequência da teoria ge-
neralizada é que o tempo decorre tão mais lentamente quanto maior é a
quantidade de matéria presente. Ora, uma medida do tempo é a frequência
das raias espectrais emitidas por um corpo em combustão. Assim, as raias
espectrais produzidas na superfície do Sol deverão ser de frequências me-
nores (estarão deslocadas para o vermelho) do que as produzidas na Terra.
Como esse deslocamento é muito pequeno, foi difícil verificar, no passado,
esse efeito. Porém, hoje, com possibilidades de medidas de maior preci-
são, ele está perfeitamente confirmado.
Outra consequência da teoria, ainda nem mesmo previsto pela Física
clássica, é a do desvio dos raios de luz quando passam próximo de gran-

378
des massas, como a do Sol. Admitindo-se que a luz percorre a geodésica
(menor caminho entre dois pontos) do espaço-tempo e que, próximo das
grandes massas, essas geodésicas serão curvas, decorre que a luz de uma
estrela que passa junto ao Sol se encurvará, desviando-se do seu caminho
reto. Um tal desvio pode ser calculado pela teoria de Einstein e a experiên-
cia para confirmar o cálculo foi feita pela primeira vez em Sobral, Ceará,
em 1919. Seu resultado confirmou a teoria.
Uma terceira confirmação da Teoria Generalizada da Relatividade é a
que o periélio do planeta Mercúrio avança no sentido da translação do pla-
neta, 43 segundos de arco por século, além do efeito dos outros planetas do
sistema solar sobre sua órbita. O que nunca pôde ser explicado pela teoria
newtoniana.
A órbita de um planeta, da mesma forma que a trajetória de um raio de
luz, deverá seguir as geodésicas do espaço-tempo, portanto, seria necessá-
rio conhecer a equação dessas geodésicas. É possível deduzir essa equa-
ção pelo cálculo das variações, procurando-se a menor distância entre dois
pontos quaisquer de um espaço-tempo. Esse cálculo leva a uma equação
tensorial que contém os coeficientes g e suas derivadas. Quando aplicada
ao planeta Mercúrio essa equação mostra que sua trajetória não é uma
elipse perfeita, mas uma espécie de espiral elíptica cujo periélio avança de
exatamente 43” por século.
Logo após a publicação da Teoria Generalizada, Karl Schwarzschild
(1873-1916) ofereceu uma solução da equação do campo gravitacional de
Einstein aplicada ao caso de uma massa central num espaço vazio (como é
o caso do sistema solar, se considerar desprezível a massa dos planetas). Se
o espaço, fora da esfera solar, é considerado vazio, nele o tensor energia da
matéria anula-se. Assim, a equação reduz-se à forma aparentemente sim-
ples Rµν = 0. O trabalho de Schwarzschild foi de, primeiramente procurar
valores dos coeficientes gµν , para coordenadas polares que satisfizessem a
equação anterior.
Note-se que essa equação reduz-se a uma linha reta, quando os gµν são
constantes e referidos a um sistema inercial. Portanto, a clássica lei da
inércia (os corpos abandonados a si mesmos num espaço euclidiano per-
correrão trajetórias retilíneas) generaliza-se para espaços-tempos quais-
quer, afirmando-se que, nesse último caso, os corpos em movimento livre
percorrerão as geodésicas do espaço-tempo.
Com a Teoria da Relatividade, revelou-se a existência de um contínuo
espaço-temporal geometrizável, do qual as geodésicas eram as trajetórias

379
dos corpos siderais e das irradiações. Esse contínuo, quando longe da ma-
téria, seria euclidiano e galileano (tempo e espaço absolutos e movimento
livre inercial retilíneo e uniforme). Porém, a presença da matéria encur-
varia o espaço em torno de si e faria o tempo decorrer mais lentamente.
No universo, assim concebido, não haveria nenhum sistema de referência
privilegiado. As leis da Física manter-se-iam as mesmas e independentes
dos sistemas de referência, qualquer que fosse sua localização ou movi-
mento, apesar das coordenadas físicas e geométricas dos fenômenos serem
diferentes para cada sistema de referência.
Já na primeira edição de seu the meaning of relativity, publicada em
1922, Einstein propõe que:
Se quisermos ignorar as maiores e menores densidades de matéria e do cam-
po, para aprendermos algo das propriedades geométricas do universo como um
todo, parece natural substituir a distribuição real das massas por uma distribui-
ção uniforme da densidade.
Nesse universo imaginado, todos os pontos das direções espaciais se-
rão geometricamente equivalentes em relação à sua extensão espacial, ele
terá uma curvatura constante e será cilíndrico em relação à sua coordenada
temporal.
Einstein termina essa primeira edição desse seu livro com a conjetu-
ra de que o universo é espacialmente limitado, numa esfera ou elipsoide
cujas três dimensões estão associadas a uma quarta dimensão temporal,
considerando-se a matéria uniformemente distribuída em todo o espaço.
Um universo infinito, diz ele, só seria possível se a matéria se anulasse.
Dessa forma, a Teoria da Relatividade matematiza o estudo do uni-
verso sob a forma da atual Cosmogonia, o que não pode ser feito sem o
auxílio da alta Matemática, sempre em base à sua equação tensorial do
campo de gravitação. A primeira solução particular dessa equação foi a de
Schwarzschild, porém, entre 1922 e 1924, o astrônomo russo Alexander
Friedman (1888-1925) elaborou uma solução dessa equação que abrangia
a totalidade do universo. Admitia que a densidade média de matéria seria
uniforme e constante e chegou a um modelo de universo que se expandiria,
como se fosse uma bolha de gás, cujas moléculas seriam as galáxias. Foi o
primeiro modelo do universo em expansão.
À segunda edição do seu livro, em 1945, Einstein acrescentou um apên-
dice no qual ele discute a solução de Friedman. Einstein tinha feito uma
tentativa de acrescentar, à sua equação, mais um termo que ele chamou de
“termo cosmológico” para assegurar que o universo, em termos espaciais,

380
seria isotrópico e estável. Friedman mostrava ser possível a distribuição de
matéria uniforme, sem necessidade de introduzir mais um termo na equa-
ção de campo gravitacional, desde que se admitisse que as distâncias entre
dois pontos materiais do espaço expandissem-se com o tempo.
Essa conjetura teve uma espetacular confirmação quando o astrônomo
norte-americano Edwin Powell Hubble (1889-1953), em 1929, anunciou
que as galáxias aparentemente recediam da Via Láctea com velocidades
proporcionais às suas distâncias. Assim, o sistema estelar estaria em ex-
pansão (como mostrava o deslocamento para o vermelho das raias espec-
trais das estrelas, tanto maiores quanto mais distantes estivessem elas).
Confirmando essa observação, Einstein calculou a relação entre o coe-
ficiente de expansão de Hubble e a densidade média de matéria no univer-
so, encontrando um número semelhante ao que se pode estimar empirica-
mente. Porém, por outro lado, calculando, a partir da expansão observada,
qual seria o tempo até o início da expansão? Einstein encontrou um núme-
ro (109 anos) que considerou pequeno para explicar a formação das estre-
las. E, também, o fato de que esse tempo não excede de muito a idade dos
minerais na crosta terrestre, o torna suspeito.
Com as técnicas de computação eletrônica aliadas às de simulação
matemática, a matematização do universo cósmico instaurada pela Teo-
ria da Relatividade estabeleceu-se definitivamente. Tal geometrização do
espaço-tempo permite abordar a análise e o cálculo matemático dos fenô-
menos siderais desde o Big bang inicial (analisado em cada minuto de sua
duração) até os “buracos negros”, pulsares e quasares.
Apesar de os astrônomos insistirem no primado da observação desses
fenômenos sobre as análises matemáticas, é certo que as atuais observa-
ções astronômicas não podem ser interpretadas e compreendidas senão em
base a teorias matemáticas. Assim, torna-se difícil distinguir entre a pró-
pria realidade em si, dos entes astronômicos e sua representação matemáti-
ca. A partir do momento em que se fala de um espaço-tempo quadridimen-
sional curvo, impossível de ser intuído sensorialmente, seu conhecimento
só pode se dar pela via ideal das equações matemáticas. Ora, isso chega
muito próximo da afirmação platônico-pitagórica que a realidade é a pró-
pria ideia matemática. Contudo, não se pode cair em tal idealismo, pois a
realidade dos entes cosmológicos, vistos através dos telescópios e medidos
pelos diversos instrumentos de observação astronômica, impõe-se cienti-
ficamente como necessariamente anterior à consciência humana. Não se
trata, portanto de idealismo, mas também não pode haver uma tomada
de posição realista quando se visualiza o processo de matematização do

381
espaço-tempo e da matéria que o deforma, pois não é possível distinguir
o espaço-tempo, deformado pela matéria, da sua idealização matemática.

e) Matematização da estrutura da matéria


O atomismo, isto é, a concepção da matéria como constituída por par-
tículas indivisíveis, que a Química assimilava aos átomos dos elementos
químicos, obteve apoio da maioria dos cientistas da segunda metade do
século XIX, não só a partir de Dalton e seus seguidores (vide item c do
Capítulo X), como também, por evidências físicas, na teoria da eletrólise e
na cinética dos gases (vide item i do Capítulo IX).
Contudo, para a mentalidade positivista que dominou grande parte
do pensamento científico da época, o atomismo era contestado por dois
motivos. O primeiro, era que a existência dos átomos não podia ser tida
como “fato positivo”, pois eles não eram percebidos pelos sentidos. O
segundo, era que, ao se introduzir partículas discretas, o fluxo dos fenô-
menos não podia mais ser abrangido pela Análise Matemática que exigia
a sua continuidade. O grande químico do século, Wilhelm Ostwald, po-
sitivista, explicava, por exemplo, os princípios da Química a partir da lei
das proporções simples e múltiplas sem referir-se, de forma alguma, aos
átomos – os quais considerava como meras expressões artificiais, sem
sentido físico.
No estudo do calor, por exemplo, que era o tópico que mais seduzia a
atenção dos físicos da época, havia duas posições. A primeira, era a dos
positivistas que partiam da Análise Matemática de Fourier. Essa, partindo
de uma lei experimental, armava a equação diferencial da transmissão do
calor, na qual não comparecia qualquer ideia de corpúsculo, mas somente
de um fluxo contínuo no interior de matéria compacta. A segunda posição
era a dos atomistas, como Boltzmann que, com sua Mecânica Estatística
(vide item i do Capítulo IX), aplicava o Cálculo de Probabilidades para
analisar o fluxo de uma multidão de partículas, movendo-se no vácuo e
chocando-se entre si, na transmissão do calor. Boltzmann aceitava que
as leis físicas deviam ser expressas por equações diferenciais, porém, ar-
gumentava que essas, para serem construídas, tinham que, inicialmente,
recorrer a “elementos” diferenciais. Assim, o atomismo seria inevitável,
mesmo na análise não probabilística.
Inerente à primeira posição, estava a crença no determinismo dos fenô-
menos físicos, de acordo com o princípio da causalidade (todo efeito tem
uma causa) e a ordenação inflexível das equações diferenciais. Por outro
lado, a segunda posição implicava a crença que o acaso, de uma forma

382
ou de outra, intervinha nos fenômenos físicos pela probabilidade de suas
ocorrências, regida pelas estatísticas.
Quando Planck (vide item k do Capítulo IX) descobriu, em 1900, que a
distribuição espectral da energia radiante de um “corpo negro”, em função
de seus comprimentos de onda, não poderia ser calculada a partir de fluxos
contínuos, mas que seria necessário admitir que a energia compunha-se de
partículas discretas – os quanta –, então o atomismo veio a dominar. Isto é,
considerando-se o “corpo negro” como composto de um grande número de
“microemissores”, concluiu-se que os mesmos não irradiavam quantida-
des quaisquer de energia, mas somente quantidades inteiras de quanta de
energia. Ficou assim patente que, pelo menos na grande área das energias,
havia necessidade de considerar-se a realidade física como constituída por
partículas.
Nessa época, a noção de átomos de matéria já se firmara de tal manei-
ra que suas dimensões já tinham sido calculadas. Pela lei de Avogadro já
se sabia que uma molécula-grama (número de gramas correspondente ao
peso molecular) de hidrogênio e, consequentemente de qualquer outro gás,
continha 6,02 x 1023 moléculas – número que é chamado “número de Avo-
gadro”. Daí ser possível calcular a massa de uma molécula de hidrogênio
e, portanto, de qualquer outra molécula, pois, se cada dois gramas (ou cada
molécula-grama) de hidrogênio, continha o número de Avogadro de molé-
culas, a massa de cada molécula seria de 3,3 x 10-24 g e a do átomo seria a
metade. Da mesma forma, poder-se-ia calcular a massa das moléculas de
outras substâncias. A do oxigênio pesaria 16 vezes mais, a do cloro 35,5
vezes e assim por diante. Por outro lado, pela teoria cinética dos gases e
pela lei de Avogadro, o raio de um átomo, suposto esférico, deveria ser
admitido na ordem de grandeza de 10-8 cm.
Também foi possível dimensionar a carga elétrica elementar dos íons
de hidrogênio e, consequentemente, dos íons de qualquer outra substância.
Pois, a partir das investigações de Faraday (vide item j, Capítulo IX), sobre
eletrólise, sabia-se que os pesos equivalentes dos elementos separados eram
proporcionais às quantidades totais de eletricidade gasta no processo, o que
quer dizer que todo átomo que chega ao eletrodo carrega a mesma quantidade
de eletricidade. Daí ter sido possível calcular a carga elétrica de cada íon de
hidrogênio e, consequentemente, de cada íon de qualquer outra substância.
Esse cálculo levou à carga elétrica elementar de l,58 x 10-19 coulombs – que é
o quantum de eletricidade que acompanha cada íon de hidrogênio.
O físico inglês, sir William Crookes (1832-1919), descobriu, em 1879,
que num tubo de vidro contendo um gás sob pressão muito pequena, e

383
em cujo interior há um filamento incandescente e uma placa carregada
positivamente, estabelece-se uma descarga elétrica entre o filamento e a
placa. Essa descarga, tornada visível pela fluorescência do gás rarefeito no
interior do tubo, foi denominada“raios catódicos”. Se, na placa for feito
um pequeno orifício e, por trás dela, colocar-se uma chapa sensível, os
raios catódicos, passando pelo orifício, vão marcar na chapa uma mancha.
Ora bem, se, paralelamente à trajetória dos raios, colocarem-se placas car-
regadas eletricamente, os raios catódicos desviar-se-ão no sentido normal
à sua trajetória. Esse desvio será visto pelo deslocamento da mancha na
chapa sensível. Dessa experiência concluiu-se que os “raios catódicos” são
constituídos por um fluxo de eletricidade negativa.
Em 1897, J. J. Thomson (1856-1940), no Laboratório Cavendish da
Universidade de Cambridge, medindo o desvio dos raios catódicos, produ-
zidos pelas placas eletrizadas, colocadas paralelamente à sua trajetória e,
depois, aplicando um campo magnético por meio de um ímã, e verificando
que, então, os raios catódicos desviavam-se horizontalmente, conseguiu
calcular a relação entre carga elétrica e massa de supostas partículas desses
raios. Essa relação é 1,77 x 10+8 coulombs/grama. Esse número é 1.900
vezes maior que o obtido na eletrólise, portanto, a massa das partículas dos
raios catódicos será 1.900 vezes menor que a massa do átomo de hidrogê-
nio, desde que a carga elétrica carregada por ambos seja a mesma. Como
esse valor é independente do gás rarefeito do interior do tubo, foi necessá-
rio admitir que os raios catódicos sejam constituídos por cargas elétricas
elementares livres: os “elétrons”183.
Em 1895, Wilhelm Roentgen descobriu, por acaso, que quando raios ca-
tódicos incidem sobre um anteparo sólido, eles emitem raios capazes de atra-
vessar corpos compactos e impressionarem chapas fotográficas colocadas por
trás deles. Chamaram-se esses raios de “raios-X”. Estes, aparentemente eram
semelhantes à luz, porém não se conseguiu observar neles fenômenos de re-
flexão, refração e interferência. Somente em 1912, Max von Laue conseguiu
difratá-los em cristais, cuja estrutura reticulada poderia difratar as ondas de
comprimento muito pequeno. Assim, constatou-se que os raios-X eram on-
das hertzianas cujos comprimentos eram de 5.10-12 a 5.10-9/cm.
Porém, foi Antoine Henri Becquerel (1852-1908) quem primeiro no-
tou que sais de urânio emitiam radiações espontâneas, com capacidade de
ionizar o ar. Esse fenômeno foi chamado de radioatividade. Mais tarde,
Pierre e Marie Curie verificaram que a radiação era proporcional ao teor
de urânio na substância radioativa, qualquer que fosse o seu estado físico
183 THOMSON, J. J. The Discovery of the Electron. In: The Origin and Growth of Phy-
sical Science. Nova York: Penguin Books, 1958.

384
ou combinação química. Notaram, ainda, que certas rochas apresentavam
propriedades radioativas mais intensas que as do urânio. Assim, em 1898,
depois de anos de trabalho árduo, conseguiram isolar elementos mais ra-
dioativos que o urânio. Primeiro o polônio e depois o rádio184.
Submetendo-se a radiação dos corpos radioativos à ação de campos elé-
tricos e magnéticos, observa-se que eles desviam-se, mas não somente para
um lado, como os raios catódicos, agora se separam em três radiações dis-
tintas: a primeira desvia-se exatamente como os raios catódicos, são, portan-
to, elétrons projetados a velocidades incrivelmente altas e foram chamados
raios β; a segunda, desvia-se em direção oposta aos raios β e, portanto, de-
vem ser constituídos por partículas carregadas positivamente, sendo chama-
dos raios α; a terceira é insensível tanto à ação dos campos elétricos quanto
dos magnéticos, portanto, serão vibrações eletromagnéticas de frequência
elevadíssima, semelhantes às dos raios-X e foram chamadas de raios γ. Pe-
los desvios dos raios α e β pode-se medir a relação entre as cargas elétricas e
as massas de suas partículas. Notou-se que tal relação, para o caso dos raios
α, é a metade da dos íons de hidrogênio. A interpretação que se deu foi que,
para uma carga elétrica 2, a massa de tais partículas seria 4, em relação ao
átomo do hidrogênio, portanto, os raios α seriam átomos de hélio.
Com efeito, William Ramsay (1852-1916) armou uma experiência em
1904, em que ele colocava, dentro de um tubo de vidro, uma pequena
quantidade de rádio. Dentro de poucos dias, a espectrografia mostrava a
presença de hélio dentro do tubo – a qual ia-se reforçando no correr do
tempo. Portanto, as partículas α eram realmente átomos de hélio cons-
tituídos por peso atômico 4 e carga elétrica 2. Foi a primeira vez que se
constatou a formação espontânea de um elemento, o hélio, a partir de outro
mais pesado: o rádio. O átomo não se constituía, portanto, como a menor
divisão possível da matéria.
Nessa época, já C. T. R. Wilson tinha inventado sua célebre câmara
de neblina, na qual as trajetórias das partículas tornavam-se visíveis. Os
corpúsculos ionizavam um grande número de átomos de vapor d’água no
interior da câmara, formando, em seu trajeto, linhas de gotículas d’água.
Submetendo-se essas trajetórias à ação de campos elétricos ou magnéticos
elas desviaram-se de acordo com a teoria. Assim, encontrou-se prova de
que as partículas α e β eram entes materiais.
J. J. Thomson conjeturou então que os átomos seriam constituídos por
uma massa compacta de núcleos de hidrogênio – que vieram a tomar o
184 CURIE, Pierre; CURIE, Marie. Polonium and Radium are discovered. In: The Ori-
gin and Growth of Physical Science. Nova York: Penguin Books, 1958.

385
nome de prótons – na qual estavam agregados os elétrons, como as passas
num pudim.
Porém, essa conjetura foi totalmente refutada pela experiência de Er-
nest Rutherford (1871-1937) – que consistiu em interpor, entre uma amos-
tra de rádio e uma chapa sensível, uma delgada folha de ouro. A maioria
dos raios atravessava facilmente a folha, como se nada ali houvesse. Con-
cluiu-se, então, que os átomos da folha de ouro não eram compactos, pelo
contrário, o espaço vazio entre eles, ou dentro deles, era muito grande.
Porém, um pequeno número de partículas ricocheteava em algo sólido. As
partículas α, carregadas positivamente, ao se aproximarem desse núcleo
sólido, desviaram-se como se ele também fosse carregado positivamen-
te185.
Em 1919, Rutherford fez atingir núcleos do nitrogênio do ar por par-
tículas α, emitidas de uma amostra de rádio, resultando disso a quebra do
núcleo de nitrogênio em um núcleo de oxigênio 17 e um próton. Foi assim
realizada, pela primeira vez, uma transmutação de elementos.
Daí, o modelo atômico de Rutherford, pelo qual o átomo seria cons-
tituído por um núcleo, de diâmetro extremamente pequeno, mas no qual
toda a massa do átomo fosse concentrada, e elétrons, girando em torno
desse núcleo, com grande espaço vazio entre eles. Tal qual um pequenís-
simo sistema solar.
Por medidas obtidas nas experiências anteriormente mencionadas, se
o núcleo de um átomo de hidrogênio for representado por uma bola de 10
cm de diâmetro, o elétron orbitaria num círculo, em torno do núcleo, com
alguns quilômetros de diâmetro. Daí pode-se imaginar como é vazio o
átomo de matéria, apesar de entendermos a matéria como algo consistente.
O modelo de Rutherford destruiu, assim, a concepção do átomo como
algo de impenetrável, ocupando completamente um dado volume. Aliás,
na câmara de Wilson, é possível ver-se as partículas atravessarem livre-
mente os átomos de uma folha sólida. Entretanto, um tal modelo encerra
algo de incompreensível. A Física Clássica ensina que, no Sistema Solar,
os astros girando em torno do Sol não perdem energia. O sistema é está-
vel, isto é, em termos matemáticos: admite potencial. Porém, num sistema
eletrodinâmico, como é o caso dos átomos de Rutherford, o elétron, que é
uma carga elétrica, girando em torno de outra carga elétrica, emitiria ener-
gia em cada volta, perdendo-a. Portanto, o modelo atômico de Rutherford
não seria estável e, assim, inaceitável.
185 CASTELFRANCHI, G. Física Moderna. Milão: Hoephi, 1934.

386
Note-se que a elaboração dessa estrutura atômica decorre de uma série
de conjeturas apoiadas em observações experimentais e medidas indiretas,
todas elas pressupondo teorias anteriormente estabelecidas que se encai-
xam como num jogo de quebra-cabeça. A investigação da natureza, nes-
sa escala microfísica dos átomos, está longe da evidência da observação
direta, a qual dominou a Física anterior. O ideal positivista de uma Física
desenvolvida matematicamente, porém a partir de observações sensíveis,
mostra-se agora inadequado. Agora, os entes são observados experimen-
talmente, mas não pelos órgãos dos sentidos, porém por seus efeitos inter-
pretados à luz da teoria. São ideias, formas, números ou expressões pen-
sadas em função de modelos, embora esses modelos devam adequar-se às
medidas indiretas de suas propriedades. Ora, as expressões matemáticas,
com suas figuras e números, constituem-se como modelos excelentes para
tal propósito.
Havia então que encontrar um modelo do átomo que, satisfazendo as
observações anteriores, pelas quais foram determinadas suas dimensões
e formas, ainda resolvesse a incongruência da estabilidade do modelo de
Rutherford. Isso foi tentado por Niels Bohr (1885-1962), em 1913, postu-
lando um modelo em que os elétrons só poderiam girar em órbitas determi-
nadas e que só emitiriam ou absorveriam energia ao saltar de uma dessas
órbitas para outra.
Nessa época, vários pesquisadores, entre eles Balmer e Rydberg já ti-
nham observado empiricamente que as raias dos espectros de emissão de
vários elementos, mostravam regularidades que permitiam identificar a
presença de um elemento determinado. Assim, por exemplo, Balmer mos-
trou que as frequências correspondentes às raias do espectro do hidrogênio
formam uma série obediente à expressão:

(
1 1
)
f = R -22- n-2
onde R é uma constante e n, a série dos números inteiros.

Bohr, de início, calculou qual seria a energia total W (cinética mais po-
tencial) para manter um elétron girando estacionariamente em torno do nú-
cleo, numa órbita circular de raio r. Pela descoberta de Planck, essa energia
deveria ser múltipla de um quantum de energia. Ela seria, evidentemente, a
necessária para remover o elétron dessa órbita e levá-lo para muito distante
do núcleo. Concluiu-se que essa energia é inversamente proporcional ao
quadrado de um número inteiro n, correspondente ao número de ordem das
órbitas (n = 1 para a órbita mais próxima do núcleo e sucessivamente 2, 3...
para as mais afastadas).

387
Pois bem, a energia emitida ou absorvida quando o elétron pula de uma
órbita para a outra seria então dada pela diferença entre as energias das
duas órbitas. Como essa diferença é igual a um quantum que, como já foi
visto, é igual à constante de Planck h, vezes a frequência da energia emiti-
da ou absorvida, ter-se-á que a frequência da energia emitida ou absorvida
pelo salto do elétron de uma órbita para a outra186 será semelhante à de
Balmer para as raias do espectro do hidrogênio.
Portanto, o modelo matemático do átomo de hidrogênio imaginado por
Bohr concorda com a observação sensível das raias do espectro do hidro-
gênio observadas por Balmer.
A conclusão é que o modelo de Bohr, explicando a regularidade dos
espectros de emissão do hidrogênio, pode ser aceito como adequado para
a estrutura atômica do hidrogênio. Esse modelo foi, posteriormente, verifi-
cado como adequado também para outros elementos em relação às respec-
tivas séries de raias espectrais.
Entretanto, verificou-se que as linhas espectrais dividiam-se em várias,
formando uma espécie de conjuntos de linhas justapostas. Para explicar
esse fenômeno, recorreu-se à ideia de que, não só os diâmetros das órbitas
determinavam os níveis de energia dos elétrons, mas também suas formas
(que seriam elíticas). Além disso, havia um momento angular da rotação
dos elétrons em torno do núcleo e a projeção deste sobre o eixo do átomo
poderia ser diferente para cada estado energético do elétron. Ademais esse
estudo energético do elétron dependia ainda da sua rotação em torno de
seu eixo ser para a direita ou para a esquerda. Assim, o nível energético de
cada elétron dependia de quatro números quânticos: um correspondente ao
raio médio de sua órbita; outro correspondente à forma elíptica da sua ór-
bita; o terceiro, ao momento angular; e o quarto correspondente à rotação
(spin) do elétron. Esses quatro números quânticos é que vão determinar a
posição dos elétrons em suas órbitas em torno do núcleo.
Lembrando-se do princípio de exclusão de Wolfgang Pauli que diz que
não é possível encontrar-se mais de um elétron no mesmo estado energé-
tico, em cada órbita, Bohr tentou configurar a estrutura dos átomos em
relação aos números quânticos.
Ordenando a tabela de Mendeleiev na ordem nos números Z de elétrons
(números atômicos), os elementos agrupar-se-iam, segundo suas estruturas
atômicas e, simultaneamente, conforme suas propriedades químicas. Por-
tanto, a grande conclusão que se tira dessa teoria das estruturas atômicas, é
186 BOHR, Niels. On the Constitution of Atoms and Molecules. Breakthroughs in Che-
mistry. Op. cit.

388
que as propriedades químicas – e consequentemente todas as propriedades
relacionadas com sua natureza química – serão determinadas pelas estru-
turas atômicas que decorrem dos valores dos números quânticos. Isto é: as
propriedades da matéria seriam determináveis numericamente. Isto servi-
ria de base para admitir-se que a própria matéria pode vir a ser entendida
sob forma puramente matemática.
Mas, as dificuldades para adaptar esse modelo a elementos de muitos
elétrons foram-se agravando. Daí a necessidade de investigar novos mo-
delos atômicos, o que levará à Mecânica Ondulatória e à concepção da
natureza ondulatória das partículas elementares.
Já em 1905, Albert Einstein tinha estudado em detalhe o fenômeno,
antes conhecido, de que muitos metais e alguns gases emitiam elétrons
quando golpeados por luz, raios-X ou ultravioleta. É o fenômeno fotoe-
létrico – princípio das conhecidas células fotoelétricas utilizadas, hoje,
entre outras finalidades, para abrir portas automaticamente. Einstein mos-
trou que a energia cinética com que os elétrons abandonam o metal, mais
uma parcela de energia necessária para liberá-los, era igual à frequência
da luz excitante, multiplicada pela constante de Planck h. Ora, isso mos-
tra que a energia transferida da luz para o elétron está concentrada em
quanta e independe da distância à fonte luminosa. Einstein admitiu, então,
que a energia transportada pela onda luminosa concentra-se, no espaço e
no tempo, em corpúsculos que ele chamou de “fótons” – partículas cuja
energia é igual a fh. Isso trouxe de volta a teoria newtoniana da luz como
emissão corpuscular. Contudo, não se pode negar que nos fenômenos de
interferência e difração, a luz atua como onda vibratória. Surgiu, portanto,
na Física, a ideia de que as radiações tanto podem aparecer como emissão
de partículas quanto como propagação ondulatória. A luz apresentar-se-
-ia, em certos fenômenos, como emissão de “fótons” e, em outros, como
movimento ondulatório.
Note-se que o fenômeno fotoelétrico é o inverso do da emissão de
raios-X, quando um feixe de partículas (elétrons) incide sobre uma placa
de metal. É um corpúsculo carregado de energia elétrica negativa que faz
surgir movimento ondulatório de altíssima frequência. Isto faz pensar que
poderia também o corpúsculo elétron, eventualmente, atuar como onda.
A confirmação da complementaridade entre partículas e ondas teve
início no ano de 1923, quando um jovem físico norte-americano, Arthur
Compton, e um suíço, Peter Debye, observaram, simultânea porém inde-
pendentemente, que quando um feixe de raios-X choca-se com um corpo,
a frequência do raio que o atravessa permanece inalterada na sua própria

389
direção, mas difunde-se em outras direções com frequências menores, se-
gundo seus ângulos de desvio. Isto pode ser entendido, imaginando que
fótons de raios-X, quando se chocam com elétrons do corpo atravessado,
comunicam aos elétrons movimentos de ricochete numa dada direção, en-
quanto seguem na outra com menor energia, em outras palavras: surgem
novos fótons de menores frequências que prosseguem em outras direções.
Dá-se, assim, algo muito semelhante ao que acontece com o choque das
bolas de bilhar. A Análise Matemática desse choque de fóton com elétron,
levando em conta os princípios da conservação da energia e da quantida-
de de movimento, indica que os fótons comportam-se como partículas de
energia E = fh e velocidade igual à da luz c. A diferença de comprimento
de onda do novo fóton, que prossegue com a velocidade da luz e direção
fazendo um ângulo com a direção do fóton incidente, é dada pela equação
deduzida por Compton187. O elétron ricocheteado prossegue na direção
complementar adquirindo um acréscimo de quantidade de movimento. A
fundamental conclusão do efeito Compton é que os fótons de ondas eletro-
magnéticas comportam-se como partículas.
Em contrapartida, em 1924, Maurice de Broglie armou uma engenhosa
experiência pela qual fotografou as trajetórias circulares de elétrons inciden-
tes sobre uma chapa sensível, sob a ação de um campo magnético. Sabe-se
que um metal golpeado por raios-X emite radiações secundárias constituídas
por elétrons. Esses elétrons, sob ação do campo magnético, descrevem cír-
culos de raios diferentes, de acordo com suas diferentes energias. Portanto,
distribuem-se num espectro semelhante ao das vibrações ondulatórias188. A
distribuição espectrográfica era diferente para cada metal da chapa golpeada
pelos raios-X – algo muito semelhante ao espectro de difração que se obtém
quando se faz incidir raios-X sobre um cristal. Daí a suposição de Maurice de
Broglie de que os elétrons também pudessem comportar-se como ondas de
frequências correspondentes às suas velocidades.
Na mesma época, um irmão de Maurice, Louis-Victor de Broglie, de-
fendeu tese de doutorado na Faculdade de Ciências de Paris, apresentando
a conjetura que qualquer partícula de matéria aparece também como onda
de frequência igual a sua quantidade de movimento dividida pela cons-
tante de Planck. Portanto, seria possível observar-se difração de emissões
de partículas materiais, por exemplo, os elétrons. Com efeito, três anos
depois, Clinton Joseph Davisson, Lester Germer e, independentemente,
George Paget Thomson observaram difração em raios de elétrons. Portan-
to, essas partículas materiais apareciam também como ondas (185).
187 CASTELFRANCHI, G. op. cit.(185)
188 CASTELFRANCHI, G. op. cit. (185)

390
Daí a complementaridade dos fenômenos quânticos: como corpúsculos
e como ondas. Isto é, alguns desses fenômenos são explicados por uma das
duas versões, permanecendo incompreensíveis pela outra. É notório que,
nas ondas eletromagnéticas (luz, raios-X, raios γ), f é a frequência em que
o campo eletromagnético atinge seu valor máximo. Mas que significado
físico terá f, quando comparece no quantum de energia hf do elétron? Se
afirmar-se que, nessa expressão, f é um mero número, uma série de fe-
nômenos luminosos tornar-se-ão incompreensíveis. Se insistir-se no seu
significado físico de frequência vibratória, será difícil compreender o que
vem a ser frequência de um corpo material, em movimento retilíneo. Isto
faz admitir tanto as partículas como ondas (definidas por sua capacidade
de refletirem-se, refratarem-se e difratarem-se) quanto as ondas como par-
tículas (definidas como possuidoras de quantidade de movimento), o que
parece ferir o princípio lógico da identidade. Tudo isso leva a considerar
o conceito de onda, na Mecânica Ondulatória, como símbolo, no sentido
mais amplo dessa palavra. Isto é, o conceito de onda não só expressa, mas
também substitui uma realidade inabarcável pelos sentidos. Assim, pode-se
pensar que as entidades quânticas não são nem partículas nem ondas, mas
só serão umas ou outras depois de expressas matematicamente.
Contudo, os físicos não conseguiram explicar a totalidade dos fenô-
menos atômicos, com o modelo de Bohr – o qual foi desenvolvido mais
no sentido de permitir cálculos matemáticos, do que atingir consistência
lógica. O sucesso da explicação dos fenômenos atômicos, moleculares,
químicos e, consequentemente, da Física dos sólidos, fora conseguida em
1923, quando Bohr introduziu o princípio da correspondência. Por esse
princípio, impunha-se que qualquer nova teoria tinha que concordar com
as da Física clássica nas situações limites em que aquela tinha levado a
resultados corretos. Em outras palavras, as teorias clássicas deviam servir
de guias para a formulação das novas teorias quânticas. Mesmo assim, as
dificuldades das aplicações do modelo de Bohr continuaram.
Para resolver as dificuldades das primeiras concepções quânticas foi
necessário que se abandonasse de vez toda a recorrência a modelos físicos
e se adotasse definitivamente modelos matemáticos. Desenvolveu-se en-
tão uma nova Mecânica Quântica por parte de Erwin Schrödinger (1887-
1961), seguindo os passos dos irmãos de Broglie, e por parte de Werner
Heisenberg (1901-1976) seguido por Max Born, Pascual Jordan e Paul
Dirac.
Em 1925, Schrödinger decidiu abandonar a ideia do átomo como siste-
ma planetário e passou a entendê-lo como um núcleo envolto numa atmos-

391
fera ondulatória. Seu modelo ainda admitia uma imagem física em que a
atmosfera, em torno do núcleo, fosse como um gás cujas moléculas seriam
os elétrons, mas, estes seriam entendidos como ondas. Assim a atmosfera
atômica seria um meio vibratório, como que de condensações e rarefações
que se propagariam de ponto a ponto em torno do núcleo. Entretanto, indi-
cando como Φ a função que mediria as variações, nos pontos e no tempo
em que elas se dão, a equação diferencial desse movimento vibratório es-
férico expressaria, em símbolos matemáticos, a realidade eletrônica, dis-
pensando qualquer necessidade de representação física.
Simplesmente como ilustração transcreve-se abaixo a equação de Sch-
rödinger, sob sua forma independente do tempo, quando o sistema está
sujeito a um estado energético determinado por W e V.

( )

A solução da equação correspondente, envolvendo o tempo, é igual a


uma solução da equação (x, y, z) multiplicada por uma função exponencial,
função do tempo, semelhantemente ao que acontece no problema das cor-
das vibrantes de Mecânica Clássica. Para o caso do átomo de hidrogênio,
em que a energia potencial V é bem conhecida, cada solução particular da
equação leva a valores da energia total do sistema X. Portanto, pode-se
notar essas soluções particulares como ΦW (x, y, z), que correspondem aos
estados estacionários do átomo sob a energia total W. A solução geral é a
soma de todas as soluções para os diferentes valores de W 189.
Portanto, as órbitas possíveis de Bohr encontram correspondência na
teoria de Schrödinger. Quando o estado energético do átomo passa do ní-
vel W1 para o W2 são emitidas (ou absorvidas) irradiações de frequência
f = ( W1 - W2 ) / h que são verificadas pelas linhas espectrais já menciona-
das quando se tratou do átomo de Bohr.
Em 1926, Max Born demonstrou, de forma demasiado complicada
para ser aqui explicada, que o quadrado da amplitude da função exprime a
probabilidade de o sistema estar na “densidade elétrica” acima referida. O
histórico dessa interpretação estatística da Mecânica Quântica foi feito por
Abraham Pais, numa alocução em 1982, por ocasião do centenário do nas-
cimento de Born190. Nesse artigo, está enfatizado que a introdução de um
189 SLATER, J. C.; FRANK, N. H. Introduction of Theoretical Physics. Nova York:
McGraw Hill, 1933. (Capítulo 12).
190 PAIS, A. Max Born’s Statistical interpretation of Quantum Mechanics. Science, v.
218, n. 4578, 17 dez. 1982.

392
elemento estatístico como algo inerente às leis físicas, constitue-se como
uma radical modificação do próprio conceito de conhecimento científico.
Pais descreve, ainda, a reação dos físicos a essa introdução. No átomo de
um só elétron tal probabilidade pode ser entendida como a de encontrar-se
o elétron num ponto e no instante correspondente.
Quando a equação de Schrödinger é expressa em uma única dimensão
espacial, ela descreve o movimento de um elétron livre. É possível, en-
tão, uma solução aproximada quando a diferença W-V não varia muito ou
quando se admite que não haja energia potencial e a energia total é a ener-
gia cinética do elétron. Sua solução é a equação das ondas de luz, cujos
comprimentos são exatamente os obtidos nas experiências de difração de
raios catódicos. Nesse caso, é possível entender-se o quadrado da ampli-
tude da onda como indicando a probabilidade de encontrar-se a partícula
num determinado ponto da trajetória. Esse conceito foi generalizado para
os “fótons”, nas ondas luminosas e nas outras radiações eletromagnéticas.
Mais tarde, esses conceitos foram generalizados para as demais partí-
culas que constituem os átomos. Há mesmo especulações de que eles se
apliquem aos próprios átomos. Desta forma, a expressão matemática da
matéria atingiria um grau de abstração muito além da possibilidade normal
de intelecção: a de ondas de probabilidade.
A decisão de renunciar à figuração dos elétrons em órbitas em tor-
no dos núcleos atômicos, assumida por Schrödinger, foi acentuada pelo
“princípio de incerteza” introduzido em 1927 por Werner Heisenberg. Ele
mostrou que seria impossível determinar as coordenadas do ponto onde
estivesse o elétron, ao mesmo tempo em que se lhe determinasse a quanti-
dade de movimento.
Com efeito: se quisermos determinar a posição de um elétron num
dado instante, poderíamos iluminá-lo e observá-lo com um potentíssimo
microscópio, mas sabemos que qualquer microscópio terá um poder reso-
lutivo (distância Δx, entre dois pontos que se possam separar distintamen-
te) que é proporcional ao comprimento da onda de luz iluminadora. Seria
então necessário utilizar uma iluminação cujo comprimento de onda fosse
tão pequeno quanto fosse possível enxergar o elétron, porém, ao chocar-
-se o fóton iluminador com o elétron, haveria uma variação da quantidade
de movimento do mesmo Δp que, como já foi mencionado, pelo efeito
de Compton, é inversamente proporcional ao comprimento da onda, isto
é: quanto menor o comprimento de onda maior a variação da quantidade
de movimento. Haverá assim uma incerteza na posição do elétron Δx e na
quantidade de movimento Δp , tal que tanto menor uma, maior a outra, não

393
se podendo determinar o valor de ambas. O máximo que se pode saber é
que o produto das duas não pode ser menor que a constante de Planck.
Correlacionado com a dualidade onda-partícula e com o princípio de
incerteza, está o estranho fenômeno da ambiguidade da posição indivi-
dual dos fótons. Se colocar-se, entre uma fonte de fótons e um anteparo
sensível, uma folha metálica, com dois pequenos furos próximos um do
outro, acontecerá que, se os dois furos estiverem abertos, observar-se-á, no
anteparo as figuras de interferência (anéis concêntricos claros e escuros).
Se uma das fendas for fechada, desaparecerão as bandas de interferência
e observar-se-á simplesmente um espalhamento do feixe numa mancha
sobre o anteparo sensível. Isto indica que o feixe de fótons comporta-se
como onda vibratória.
Entretanto, usando fotodetectores modernos, que indicam a presença
de fótons individuais que atingem o anteparo, colocado atrás da folha me-
tálica com dois furos, pode-se perceber o seguinte: se a intensidade do
feixe for diminuída de forma tal que se possa imaginar somente alguns
fótons atravessando as fendas, as bandas de interferência vão, gradativa-
mente transformando-se em manchas isoladas constituídas por elétrons
que, primeiramente, agrupam-se, em sua maioria, atingindo o anteparo nas
zonas claras e, na minoria, nas escuras. Se fecharmos um dos furos, esse
efeito desaparecerá. Isso mostra que os fótons começam a comportar-se
como partículas mas, ao mesmo tempo, interferem entre si agrupando-se
nas zonas mais claras e mais escuras do espectro. Esse efeito se acentuará
à medida que a intensidade do feixe (número de fótons) diminuir, mas as
bandas de interferência serão ainda observadas se a exposição for prolon-
gada por um tempo suficientemente longo. Chega-se a uma situação em
que se pode supor que um único fóton, por unidade de tempo, atua como se
fosse uma onda, passando simultaneamente pelos dois furos. Similarmen-
te ao que acontece para as ondas de fótons, se fecharmos um dos furos o
efeito de interferência desaparecerá. Os fótons únicos, ao correr do tempo,
produzirão uma mancha, como a de uma única partícula.
O espantoso resultado dessa experiência mostra que os fótons em parti-
cular e, por generalização, as partículas atômicas que se comportam como
ondas, não têm individualidade e podem, como as ondas, estar simultanea-
mente em locais diferentes.
Foi demonstrado que a simples procura de informação, sobre qual dos
dois furos passara o fóton, já é suficiente para impedir a formação das
bandas de interferência. Assim, se for possível colocar um instrumento
junto a um dos furos ou ao longo da trajetória do feixe para detectar a pas-

394
sagem do fóton, isto já será suficiente para impedir a formação das bandas
de interferência. Pode-se demonstrar teoricamente que qualquer tentativa
bem-sucedida de determinação de por qual foi o furo por onde o fóton
passou, contradiz o princípio de incerteza de Heisenberg. Isto, além de pôr
em questão o conceito de unidade e localização das partículas atômicas,
sugere a possibilidade de uma intercomunicação a distância entre elas.
As conclusões dessas experiências e deduções teóricas vêm sendo con-
firmadas por engenhosas experiências reais, em base a sofisticados instru-
mentos de medida. Esses resultados confirmam o comportamento “fantas-
magórico” de fótons de raios laser191.
Desta forma se, por um lado, a expressão dos fenômenos de emissão
corpuscular, pela função de Schrödinger, tem um significado estatístico
e, por outro, é impossível a medida, mesmo em experiências ideais, para
determinação simultânea de parâmetros conjugados das partículas e, além
disso, as partículas subatômicas têm realmente um comportamento “fan-
tasmagórico”, isto é, localização indefinida e capacidade de intercomuni-
carem-se, estando distantes uma das outras, então os princípios de iden-
tidade e de causalidade (crença de que o comportamento posterior de um
ente físico é determinado por condições iniciais) estariam em choque. Isto
é, não se poderia mais crer nem na regular sucessão de causas e efeitos,
nem na possibilidade de medidas exatas que definissem o fenômeno, nem
mesmo no princípio de identidade, o qual afirma que um determinado ente
continua sempre sendo ele próprio durante a sucessão de eventos em que
toma parte. Contudo, não se pode negar que a própria equação de Schrö-
dinger é idêntica a si mesma, não contraditória e também verdadeira, pois
foi verificada experimentalmente. Ela expressa uma correlação probabi-
lística, mas não é, em si, provável. Ela é um símbolo da própria realidade.
A pergunta: qual é essa realidade? Pode ser uma pergunta sem sentido, só
respondida pelo símbolo: a própria equação matemática, quando essa é
coerente e concorda com as observações experimentais. Aliás, é preciso
notar que a crença de que a equação matemática simbolize uma realida-
de independente da mente humana ou que, pelo contrário, a equação é
um produto da mente humana que conforma a realidade, não modifica em
nada a teoria, as conclusões e as aplicações práticas da Mecânica Quântica.
Pouco antes de Schrödinger divulgar sua teoria ondulatória, Werner
Heisenberg já dera notícias de uma outra teoria sobre a estrutura atômica.
As duas podem ser consideradas como contemporâneas e rivais, porém,
pouco depois foram demonstradas como formas matemáticas equivalen-
191 HORGAN, John. Quantum Philosophy. Scientific American, v. 267, n. 1, jul. 1992.

395
tes. Ela abandona toda e qualquer tentativa de representação intuitiva do
átomo, porém permanece fiel ao princípio da Mecânica Quântica de man-
ter-se concordante com as observações experimentais – mesmo que essas
contradigam o senso comum. Assim, os modelos atômicos, tanto como
sistemas planetários quanto de núcleos envolvidos por atmosferas de flu-
tuações elétricas, seriam substituídos por um sistema de entes matemáti-
cos cujos parâmetros coincidissem com os valores numéricos obtidos em
observações experimentais, quer espectroscópicas, quer interferométricas,
quer por colisões de partículas atômicas.
A teoria de Heisenberg apoia-se no formalismo da Mecânica Clássica
estabelecido por Willian R. Hamilton, em 1835. A função H de Hamilton é
a soma da energia potencial V (dependente das coordenadas espaciais dos
pontos materiais do sistema) e da energia cinética E (dependente das quan-
tidades de movimento desses mesmos pontos). Ela é igual à energia total
do sistema. Para sua aplicação na Mecânica Quântica ela é tomada em sua
forma generalizada H(q p) e assim considerada como uma função de ponto
de um espaço 2i dimensional (espaço fase) – onde os q são coordenadas de
posição de partículas e p, as respectivas quantidades de movimento.
As variáveis dependentes p e q e, também as funções, H, E e V, porém,
deixam de ser variáveis numéricas da Mecânica Clássica e passam, na teo-
ria de Heisenberg, a ser consideradas como matrizes. Cada termo pmn ou
qmn etc. é um termo da linha m e da coluna n, das matrizes p, q etc.
Pois bem, utilizando a Álgebra matricial (a qual define as operações
entre matrizes) Heisenberg constrói sua teoria matemática. O problema
principal da Álgebra das matrizes é encontrar uma matriz que, transforma-
da por outra, a torne uma matriz diagonal (matriz em que os termos m=n
são diferentes de zero e todos os outros nulos). Pode-se demonstrar que a
matriz diagonal H’, correspondente à matriz H, é equivalente aos níveis de
energia W, das equações de Schrödinger.
É relativamente fácil a aplicação da teoria das matrizes a um sistema
atômico que possa se assimilar ao problema da Mecânica Clássica, do os-
cilador harmônico linear, porém, sua aplicação a sistemas mais complexos
envolve complicações matemáticas crescentes. De qualquer forma, o de-
senvolvimento matemático da teoria de Heisenberg mostrou que esta era
equivalente à de Schrödinger. São dois aspectos de uma mesma teoria. O
primeiro enfatiza o aspecto ondulatório dos níveis de energia quânticos,
enquanto o segundo dá maior ênfase ao movimento das partículas. Talvez,
devido a essa maior complexidade matemática da Mecânica das matrizes,
os livros mais elementares de Mecânica Quântica, como o de R. Eisberg e

396
R. Resnik (física quântica), desenvolvem pormenorizadamente a teoria
de Schrödinger e apenas referem-se à de Heisenberg. Isto deve ser uma
indicação de que a teoria ondulatória de Schrödinger é considerada um
instrumento apto e suficiente para o tratamento dos problemas atômicos,
sob o enfoque quântico.
Contudo, esses formalismos só foram aceitos como verdadeiros depois
de verificados experimentalmente. Para isso, foi necessário “bombardear”
os átomos para, quebrando-os, medir as características das partículas. Po-
rém, os meios de “bombardeamento” disponíveis: raios γ ou catódicos
eram de energia insuficiente. Felizmente pode-se recorrer a partículas
existentes na natureza de grande energia: as dos assim chamados raios
cósmicos. A partir dos anos 1920 já se começara a observar, em câmaras de
névoas ou placas fotográficas, trajetórias de partículas de alta energia. Des-
cobrira-se que a Terra é constantemente “bombardeada” por tais partículas
provenientes do espaço cósmico. Verificou-se então que, em sua maio-
ria, esses raios eram prótons acompanhados de raios γ e elétrons. Então,
pode-se perceber que eles, ao atingirem núcleos na atmosfera produziam
raios secundários de curta duração, mas de elevada energia. Desde então
se começou a utilizar os raios cósmicos, tanto os primários de origem ex-
traterrestre, quanto os secundários, originados na atmosfera, para fins de
pesquisas nucleares. É de se notar que nessa época foram montados, em
todo mundo, laboratórios em altas altitudes, no topo das montanhas, para
melhor captação de tais raios.
Em 1928, Paul Adrien Maurice Dirac publicou, nos proceedings da
Royal Society, uma extensão da equação das ondas eletrônicas, válida para
um elétron isolado, e invariante para as transformações de Lorentz, isto
é abrangendo situações de velocidades próximas à da luz, portanto sob
forma relativista192. Dessa equação decorre uma relação quadrática entre
a energia e a quantidade de movimento do elétron livre. Portanto, admi-
te duas soluções, uma delas como energia negativa. A princípio, isso foi
tido como uma dificuldade da teoria, porém, o próprio Dirac insistiu na
existência real de um campo de energias negativas, correspondente a uma
partícula de massa igual a do elétron, mas de carga positiva.
Essa partícula, chamada de pósitron, foi observada, pela primeira vez,
em 1933, por Carl David Anderson, Patrick Blackett e Giuseppe Occhia-
lini, nos raios cósmicos. Ao se recolher os raios cósmicos em uma câmara
192 A equação de Schrödinger em forma relativista e a correspondente equação de Dirac
estão descritasem: SCHIFF, Leonard I. Quantum Mechanics. [S.l.]: McGraw-Hill,
1955. (Capítulo 12).

397
de névoa ou numa placa fotográfica, apareciam partículas deixando, na
presença de um campo magnético, duas riscas: uma delas tomava a direção
positiva e a outra, negativa.
A existência de um campo de energias negativas contrariava a noção
comum que se tem de realidade, o que veio confirmar a ideia que as equa-
ções matemáticas não só simbolizam, mas também, descobrem e englo-
bam uma realidade insuspeitada.
Nessa época, a teoria matemática da Mecânica Quântica já podia
explicar, a partir da equação de Schrödinger, os fenômenos referentes
às partículas atômicas e as propriedades dos elementos químicos. En-
tretanto, no que se referia aos fenômenos ondulatórios, excetuando as
ondas de matéria de Broglie, tornava-se necessário quantificar a teoria
Eletrodinâmica clássica.
A publicação, em 1930, das conferências de Heisenberg, na Univer-
sidade de Chicago193, sobre os princípios da teoria dos quanta, com um
apêndice sobre o instrumental matemático já à disposição dos físicos para
a análise dos fenômenos quânticos, pode ser considerada como o início
dessa quantificação. Heisenberg mostrou como, a partir do conceito cor-
puscular de matéria como onda, poder-se-ia formular matematicamente
uma crítica dos princípios e discutir os resultados das experiências que
fundamentavam a Mecânica Quântica. O apêndice termina com a Análise
Matemática do conceito ondulatório de matéria, seguida pela exposição
de uma teoria quântica dos campos ondulatórios e da prova que há uma
equivalência entre ambas. Esse pode ser considerado o início do que veio
a se chamar Eletrodinâmica Quântica.

f) O núcleo atômico
Resta agora indagar sobre a natureza daquele pequeníssimo núcleo do
átomo, onde se concentra sua massa, porém, cujas dimensões são despre-
zíveis em relação ao seu diâmetro. Contudo, por menor que seja, o núcleo
é composto de partículas ainda menores, como já se fazia supor quando se
descobriu a desintegração pela radioatividade. A primeira tentativa de aná-
lise da composição do núcleo foi sugerida pela hipótese de Joseph Louis
Proust de que todos os átomos seriam compostos de hidrogênio. Como o
núcleo do hidrogênio é o próton, esse seria o elemento com o qual todos os
núcleos dos vários elementos seriam constituídos.
193 HEISENBERG, Werner. The Physical Principles of the Quantum Theory. Nova
York: Dover Publication, 1949.

398
Qualquer teoria da composição dos núcleos deve concordar com o fato
de que eles, além de terem massas crescentes na sequência dos elementos
na Tabela de Mendeleiev, têm também cargas elétricas, correspondentes
aos seus números atômicos, na mesma tabela. Mas, então, se pode per-
ceber que, se o átomo fosse composto só de prótons e a cada próton cor-
respondesse uma carga elétrica, então os números atômicos seriam iguais
aos números de massas da referida tabela. Ora, isso só acontece para o
hidrogênio cujo número atômico é 1 e a massa do único próton seria to-
mada como unitária. O carbono 14, por exemplo, tem número atômico 6,
porém, sua massa é 14.
A primeira solução do problema foi a de introduzir elétrons na com-
posição do núcleo. Assim, o núcleo do carbono 14 seria constituído por
14 prótons e 8 elétrons, cujas cargas negativas anulariam as positivas de
8 prótons. Restariam, portanto seis prótons, carregados positivamente, em
equilíbrio com os seis elétrons da periferia do átomo. Generalizando: se
um núcleo tivesse um número de massa A (massa do átomo em relação à
massa do átomo de hidrogênio) e um número atômico Z (número de elé-
trons girando na periferia do átomo), então o núcleo deveria possuir A-Z
elétrons.
Essa teoria, porém não se susteve. Já se mencionou que os prótons e
elétrons têm um movimento de rotação, como o dos piões. Pois o núcleo
gira sobre si mesmo da mesma forma, apresentando, portanto, um momen-
to angular com magnetismo, que interfere com o magnetismo decorrente
da rotação de elétrons. Disso resulta uma nova divisão das raias do espec-
tro de emissão do átomo. Como há meios experimentais de medir essa di-
visão “hiperfina” das raias, é possível calcular os momentos angulares dos
núcleos dos vários elementos. O spin do núcleo deve ser necessariamente a
soma algébrica dos spins das partículas mais uma componente correspon-
dente ao movimento orbital dessas partículas. Considerações nesse sentido
mostraram que isso não se dá para a estrutura nuclear acima mencionada,
portanto ela é inaceitável.
Em 1932, Irène Curie e seu marido Frédéric Joliot mostraram que,
quando bombardeavam berilo ou boro com partículas α, apareciam par-
tículas de carga nula. No mesmo ano, James Chadwick mostrou que essas
partículas tinham a mesma massa que os prótons e chamou-as de nêutrons.
Assim, pode-se supor que um núcleo de número de massa A, ficaria cons-
tituído por A partículas, sendo Z (número atômico) de prótons e A-Z nêu-
trons. Com isso, o spin dos núcleos de vários elementos, medidos expe-
rimentalmente, concordava com as previsões teóricas. Como os prótons e
os nêutrons eram semelhantes, eles tomaram o nome comum de núcleons.

399
A essa altura, o fenômeno da radioatividade já era perfeitamente com-
preensível. Um corpo radioativo emitia espontaneamente partículas (nú-
cleos do hélio) e, assim, perdia os números de massa correspondentes.
Por exemplo, um átomo de urânio, cujo número atômico é 92 e número
de massa é 238, decai em um átomo de tório, cujo número atômico é 90
e número de massa é 234, emitindo um núcleo de hélio (partícula α). Isto
fora constatado experimentalmente por Rutherford, em 1910, confinando
uma amostra de urânio numa cápsula de vidro e verificando, depois de
algum tempo, a presença de hélio na cápsula. Esse fenômeno, que tomou
o nome de decaimento α, explicava-se, portanto, pela quebra da estrutura
do núcleo de urânio, com perda de quatro núcleons.
Há também um outro tipo de decaimento que se evidenciou quando
se observou que um nêutron podia decair espontaneamente num próton e
num elétron (partícula β). A isso se chamava decaimento β. Por exemplo,
na própria cadeia de decaimento radioativo de urânio 238, o núcleo de
tório 234, de número atômico 91, emite uma partícula (elétron), pois um
dos seus nêutrons transforma-se espontaneamente em próton, emitindo um
elétron.
No cômputo energético do decaimento β surgiu o problema de que a
energia (massa em repouso) perdida pela expulsão do elétron era maior
que a do elétron. Foi necessário, então, Pauli postular a existência de uma
partícula sem carga e de pequena massa que acompanhava o elétron. Tal
partícula veio a se chamar neutrino.
Esses decaimentos vão-se sucedendo em série e o elemento radioativo
vai continuamente, ao correr do tempo, perdendo massa (decaimento α)
ou adquirindo número atômico (decaimento β) até chegar a um elemento
estável. No caso do urânio, esse elemento é o chumbo, de massa 206 e
número atômico 82.
O curioso é que, ao se somarem as massas dos núcleons, essa soma é
sempre maior que a massa do núcleo. Por exemplo, a massa do próton é
1,0073 unidades atômicas de massa (uma unidade é 1/12 da massa do áto-
mo de 12C) e a do nêutron 1,0087 dessas mesmas unidades. Assim a massa
dos dois prótons e dois nêutrons do hélio, seria 4,0320. Porém, a massa
do núcleo de hélio 4 é menor, isto é, 4,0279. A primeira ideia que ocorre
é que, no primeiro caso, as partículas estão separadas e, no segundo, elas
estão unidas. Portanto, deve haver uma energia que as mantenha unidas.
Para separar esses núcleons unidos será necessário dispender uma certa
energia. Ora, pela teoria da Relatividade, (vide item d, deste capítulo) há
uma equivalência entre massa e energia. Portanto, essa massa que está

400
faltando no núcleo deve corresponder ao equivalente em massa da energia
necessária para aglutinar os núcleons no núcleo. O cálculo da energia mé-
dia para aglutinar núcleons em núcleos de diferentes massas dá um valor
entre 7 e 9 megaelétron-volts por núcleon. Há elementos (entre os números
de massa 20 e 100) cuja energia de aglutinação é alta, e outros (abaixo
do número de massa 20 e acima de 100) cuja energia é baixa. Os primei-
ros devem ser fortemente aglutinados e os segundos fracamente. Portanto,
numa reação nuclear em que se separam núcleons de maior energia de
aglutinação para chegar a núcleos de menor energia, deve-se dispender
energia para que a reação se realize. Porém, se a reação transforma núcleos
de menor energia em núcleos de maior energia de aglutinação, então uma
quantidade de energia é libertada.
Um núcleo de urânio 235, quando atingido por um nêutron, decai numa
série de elementos e liberta radiação, 200 megaelétron-volts de energia e
mais dois nêutrons. Esses nêutrons irão reagir com outros dois átomos de
urânio 235 e produzirão o mesmo efeito. Assim, forma-se uma reação em
cadeia na qual cada átomo fissionado fornece nêutrons para fissionarem
outros, resultando em violenta explosão. É o fenômeno de fissão do átomo
de urânio, na bomba atômica. O mesmo acontece com o plutônio que se
fissiona em dois elementos e liberta nêutrons que irão produzir reação em
cadeia semelhante à do urânio 235. O urânio 238 não é fissionável, mas
dá origem a outros núcleos fissionáveis os quais produzem nêutrons, mas
não em proporção suficiente para iniciar uma reação em cadeia. Assim,
para que o urânio natural sirva como combustível atômico ele tem de ser
“enriquecido”. Só então será possível a libertação de nêutrons em número
suficiente para a reação em cadeia.
O fenômeno da radioatividade foi explicado, como aplicação da Mecâ-
nica Ondulatória, já em 1928, mesmo antes de conhecerem-se as leis que
regem a estrutura do núcleo194, por George Gamow (1904-1968) um dos
autores da Teoria do Big Bang.
Fenômeno contrário ao acima descrito é o da fusão nuclear presente
na explosão das bombas de hidrogênio e na energia irradiada do sol e das
estrelas. Tal reação se dá quando núcleos de pequena energia de ligação
(os de menores números de massa) fundem-se para formar núcleos mais
pesados. Por exemplo: depois de um ciclo de reações nucleares, pode-se
resumir o processo dizendo que quatro núcleos de hidrogênio fundem-se
formando um núcleo de hélio e libertando 24.7 megaelétron-volts de energia
e mais a estranha partícula que é o elétron com carga positiva: o pósitron.
194 CASTELFRANCHI, G. Física Moderna. Milão: Hoepli, 1934.

401
Quando o pósitron foi observado, como foi dito acima, em 1933, ob-
servou-se também que ele tinha vida curta, pois tendia a unir-se ao elétron
mais próximo, desaparecendo os dois e emitindo energia. Era a aniquila-
ção da matéria com emissão de energia. Daí se abriu a possibilidade da
teoria da antimatéria, isto é, de partículas antitéticas que, como no caso do
elétron e do pósitron, podem anular-se mutuamente.
Matematicamente pôde-se também concluir, mais tarde, que os prótons
e os nêutrons também teriam antipartículas: um antipróton teria a mesma
massa que o próton, porém carga negativa, enquanto que o antinêutron
não teria carga. Era de se esperar que um par próton-antipróton poderia ser
formado concentrando-se uma grande energia num ponto do espaço, da
mesma maneira que acontecia com o par elétron-pósitron.
Com todo esse cabedal de conhecimentos, os tempos já estavam ma-
duros para se enfrentar o problema de como os prótons e os nêutrons se
mantinham aglutinados nos núcleos dos átomos. Era sabido que havia um
equilíbrio eletrodinâmico entre os elétrons da periferia e os núcleos, am-
bos carregados com cargas elétricas de sinais contrários. Mas, como seria
possível a coesão de prótons e nêutrons cujas cargas elétricas eram positi-
vas ou neutras e, portanto, deveriam repelir-se? Deveria então haver uma
força de atração próton-nêutron que superasse a repulsão elétrica. A exis-
tência dessa força já tinha sido evidenciada nas observações experimentais
de colisões entre prótons e nêutrons, mas, agora, era necessário procurar
explicá-las teoricamente. Heisenberg já tinha também feito uma pesquisa
fenomenológica da natureza e grandeza dessas forças, como foi declarado
num relato que fez sobre o estado das pesquisas nucleares na Alemanha,
pouco antes da Guerra195.
É de se notar que, nesse relato, Heisenberg refere-se sumariamente a
Hideki Yukawa, físico japonês que, em 1935, propôs a existência de um
campo de forças nucleares diferente do eletromagnético e que seria res-
ponsável pela atração entre prótons e nêutrons. Yukawa propôs uma teoria
matemática que descreve tal campo de forças como atuante tão somente
a pequeníssimas distâncias, mas, nestas, tão forte que superava a repulsão
elétrica.
Inspirado pela ideia de que a interação entre elétrons faz-se por inter-
médio dos fótons, quanta das ondas eletromagnéticas, Yukawa postulou
então que um núcleon cria um campo novo e a interação, especificamen-
195 HEISENBERG, Werner. La Física del Nucleo Atomico. Madri: Revista de Occiden-
te, 1957.

402
te nuclear, entre núcleons, provém do intercâmbio entre esses núcleons
e ondas de campo de Yukawa com seus quanta, que foram chamados de
mésons – os quais deveriam ter massas cerca de 200 vezes as do elétron.
Em 1937, Carl Anderson e Seth Neddermeyer descobriram partículas com
massa 200 vezes a do elétron nos raios cósmicos. Assim, foi constatada a
existência física dos mésons, mas esses não tinham as propriedades reque-
ridas pela teoria de Yukawa.
Foi visto que, a partir de Rutherford, as partículas α emitidas por fontes
radioativas vinham sendo utilizadas com a finalidade de pesquisa visando
a desintegração de núcleo. Foi visto também que partículas de alta ener-
gia dos raios cósmicos eram utilizadas com esse fim. Contudo, somente
essas últimas eram dotadas de suficiente energia para efetuarem reações
nucleares artificiais. Surgiu então a ideia de acelerar artificialmente par-
tículas geradas por uma fonte qualquer, aplicando-se em seu trajeto altas
diferenças do potencial elétrico para conferir-lhes velocidade e, portanto,
energias suficientes.
O primeiro acelerador de partículas foi construído na Universidade de
Cambridge, em 1930, por J. D. Cockcroft e E. S. Walton. Nele, acelera-
vam-se prótons obtidos por ionização de hidrogênio em câmaras de bai-
xíssima pressão, num campo eletrostático de várias centenas de quilovolts.
Com os prótons assim acelerados, foi possível quebrar núcleos de lítio,
fazendo aparecer duas partículas.
Já no ano seguinte, o físico R. van de Graaff construiu seu célebre
acelerador eletrostático. Uma alta diferença de potencial era criada entre a
base e a parte superior de um tubo no qual se fazia vácuo e pelo qual cor-
riam prótons e nêutrons. A diferença de potencial era criada pela deposição
de cargas elétricas sobre uma esteira têxtil rolante que depositava essas
cargas numa esfera condutora no alto da coluna.
Mais tarde apareceram os betatrons que aceleravam elétrons gerados
por efeito termiônico e injetados num tubo toroidal de vidro, já com ener-
gia elevada. Um forte campo magnético fazia os elétrons girarem dentro
do tubo toroidal, no interior do qual se fazia vácuo.
Em 1933, foi construído, em Berkeley, um acelerador de partículas de
tipo novo, imaginado por E. Lawrence. É o cíclotron no qual as partículas,
emitidas por uma fonte de íons, eram aceleradas, fazendo-as girar em es-
piral, para uma combinação de diferenças de potencial elétrico e deflexão
magnética. As partículas (prótons, nêutrons ou α) eram aceleradas duas
vezes em cada volta, podendo atingir energia cinética de até 25 MeV.

403
Em 1946, construiu-se em Berkeley um outro acelerador: o sincrocí-
clotron em que se estabelecia um sincronismo entre o tempo de rotação
das partículas e a aplicação do potencial elétrico. Com esse equipamento,
foi possível acelerar partículas até energias da ordem de 400 MeV e pro-
duzir os pósitrons e os mésons, dos quais, como foi dito anteriormente, já
se conseguira mostrar a existência real por meio das observações de raios
cósmicos. Foi assim que, em 1948, foi demonstrado, por um grupo de físi-
cos de Berkley, entre os quais César Lattes, a existência de mésons (píons)
de massa 270 vezes maior que a do elétron, satisfazendo as equações de
Yukawa.
Surgiu, então, a possibilidade de se verificar a existência real de an-
tipartículas de prótons e nêutrons, criando-os aos pares, como fora feito
com o par elétron-pósitron. A teoria de Dirac já previa isso desde que se
dispusesse de altas energias. Tais investigações vinham requerer acelera-
dores cada vez mais poderosos: tais como os enormes síncrotrons, criados
a partir de 1950. Nesses, as partículas carregadas, emitidas pela fonte de
íons, são submetidas a uma aceleração prévia, num sistema eletrostático
que lhes confere alta energia antes de serem injetadas na órbita circular do
síncroton. Por exemplo, no síncrotron construído, nesta época, na Univer-
sidade de Cornell, os projéteis são elétrons acelerados por um bétatron até
velocidade próxima à da luz. Ao atingirem o alvo, sua energia pode chegar
a 300 MeV. Construíram-se, nessa época, sincrotons de prótons com pré-
-aceleração por meio de um aparelho Van de Graaff, no qual a energia das
partículas atinge bilhões de eletrovolts.
Por outro lado, apareceram novas técnicas de detectar os traços das
partículas resultantes da fragmentação dos núcleos. Em lugar da câmara
de Wilson ou das placas fotográficas, apareceram os contadores de cinti-
lações, nos quais a absorção de uma partícula por um cristal de iodeto de
sódio e subsequente emissão de luz, é seguida pela transformação dessa
em corrente elétrica, por efeito fotoelétrico. Para detectar partículas de
energia maior que 300 MeV é utilizado o assim chamado contador Ceren-
kov – o qual baseia-se no fenômeno de que, quando uma partícula de alta
velocidade atravessa um sólido transparente, emite radiações eletromag-
néticas distribuídas num cone, cujo ângulo é inversamente proporcional à
velocidade da partícula.
Com o síncroton construído em Chicago, Enrico Fermi e Carl Ander-
son conseguiram constatar a existência de três tipos de píons: positivos,
negativos e neutros, sendo os dois primeiros partícula e antipartícula. Isto
incrementou o interesse pela pesquisa da antimatéria, formada por antiá-

404
tomos nos quais pósitrons dispor-se-iam perifericamente a um antinúcleo
constituído por antiprótons e antinêutrons interligados por píons negativos
ou neutros.
A partir de 1970, foram ideados e depois construídos os grandes su-
persíncrotrons de prótons. Um deles é o do CERN (Centro Europeu de
Pesquisas Nucleares), em Genebra, capaz de imprimir energia de até 300
GeV e que começou a operar em 1976. Outro é o do NAL (Fermi National
Accelerator Laboratory – Fermilab) em Batavia, perto de Chicago, com
energia de 500 GeV.
Com esses aceleradores gigantes, foi possível a produção de uma le-
gião de novas partículas, muitas delas inesperadas, outras previstas por
teorias. A impressão que se tem, lendo as crônicas dessas pesquisas, é que
a procura da existência real de partículas, conjeturadas nas teorias, é de
certa maneira perturbada pelo aparecimento de outras com propriedades
estranhas e inesperadas.
É possível que um dos acontecimentos mais importantes da Física
Quântica, tenha-se dado nos anos 1950, quando já estava perfeitamente
constituída a Eletrodinâmica Quântica,196 que explicava a interação entre
elétrons e campos eletromagnéticos. Conjeturou-se, então, que a Eletro-
dinâmica Quântica pudesse servir de modelo aos campos internucleares.
As forças atuantes no interior dos núcleos são chamadas de fortes e fra-
cas. O campo de ação das primeiras é restrito a pequeníssimas distâncias
entre os núcleons e seriam intermediadas por mésons. As fracas, atuam
entre todas as partículas, em distâncias ainda menores. Steven Weinberg e
Abdus Salam, independentemente, desenvolveram uma teoria que desig-
naram por Electroweak, pela qual se postulava a existência de partícula in-
termediária, denominada “bóson vetor intermediário”197. Mais tarde, essa
partícula foi identificada como sendo de três tipos: positivas W+, negativas
W- e neutras Zo. Para energias muito elevadas, as partículas W e Zo são
idênticas aos fótons, confirmando, portanto, a semelhança entre a Eletro-
dinâmica Quântica e a Teoria Electroweak.
A teoria unificada foi estendida para as forças fortes, mas desse estudo
resultou que algo não se enquadrava nas equações.
Das especulações para estender a Teoria Electroweak às forças fortes,
resultou a ideia de Murray Gell-Mann, da existência de subpartículas in-
196 Uma exposição da eletrodinâmica quântica encontra-se, por exemplo, em: SCHIFF,
L. I. Quantum Mechanics. Nova York: McGraw-Hill, 1955.
197 WEINBERG, S. Unified Theories of Elementary Particle-Interaction. Scientific
American, jul. 1974.

405
tranucleônicas: os quarks, unidos entre si pelos glúons. Essas subpartícu-
las teriam propriedades quânticas pitorescamente chamadas de “cores” e
“sabores”. As cores corresponderiam a algo analógico às cargas das forças
elétricas, porém em vez de serem duas: positiva e negativa, seriam três:
vermelho, verde e azul. Por isso, a teoria correspondente veio a ser chama-
da de “cromo-dinâmica quântica”, embora nada tenha a ver com as cores
do nosso mundo.
Os quarks formariam os prótons, os nêutrons e os mésons. Os dois
primeiros seriam formados por três quarks. Entre os mésons estariam os
píons, formados por um quark e um antiquark. Todos eles sensíveis às for-
ças fortes. Por outro lado, estariam as partículas insensíveis a essas forças
fortes: os léptons, entre os quais estariam os elétrons, sensíveis às forças
eletromagnéticas. Haveria ainda os neutrinos que acompanhavam os elé-
trons, insensíveis tanto às forças fortes quanto às eletromagnéticas, porém,
sensíveis às fracas.
Diferentemente dos núcleons que têm carga elétrica unitária ou nula, os
quarks têm cargas elétricas fracionárias. Gell-Mann propôs que os quarks
seriam de dois tipos: u (up) com carga +2/3 e d (down) com carga -1/3.
Assim, os prótons, cuja carga é +1, seriam formados por dois quarks: um
u e um d. Os nêutrons, cuja carga é 0, seriam formados por dois d e um u.
Os antiprótons e antinêutrons seriam formados por antiquarks, também de
tipos u e d.
Posteriormente à elaboração da teoria, uma série de observações no
acelerador de Brookhaven e no Fermilab mostraram a plausibilidade da
hipótese dos quarks, embora não os conseguissem isolar. Contudo levaram
à necessidade de supor a existência de mais dois tipos de quarks, desig-
nados por c (charm) e s (strange), cujas massas eram muito maiores que
a dos d e u. Esses estariam associados ao múon (de massa muito superior
à do elétron) o qual se acompanharia de um neutrino. Formava-se assim
uma segunda família de partículas, com as mesmas cargas elétricas das da
primeira família, porém com massas maiores, exigindo grandes energias
para serem produzidas nos aceleradores.
Utilizando-se mais energia nos aceleradores gigantes, encontrou-se ou-
tra partícula semelhante ao elétron e ao múon, de carga elétrica -1, porém
de massa ainda maior e, também, acompanhada de seu neutrino. Tornou-se
plausível a existência de um novo tipo de quark, o b (bottom) com carga
elétrica -1/3 e massa 24 vezes superior à do quark s. Ideias de simetria
fazem supor a existência de um sexto tipo de quark: o t (top) com carga

406
elétrica +2/3 e massa ainda maior que a do s. Essas formariam a terceira fa-
mília de partículas. Todas as partículas das três famílias têm spin 1/2, e são
chamadas pelo nome comum de férmions. Essas partículas são acopladas
entre si pelos assim chamados bósons, de spin 1, os quais correspondem
aos fótons, intermediários das forças eletromagnéticas, os glúons, das for-
ças fortes, e as partículas W, das fracas198.
Note-se que só as partículas da primeira família são suficientes para
constituir todo o universo conhecido. Os dois quarks (up e down), o elé-
tron e seu neutrino são bastante para constituir todos os corpos celestes e
terrestres. As partículas das outras famílias têm um caráter fantasmagórico
de entes que duram apenas bilionésimos de segundo, como resultado de
operações artificiais em gigantescos aceleradores. Contudo, têm sua exis-
tência testemunhada por teorias matemáticas.
Em 1985, foram publicadas conferências de Richard P. Feynman
(1918-1988) apresentando a Eletrodinâmica Quântica199 em termos preci-
sos, porém acessíveis aos não especialistas.
Nas próprias palavras de Feynman, no que diz respeito às teorias uni-
ficadas, alguma coisa é mera suposição, entre teorias parcialmente elabo-
radas, e outras, pura especulação. Só em 1983, a Teoria Electroweak foi
plenamente confirmada no acelerador do CERN, com a identificação das
partículas W positivas e negativas e da correspondente Zo.
Na mesma década, entrou em operação o Acelerador Linear de Stan-
ford, cognominado “fábrica de Zo”, que permitiu medir a massa e o tempo
de vida das partículas Zo, fazendo-as chocarem-se, sob altíssimas energias,
elétrons diretamente contra pósitrons. A observação tornou-se possível
graças aos detectores de partículas de grande porte, desenvolvidos em base
a tecnologias avançadíssimas.
Em 14 de julho de 1989, inaugurou-se o LEP, gigantesco acelerador de
elétrons e pósitrons, do CERN, num túnel circular de 27 km de circunfe-
rência, a 100 m de profundidade no solo. Nesse acelerador, a aniquilação
de elétrons contra pósitrons produz milhões de partículas Zo que imedia-
tamente decaem em quarks, ligados a antiquarks – dos quais resultam a
formação de núcleons. Assim foi definitivamente confirmada a teoria dos
quarks.
198 Uma classificação das partículas elementares e quarks encontra-se, por exemplo, no
capítulo 35 do livro de J. Leite Lopes, A Estrutura Quântica da Matéria (Editora da
UFRJ e ERCA Editora e Gráfica, Rio de Janeiro, 1992).
199 FEYNMAN, R. P. Electrodinámica Cuántica. Madri: Alianza, 1988.

407
O desenvolvimento dos detectores de partículas baseados na tecnologia
dos microstrips de silício200 permitiu a produção do quark t no acelerador
do Fermilab, perto de Chicago. Nesse acelerador, prótons foram arremeti-
dos contra antiprótons com energia de 900 bilhões de elétron-volts. Em al-
gumas das colisões, apareceram quarks muito pesados que imediatamente
decaíram num quark mais leve e num bóson.
Espera-se que, em breve, sejam definitiva e consistentemente unifi-
cadas as teorias das forças fracas e fortes, no modelo da Eletrodinâmica
Quântica. Existem tentativas de elaboração de uma teoria quântica das for-
ças gravitacionais, as quais seriam intermediadas pelos hipotéticos grávi-
tons, também, acompanhados por gravitinos, correspondentes aos neutri-
nos dos elétrons e dos mésons. Se isso for conseguido, estará completa a
unificação da teoria da relatividade com a dos quanta, numa só formulação
matemática.
Essa unificação seria uma “construção” da mente humana de tal monta
que se poderia, evocando Hegel, dizer que a natureza é uma explicitação
da ideia. Mais modestamente, dir-se-ia que a realidade física, pelo menos
no campo atômico, é moldada pela mente humana. Isso, porém, não seria
verdade, pois, é um pressuposto do pensamento científico moderno que
os resultados particulares de toda teoria verdadeira devem conformar-se
com os dados de experiências científicas, como mostrou-se que é feito pela
Física Quântica.
Por outro lado, é também exigido, pela metodologia das ciências mo-
dernas, que a experiência científica não seja a da simples observação dos
fenômenos. O experimento científico deve ser organizado, realizado e inter-
pretado, segundo teorias prévias ou conjeturas a serem comprovadas pelos
experimentos. Pode-se mesmo sustentar a opinião que, na Física Quântica,
é bem patente que as experiências seriam destituídas de sentido na falta de
teorias, tanto quanto as teorias, na falta de experimento. Daí se concluir
que as ciências seriam jogos de espelhos. Imagens de espelho refletidas em
espelhos e, assim, não se pode também adotar uma atitude nem puramente
realista nem puramente idealista, no que respeita a natureza da matéria.

g) As ciências dos materiais


O ideal científico moderno, de expressar o essencial dos fenômenos da
natureza por meio de equações matemáticas, desembarcou na necessidade
200 LITKE, A.M.; SCHWARZ, A. S. The Silicon Microstrip Detector. Scientific Ameri-
can, maio 1995.

408
tecnológica de quantificar as propriedades físicas da matéria e calculá-las
matematicamente. O desenvolvimento da Física mostrara a possibilidade
do estudo analítico das propriedades mecânicas, técnicas, eletromagnéticas
e radioativas dos materiais empregados pela tecnologia. A princípio desen-
volveu-se uma disciplina da Engenharia concernente a Resistência dos Ma-
teriais. Paralelamente, apareceram as disciplinas teóricas da elasticidade, da
plasticidade e da viscosidade. Concomitantemente veio se desenvolvendo
uma ciência dos materiais para fornecer aos engenheiros e tecnólogos conhe-
cimentos, pelo menos qualitativamente, sobre as propriedades dos materiais
com base em teorias físicas e químicas. Finalmente, a Mecânica Quântica
vem possibilitando a expressão dessas propriedades por meio de equações
matemáticas, baseadas nas teorias da estrutura quântica da matéria.
É de se notar que esse estudo tecnológico das propriedades da matéria
está-se dando ao mesmo tempo em que se desenvolve o conhecimento
científico da matéria, embora com um certo retraso devido às dificulda-
des de aplicação dos conhecimentos científicos à solução dos problemas
técnicos. Esse retraso vem sendo, contudo, cada vez mais diminuído, de
forma tal que as conquistas científicas e tecnológicas paulatinamente se
vão dando simultaneamente.
Isto não seria em princípio uma novidade, pois que a tecnologia da resistên-
cia dos materiais surgiu simultaneamente à da Mecânica moderna, quando,
em 1638, foi publicado os discorsi e dimostrazioni matematiche
intorno à due nuove scienze attenenti alla mecanica e i movimenti
locali, de Galileu. A primeira dessas novas ciências é a Resistência dos
Materiais e a segunda, a Mecânica, no que se refere à queda dos corpos
e ao movimento dos projéteis. Note-se que Galileu, recluso na vila de
Arceti, depois de sua condenação pela Igreja, em 1633, dá termo ao seu
projeto de matematização da Física, com sua metodização inspirada nos
trabalhos técnicos dos arsenais de Veneza.
Baseando-se na descoberta da elasticidade dos materiais, já indicada por
Robert Hooke, os irmãos Bernoulli (Johann e Jacob) e, também, Leonhard
Euler foram os primeiros matemáticos a se interessarem, nos meados do
século XVIII, pelas deformações elásticas das vigas e colunas, bem como
pelo problema de vibrações transversais das vigas. Foram esses estudos que
anunciaram uma futura teoria matemática de elasticidade. Essa teoria, po-
rém, só se tornou possível quando, em 1807, Thomas Young definiu o estado
elástico dos materiais como aquele em que não só há proporcionalidade en-
tre tensões e deformações, mas que, também necessariamente, faz as defor-
mações voltarem a zero, quando as tensões estão relaxadas.

409
Em 1823, Augustin Louis Cauchy publicou um trabalho no qual definia
os conceitos de tensões normais a três planos ortogonais escolhidos em
torno de um ponto do material, e tensões de cisalhamento (esforços cor-
tantes) ao longo desses planos. Essas seriam as seis componentes dos es-
forços atuantes em qualquer ponto do material. A essas componentes cor-
responderiam seis componentes de deformações. Com a introdução dessas
componentes de tensões e deformações tornou-se possível a formulação
matemática precisa das equações da Mecânica dos Materiais.
O primeiro livro sobre o tratamento matemático da Resistência dos Ma-
teriais, então chamada Mecânica de Engenharia, foi uma apostila das aulas
de Claude Louis Marie Henri Navier (1785-1836) sob o título: résumé des
léçons données à l’école des ponts et chausseés sur l’application
de la mécanique à l’établissements des construction et des machi-
nes, publicado em 1838. Navier partiu da hipótese simplificadora, aliás
já admitida por Bernoulli, que as seções planas das peças mantinham-se
planas durante as deformações elásticas. Uma outra hipótese da Mecânica
dos Materiais era a lei de Hooke, da proporcionalidade entre tensões e
deformações.
Continuando seus estudos, em 1827 Cauchy derivou um sistema de
equações diferenciais que ligavam tensões a deformações elásticas, em
base a duas constantes. Uma delas era o módulo de elasticidade. A outra,
porém, só foi esclarecida um ano depois, quando Siméon Denis Poisson
(1781-1840) introduziu em uma sua memória, apresentada a Academia de
Paris, uma outra propriedade dos materiais: uma contração transversal so-
frida por um corpo quando submetido a uma tração axial. O coeficiente
entre essas duas deformações tomou o nome do seu descobridor, Pois-
son, e veio a ser entendido como a segunda constante de Cauchy. Estavam
identificadas as duas constantes da teoria da elasticidade. Mas seu estabe-
lecimento final, em base às equações diferenciais, com as duas constantes
de Cauchy, só se deu com a publicação, em 1852, do livro leçons sur la
théorie mathématique de l’élasticité des corps solides, por Gabriel
Lamé (1795-1870).
Mas, se as deformações permanecessem depois de relaxadas as ten-
sões, os corpos estariam em estado plástico, cujo estudo não mais poderia
ser feito pela teoria de elasticidade.
A Análise Matemática do estado plástico da matéria só se tornou pos-
sível, em 1864, quando Henri Tresca publicou suas observações experi-
mentais sobre punção e extrusão, propondo um critério que indicasse as
tensões sobre as quais as deformações plásticas viriam a ocorrer. A Aná-

410
lise Matemática teve origem com as memórias de Barré de Saint-Venant
(1797-1886) publicadas nas comptes rendus des séances de l’académie
des sciences (Paris, 1870) e no journal de mathématiques pures et
appliquées (Paris, 1871), admitindo, em base ao critério de Tresca, que
o fluxo plástico dos materiais dava-se sob uma tensão de cisalhamento
constante. Nesse trabalho, ele deu início a uma teoria matemática da plas-
ticidade.
As deformações plásticas, eventualmente, levariam a ruptura do mate-
rial. Em 1900, Otto Mohr introduziu um critério de ruptura dos corpos só-
lidos por uma combinação da tensão normal com a tensão de cisalhamento
num determinado plano de ruptura. Vários problemas de ruptura plástica
dos corpos sólidos foram resolvidos matematicamente por Ludwig Prand-
tl (1875-1953) e por seus assistentes ou discípulos, entre eles: Theodore
von Karman, Arpad Nadai, Willian Prager e Stephen Timoshenko. Mas foi
Richard von Mises, em 1913, quem propôs um critério matemático de rup-
tura e, com ele, deduziu as equações básicas da teoria da plasticidade, em
seu: mechanik der festen körper im plastisch deformablen zustand.
Harold M. Westergaard publicou, em 1952, um resumo de suas lições
na Universidade de Harvard, entre 1936 e 1946, no qual, além de uma ex-
posição completa da teoria da elasticidade e um aceno à da plasticidade, há
um extenso capítulo sobre suas histórias201.
Quando se percebeu que, em certos sólidos, como os metais em altas
temperaturas, as deformações eram não só funções das tensões aplicadas,
mas também do tempo, foi necessário aplicar-se a esses as soluções já es-
tabelecidas por Maxwell para os líquidos viscosos, para os quais as tensões
não são mais proporcionais às deformações, mas sim às velocidades com
que essas se dão – sendo a relação entre elas, o coeficiente de viscosidade.
Mas, os corpos sólidos não são simplesmente viscosos. Há corpos sólidos
visco-elásticos ou visco-plásticos conforme sua viscosidade está combina-
da com deformações elásticas ou plásticas.
Em 1928, o prof. Eugene C. Bingham fundou, no Lafayette College de
Easton, uma nova ciência aplicada: a Reologia, que trata tanto das defor-
mações elásticas e plásticas quanto do fluxo viscoso dos materiais, quer
sólidos, quer líquidos. Para isso criou modelos de vários tipos de mate-
riais ideais, denominados segundo os nomes dos cientistas que os estu-
daram. Esses modelos contemplam a combinação de molas (para repre-
sentar deformações elásticas), placas que deslizam ao longo do contato
201 WESTERGAARD, H. M. Theory of Elasticity and Plasticity. Cambridge: Harvard
University Press, 1952.

411
de suas superfícies (para representar deformações plásticas) e pistões de
êmbolos perfurados (para representar escoamento viscoso). A partir des-
ses modelos, Bingham compôs equações ligando tensões e deformações
nos vários modelos de corpos ideais. Chamou a essas, “equações reoló-
gicas de estado”. Elas incluem não só tensões e deformações, mas tam-
bém as variações dessas, principalmente com o tempo. Como, tanto as
tensões quanto as deformações, dadas por seus componentes nas direções
dos eixos coordenados, podem ser consideradas como componentes de
um tensor, as equações reológicas podem ser expressas com tensores e
calculadas pelo cálculo tensorial. Com esse algoritmo, os vários modelos
reológicos corresponderão não só aos materiais ordinariamente emprega-
dos na Engenharia, como aço, cimento, concreto e madeira, mas também
a materiais artificialmente fabricados na indústria, em base a plásticos,
borrachas ou polímeros. Tornou-se mesmo possível escrever as equações
reológicas para um material cujas propriedades sejam requeridas. Pode-se,
assim, imaginar um material, com tais e tais propriedades e depois, tentar
fabricá-lo.
Em 1943, um discípulo de Bingham, o professor Markus Reiner, pu-
blicou, em Jerusalém, o primeiro livro de texto sobre Reologia202 (rhei, em
grego, significa fluxo, daí a expressão heracliteana: panta rhei – tudo flui).
Nesse livro, ele analisa vários modelos de materiais, desde o chamado
“líquido pascaliano” (incompressível) e o sólido de Hooke (elástico) até o
líquido de Maxwell (viscoso) e o corpo de Bingham (visco-elasto-plástico)
semelhante às tintas a óleo que são mais materiais plásticos que líquidos
viscosos e têm, ainda, elasticidade.
Paralelamente ao desenvolvimento da Mecânica dos Materiais Sóli-
dos, desenvolveu-se uma Mecânica dos Fluidos. George Gabriel Stokes
(1819-1903) foi o seu iniciador, quando publicou em 1845, o trabalho: on
the theories of the internal friction of fluids in motion, and of
the equilibrium and motion of elastic solids. Entretanto, já no livro II
dos principia, de Newton, o movimento nos meios resistentes, que são os
fluídos, é tratado. Do ponto de vista de Stokes, um fluido, seja um líquido,
seja um gás, é um material que se deforma continuamente por efeito de
pequenas tensões de cisalhamento, não oferecendo resistência a mudanças
de forma. Por outro lado, os fluidos compressíveis diminuem de volume
proporcionalmente a uma tensão de compressão. A relação entre a tensão
de compressão e a redução específica de volume é o módulo de elasticida-
de volumétrico do fluido e o coeficiente de viscosidade, como já definido
202 REINER, M. Lectures on Theoretical Rheology. Amsterdã: North-Holland, 1949.

412
anteriormente, é o outro parâmetro. Ambos são funções da temperatura,
mas há fluidos que são incompressíveis, como há também os não viscosos.
A Análise Matemática dos movimentos e deformações dos fluídos
baseia-se na variação contínua de sua densidade, volume específico, ve-
locidade e aceleração. As relações entre tensões e deformações nos flui-
dos variam de acordo com os seus tipos, cada um deles admitindo uma
determinada equação reológica. Os problemas do fluxo dos fluidos são
resolvidos em base a equações diferenciais de continuidade, movimen-
to, energia, de estado e de relações constitutivas. A primeira baseada no
princípio da conservação das massas, a segunda, no equilíbrio das tensões
atuantes num elemento do fluido, combinada com sua equação reológica.
A equação de energia é deduzida a partir da segunda lei da Termodinâmi-
ca, escrita como sendo a variação da energia igual à transferência de calor
menos o trabalho feito pelo sistema. Desta forma, a Mecânica dos Fluidos
liga-se às questões energéticas da Física.
Os princípios matemáticos da Resistência dos Materiais, das teorias da
elasticidade e da plasticidade reunidos aos da Mecânica dos Fluidos e aos
modelos matemáticos da Reologia foram exaustivamente desenvolvidos
sob a notação tensorial ou matricial, dando origem a essa nova ciência
abrangente que se chama Mecânica dos Contínuos203. Essa é uma ciência
básica da Engenharia que reúne em si todo o processo de matematização
dos fenômenos correlacionados com as deformações e os movimentos dos
materiais contínuos, sejam eles sólidos ou fluidos, a partir de equações di-
ferenciais expressas em termos das relações elásticas, plásticas ou viscosas
entre tensões e deformações. Com essa matematização, enfeixou-se um
longo processo que se iniciou com Galileu.
Baseada nessa ciência, a tecnologia moderna pôde satisfazer sua neces-
sidade de solucionar problemas técnicos relacionados com novos tipos de
estrutura e novos materiais naturais ou artificiais utilizados em condições
inusuais, muitas vezes extremas, como no caso dos satélites ou naves es-
paciais.
Porém, ainda assim o processo de matematização em questão não
abrangia todos os materiais inertes existentes na natureza. Considerou tão
somente aqueles que, como contínuos, preenchiam idealmente todo o seu
volume ocupado, sem deixar intervalos ou espaços vazios, e eram infinita-
mente divisíveis em partes tão pequenas quanto se queira.
203 VALLIAPPAN, S. Continuum Mechanics Fundamental. Roterdã: A. A. Balkema,
1981.

413
Materiais muito importantes para a tecnologia e a Engenharia, como
são os materiais da crosta terrestre, os solos e as rochas não satisfazem
as condições de continuidade acima mencionadas. Os solos, por serem
constituídos por grãos discretos entre si, embora geralmente aglutinado
pela água contida em seus poros. As rochas por serem fraturadas, muitas
vezes com suas fraturas preenchidas com material mole ou por intrusões
cimentadoras.
Daí a criação, em 1925, por Karl Terzaghi204 da Mecânica dos Solos.
Nessa, parte-se da ideia que as tensões atuantes sobre um elemento do
solo, dividem-se em pressões atuantes grão a grão – que são as pressões
que efetivamente produzem as deformações e afetam as resistências a se-
rem consideradas nos cálculos – e pressões neutras, atuantes na água que
preenche os poros do solo a qual não contribui para o acréscimo de resis-
tência ao cisalhamento dos solos. A partir desse princípio Terzaghi mos-
trou ser possível a aplicação aos solos das equações da Resistência dos
Materiais, da elasticidade e da plasticidade, associadas às leis hidráulicas
de percolação d’água através de maciços permeáveis.
Aliás, é de se lembrar aqui que, já em 1773, Coulomb apresentou à
Académie Royale des Sciences, seu trabalho: essai sur une application
des règles de maximis et minimis à quelques problèmes de statique, re-
latifs à l’architecture205. Um desses problemas requeria um critério de
ruptura dos solos arenosos, por resistência a cisalhamento, devido a atrito
interno, ao longo de uma superfície de ruptura, decorrente do empuxo de
terra sobre um muro de arrimo.
Quanto às rochas, a partir da década de 1950, apareceram os primei-
ros trabalhos sistemáticos sobre a aplicação dos princípios da Mecânica
dos Contínuos, com as modificações concernentes a torná-la válida tam-
bém para os materiais fraturados. Isto é, fazendo as superfícies de ruptura
darem-se ao longo das fraturas, juntas e diaclases. Essas podem ser vazias
ou saturadas d’água, portanto, aparecendo pressões neutras ou de percola-
ção d’água. Em 1956, tais conhecimentos já haviam tornado possível um
simpósio sobre Mecânica das Rochas, realizado em Golden, pela Colorado
School of Mines. Esse simpósio contemplava especialmente o projeto e a
construção de túneis ou galerias em rocha. Aliás, é de se notar aqui que a
Mecânica das Rochas teve um desenvolvimento precoce no Brasil já em
1950, com Ernesto Pichler do Instituto de Pesquisas Tecnológicas de São
204 TERZAGHI, K. Erdbaumechanik auf Boden-Physikalischer Grundlage. Viena:
Franz Deuticke, 1925.
205 HEYMANN, J. Coulomb’s Memoir on Statics. Cambridge: Cambridge Univ. Press,
1972.

414
Paulo, em relação a ensaios e investigações para a Usina de Paulo Afonso,
e no Laboratório Nacional de Engenharia Civil, de Lisboa, com Manuel
Rocha, em relação às fundações das barragens em arco portuguesas. Aliás,
um dos primeiros textos completos sobre a Mecânica das Rochas, foi es-
crito em português por Manuel Rocha206.
O tratamento matemático dado pela tecnologia às questões concernen-
tes a problemas de engenharia de solos e rochas veio retroagir sobre uma
das ciências básicas: a Geologia. Surgiu então a Geomatemática que pro-
cura dar soluções matemáticas, quer baseadas na Mecânica dos Contínuos,
quer na análise probabilística para explicar dobramentos, falhas e outras
formações geológicas e, também, problemas de sedimentação de camadas
recentes e a sua consolidação. Métodos matemáticos empregados, segui-
dos de exemplos concretos em que eles foram aplicados, encontram-se,
por exemplo, em livros da série developments in geomathematics, cujo
primeiro volume consta das teorias matemáticas que formam os funda-
mentos da Geomatemática207.
Contudo, a solução das equações diferenciais nas condições de limites
complexas, impostas pelas circunstâncias em que os fenômenos naturais
possam ocorrer, ou as modificações e adições de termos às equações, origi-
nadas pelo caráter granuloso ou fraturado de certos materiais, veio encon-
trar obstáculos difíceis de serem superadas.
A princípio, tais dificuldades foram contornadas, esquematizando e
simplificando as condições naturais em que os fenômenos se davam. De-
pois apareceram os métodos gráficos e, por fim os numéricos que redu-
ziam as equações diferenciais a sistemas de numerosas equações lineares
a serem resolvidas simultaneamente. Mas as dificuldades só puderam ser
inteiramente resolvidas quando apareceu, após a Segunda Guerra Mun-
dial, a computação eletrônica. É curioso notar que a notação tensorial ou
matricial adotadas pelos matemáticos e os métodos de cálculo numérico,
pelos engenheiros, já antecipavam um modelo de computação semelhan-
te ao dos aparelhos de cálculo eletrônico. A adoção do método de cálculo
por elementos finitos, para a resolução das equações diferenciais, dentro
das condições de limites que poderiam ser quaisquer, por mais comple-
xas que fossem, veio resolver o problema. Finalmente os processos de
simulação matemática tornaram possível a solução de problemas em si-
tuações tão complexas quanto eles podem ocorrer na natureza.
206 ROCHA, M. Mecânica das Rochas. Lisboa: Laboratório Nacional de Engenharia
Civil, 1971.
207 AGTERBERG, F. P. Geomathematics. Amsterdã: Elsevier, 1974.

415
Contudo, o processo de matematização da natureza, no campo da ma-
téria inanimada, não se satisfez aí. Apareceu, logo em seguida, a intenção
de compreender teoricamente as próprias propriedades dos materiais cujos
valores, até então, eram simplesmente obtidos empiricamente. Visou-se,
além disso, não só compreendê-los, mas também calculá-los por meio de
equações deduzidas de teorias mais amplas. Assim, pretendeu-se exprimir
não só as propriedades elásticas, mas, também, as térmicas, elétricas e
magnéticas da matéria, a partir de sua estrutura atômica e molecular. Para
fins de engenharia, surgiu a Ciência dos Materiais208 que pretende estabe-
lecer um conhecimento geral de todas as propriedades dos materiais em-
pregados pela técnica, não só considerando peças inteiriças, como também
seus grãos e cristais, com base nas estruturas atômicas que os compõem.
Van Vlack classifica essas estruturas, ou arranjos atômicos, em: molecula-
res, cristalinas e amorfas, admitindo que essas determinem suas proprieda-
des e, ainda, que essas propriedades modificam-se com o tempo e o uso do
material. É o desgaste dos materiais.
Já se tornou patente que as propriedades químicas dos materiais depen-
dem da estrutura de seus átomos. Também suas propriedades tecnológicas
dependem das atrações interatômicas para formar moléculas ou cristais,
isto é, de sua estrutura atômica.
A mais ordenada das estruturas atômicas é a cristalina, na qual se pode
imaginar uma rede celular tridimensional. Num cristal elementar, os áto-
mos dispõem-se nos vértices ou no centro dessas células, nos compostos,
cada vértice é ocupado por um íon (positivo ou negativo) dos elementos
que o compõem.
As ligações entre átomos ou íons constituem-se como forças de atração
e repulsão entre dois átomos. A distância de equilíbrio entre dois átomos é
aquela em que as duas forças se equilibram. A esse ponto corresponderia
uma energia potencial mínima. A distância entre dois átomos adjacentes
corresponde a essa energia mínima e será a soma dos dois raios atômicos.
Porém essa energia potencial depende também da temperatura, crescendo
com ela. Seu mínimo minimorum ocorre com a temperatura do zero abso-
luto. Ao crescer a temperatura os átomos tendem a separar-se no ponto de
fusão, e separam-se no de ebulição. Esses pontos são, portanto, correlacio-
nados com o valor da energia potencial atômica.
Pode-se perceber que as propriedades mecânicas desses cristais puros
correlacionam-se também com a força total (atração e repulsão) entre os
208 VAN VLACK, L. H. Princípios de Ciência dos Materiais. Tradução de L. P. Camar-
go Ferrão. São Paulo: Edgard Blücher, 1970.

416
átomos. Assim, os parâmetros de resistência e deformabilidade poderiam
ser deduzidos, no caso de corpos simples, homogêneos e contínuos das
curvas de forças de atração e repulsão entre átomos. Da mesma forma, a
condutividade elétrica depende das ligações atômicas e dos efeitos dessas
sobre a liberdade de movimento dos elétrons.
A maioria dos corpos cristalinos utilizados pela técnica, não são cris-
tais unitários, são corpos policristalinos constituídos por uma quantidade
de microcristais aglutinados entre si. O ferro, por exemplo, é constituído
por microcristais de estrutura cúbica, com átomos de ferro nos vértices
dos cubos e um átomo no centro desses. Esses estão ligados entre si pelo
compartilhamento de seus elétrons. Disso resulta que, em cada vértice das
células cristalinas, estejam localizados os átomos de ferro, de onde foram
removidos elétrons e uma nuvem eletrônica movendo-se livremente. A
existência desses elétrons livres é que explica a condutividade elétrica dos
metais. Explica também a condutividade térmica, pois são esses elétrons
livres também os condutores de calor.
Uma estrutura da matéria menos organizada que a cristalina é a mole-
cular, na qual os átomos estão aglutinados em moléculas, separadas entre
si, porém sujeitas a uma força de aglutinação menor que as forças inte-
ratômicas. São essas do tipo da força de Van der Waals. As rupturas des-
ses corpos moleculares, provocadas por tensões externas dão-se, portanto,
separando as moléculas e não os átomos. Tais corpos são moles, pois as
moléculas podem escorregar umas em relação às outras, sob a ação de
pequenas tensões de cisalhamento; têm elasticidade baixa e atingem facil-
mente o estado plástico. Por outro lado, os pontos de fusão e ebulição são
relativamente baixos e podem ser de moléculas constituídas por pequenos
números de átomos, mas também ser de grandes moléculas constituídas
por pequenos grupos de átomos que se repetem.
A mais desorganizada estrutura da matéria é a amorfa. É ela a dos ga-
ses e dos líquidos em que não há nenhuma regularidade, nem dos átomos
nem das moléculas. Também os vidros são materiais amorfos. Quando um
líquido é resfriado, ao atingir sua temperatura de fusão, pode sofrer uma
contração de volume e solidificar-se, porém, se não sofre essa contração,
continuará como líquido super-resfriado. Os vidros são líquidos super-
-resfriados, abaixo de uma temperatura de transformação. Então, forma-
-se uma estrutura de átomos fortemente ligados, perdendo o líquido sua
fluidez ao passar a sólido não cristalino. Nos líquidos, a resistência ao
cisalhamento é nula, mas nos vidros, ela é elevada. Devido ao arranjo de-
sordenado dos átomos, os vidros são incomprensíveis como os líquidos.

417
Suas resistências podem ser elevadas, mas quebram-se, fragmentando-se
sem passar pelo estado plástico, pois a estrutura desorganizada não admite
deformações.
Assim a Ciência dos Materiais pode levar a uma compreensão quali-
tativa das propriedades tecnológicas dos materiais sejam eles: metálicos,
plásticos ou cerâmicos. Além disso, traz aos engenheiros e tecnólogos uma
possibilidade de compreensão de todas as características térmicas, elétri-
cas e magnéticas dos materiais e das transformações desses, ao correr do
tempo ou pelo efeito do seu uso.
Ela estuda ainda correlações tais como as existentes entre estruturas
atômicas e processos eletrônicos, no que se referem à condutividade elé-
trica, às energias eletrônicas e ao comportamento magnético ou ótico. Nos
materiais orgânicos, ela estuda as massas moleculares chegando a expli-
car os mecanismos e a estrutura dos polímeros e sua correlação com suas
deformações e resistências e também seu comportamento térmico e suas
propriedades elétricas. Nas matérias cerâmicas, ela estuda suas fases e os
efeitos da estrutura no comportamento dessas fases. Estuda também qua-
litativamente as reações sofridas pelos materiais no estado sólido e as mo-
dificações de suas propriedades pelas alterações na sua estrutura atômica.
Finalmente, aborda a questão, de grande importância tecnológica, que é a
das transformações ocorridas pelo uso dos materiais, tais como a corrosão,
a oxidação, as deformações e as tensões produzidas pela ação do calor e as
provenientes da exposição a radiações.
Os progressos alcançados pelos engenheiros e tecnólogos, na Ciência
dos Materiais, retroagiram sobre os conhecimentos científicos puros, le-
vando ao interesse pelo desenvolvimento de um ramo da Mecânica Quân-
tica que é a Física do Estado Sólido209. Nessa, não mais se trata de explicar
qualitativamente as correlações entre estrutura atômica e propriedades fí-
sicas da matéria no estado sólido, mas de deduzir equações matemáticas
expressando suas propriedades mecânicas, térmicas, elétricas e magnéti-
cas a partir dos princípios daquela ciência pura. Como os conhecimentos
tecnológicos qualitativos e experimentais vieram a ser adquiridos antes
dessas correlações teóricas, esse é um exemplo, evidentemente entre mui-
tos outros, de que não só a ciência alimenta os conhecimentos tecnológi-
cos, mas também a tecnologia serve de estímulo para o desenvolvimento
209 EISBERG, R.; RESNICK, R. Física Quântica. Rio de Janeiro: Campus, 1988.
A matematização completa da Física do Estado Sólido encontra-se em: JONES, W.;
MARCH, N. H. Theoretical Solid State Physics. Nova York: Dover Publ., 1985.
Em português, pode ser encontrado em: LEITE, R. C. Cerqueira; CASTRO, A. R.
Britto de. Física do Estado Sólido. São Paulo: Uncamp/Edgard Blücher, 1978.

418
científico. Por isso é que se diz que a ciência de uma determinada nação
só atinge um estado de desenvolvimento autossustentado quando, nessa
nação, também o desenvolvimento tecnológico atinge um certo grau.
A primeira dificuldade que se encontra, na aplicação da Mecânica
Quântica ao estudo do estado sólido, é que a análise do comportamen-
to dos corpos torna-se cada vez mais complexa à medida que aumenta o
número de componentes do sistema físico a ser estudado. Assim, a com-
plexidade é crescente ao passar-se dos átomos para moléculas e destas
para os sólidos. A Física Clássica já se defrontara com problema desse
tipo, para analisar as propriedades de um gás. Foi necessário considerá-lo
como uma multidão de moléculas, movendo-se aleatoriamente com velo-
cidades variáveis. Porém, se ele estiver em equilíbrio térmico, haverá uma
distribuição dessas velocidades em torno de uma média correlacionável
com a sua temperatura. Assim as energias das partículas distribuir-se-ão
estatisticamente e será possível a análise dessa distribuição por processos
estatísticos. Assim, na Física Clássica, Boltzmann estabeleceu uma relação
entre as propriedades de um gás e uma certa distribuição probabilística das
velocidades das suas moléculas.
Porém, a distribuição de Boltzmann não é aplicável às partículas quân-
ticas. Para essas, foram criados outros tipos de distribuição: a de Bose,
para as partículas e os fótons, e a de Fermi, para elétrons, prótons e nêu-
trons, pois, a partir das equações matemáticas que expressam essas distri-
buições, foi que as várias propriedades físicas dos corpos no estado sólido
foram equacionadas.
Entretanto, em certos casos particulares, foi possível a utilização da
estatística de Boltzmann em questões da Mecânica Quântica. Foi o que
fez, por exemplo, Debye para chegar à expressão do calor específico de
um sólido cristalino em função de sua temperatura absoluta. Ele partiu de
ideia de Einstein, combinando a quantização da energia de Planck com a
distribuição de Boltzmann e chegou a uma equação (denominada fórmula
de Debye) que dá a energia total das moléculas de um sólido cristalizado
em função da temperatura absoluta. Ora, a derivada dessa energia, em re-
lação à temperatura, é exatamente o calor específico. A medida do calor
específico de vários cristais, em diferentes temperaturas, veio verificar a
fórmula de Debye.
Um outro fenômeno, estudado de forma semelhante, é o da condu-
tividade elétrica dos metais. Como já foi dito, no início do século XX
concebera-se o modelo dos metais como conjunto de reticulados cristali-
nos cujos vértices eram ocupados por átomos em cujo interior viajavam

419
elétrons livres. Assimilando a nuvem de elétrons a um gás perfeito, foi
possível, aplicando a estatística de Boltzmann, chegar-se a uma expressão
da condutividade elétrica dos metais em termos atômicos.
Nessa época, já se constatara que, quando a energia cinética dos elé-
trons de um condutor metálico, excede o valor de um potencial intrínseco
ao metal (aquele que os mantém confinados no condutor) esses escapam
para o exterior do metal. Esse é o fenômeno que foi chamado de emissão
termiônica, pois é associado com o aquecimento do metal pela corrente
de elétrons. A primeira teoria sobre o fenômeno, baseada na estatística de
Boltzmann foi elaborada por O. W. Richardson, em 1901. As experiências
mostraram que a fórmula de Richardson não era correta, assim foram in-
troduzidas correções na fórmula para torná-la mais de acordo com as medi-
das experimentais. Esse é um exemplo da prática corrente, principalmente
em tecnologia, de corrigirem-se empiricamente as fórmulas teóricas para
torná-las compatíveis com a experiência. Mas tais correções só podem ser
aceitas definitivamente quando uma teoria mais ampla vem justificá-las.
Para diferenciar a estatística clássica de Boltzmann, das quânticas de
Bose e Fermi, é necessário lembrar que, na Física Clássica, seria sempre
possível distinguir, em tese, cada partícula que se move numa nuvem (por
sua posição no espaço e por sua quantidade de movimento) sem afetar
seu comportamento. Porém, na Mecânica Quântica não se pode identificá-
-las, pois o princípio de incerteza de Heisenberg impede a observação das
partículas sem alterar seu comportamento. Assim, na Mecânica Quântica,
as teorias não devem depender da possibilidade de identificar partículas
isoladas. Esse é o princípio da indistinguibilidade de partículas. Esse prin-
cípio é o que vai conduzir às diferenças mais flagrantes entre a Mecânica
clássica e a quântica.
A Análise Matemática de, por exemplo, a interação entre duas partí-
culas idênticas, feita a partir da equação de Schrödinger independente do
tempo (vide item e deste capítulo), aparentemente seria contraditória com
o princípio de indistinguibilidade, pois seria necessário indicar cada uma
das partículas por meio de índices correspondentes a respectivas coordena-
das espaciais. Entretanto, pode-se chegar a soluções que não se modificam
com a permutação desses índices. Isso permite a expressão de uma solução
da equação de Schrödinger para a interação entre duas partículas idênticas
constituídas por duas combinações lineares de autofunções. Uma delas é
chamada simétrica e a outra antissimétrica. Verifica-se que, na autofunção
antissimétrica as duas partículas não podem estar no mesmo estado quân-
tico. Portanto, lembrando o princípio que Pauli enunciou em 1925: “em

420
um átomo multieletrônico nunca pode haver mais de um elétron ocupando
o mesmo estado quântico”, chega-se à conclusão que a interação entre
elétrons deve obedecer a autofunção antissimétrica. Mais tarde, verificou-
-se que essa condição estende-se ao pósitron, ao próton, ao nêutron e ao
méson. Fermi desenvolveu sua estatística em base aos dois princípios: o
de indistinguibilidade e o de exclusão (de Pauli). Ela é adequada, portanto,
às partículas que obedecem a autofunção antissimétrica, as quais vieram a
ser chamadas de férmions.
Por outro lado, a estatística de Satyendra Nath Bose, embora baseada na
indistinguibilidade das partículas idênticas não cogita do princípio de exclu-
são. Na solução da equação de Schrödinger, chamada autofunção simétrica,
não há a exigência de exclusão de partículas de mesmo estado quântico.
Verificou-se que as partículas α, os mésons e os fótons são de comporta-
mento experimentalmente descrito de acordo com autofunções simétricas.
São, portanto partículas que obedecem a distribuição estatística de Bose.
São chamadas de bósons em homenagem ao criador dessa estatística.
Aplicando-se a estatística de Fermi à nuvem de elétrons livres, numa
estrutura cristalina como a dos metais, chega-se a exprimir a condutividade
elétrica em termos da energia dos elétrons e, portanto, de sua temperatura
absoluta. Torna-se evidente que a condutividade térmica é associada com
a elétrica e que ambas podem ser expressas em equações semelhantes, em
função da temperatura absoluta. Disso resulta possível a expressão mate-
mática da relação entre as duas condutividades, em função da temperatura
do metal. Na temperatura ambiente normal, essa relação pode ser medi-
da experimentalmente para vários metais. Essas medidas correspondem
exatamente aos valores calculados teoricamente. Assim, os princípios da
Mecânica Quântica, aplicados à Física do Estado Sólido, foram verificados
e confirmados experimentalmente.
Note-se que, pela análise quântica do fenômeno em questão, o movi-
mento dos elétrons livres deve ser interpretado também como propagação
de ondas, semelhantes às ondas luminosas e, portanto, propagando-se em
linha reta. Haverá uma interação dessas ondas com os átomos fixos, nos
vértices ou centros das células retículos dos metais, consequentemente
esses passam a vibrar, contribuindo tanto na condutividade elétrica quan-
to térmica dos metais. Assim, a condutividade das ligas metálicas é me-
nor que a dos metais puros, pois o reticulado atômico dessas é irregular
ao que corresponderá um aumento da resistência elétrica.
Considerem-se agora os sólidos não metálicos, como aqueles cuja li-
gação molecular é iônica – por exemplo: o sal de cozinha cuja molécula

421
mantém uma ligação do íon positivo (Na+) fixo num dos vértices de reti-
culado cristalino, com o negativo (Cl-) no outro, mantendo seus elétrons
fortemente ligados aos núcleos –, ou aqueles cuja ligação é chamada de
covalente porque seus átomos ligam-se fortemente entre si por participa-
ção mútua de elétrons (por exemplo, o diamante cujos átomos de carbono
têm quatro elétrons da camada mais externa, a camada de valência, que são
compartilhados com outros átomos, formando um reticulado fortemente
ligado). Esses tipos de ligações atômicas não permitem a existência de elé-
trons livres. Portanto tais substâncias não são condutoras de eletricidade
ou de calor. São isolantes.
Entretanto, há materiais intermediários entre os isolantes e os con-
dutores. São os semicondutores que adquiriram importância tecnológica
considerável quando vieram a ser utilizados nos dispositivos eletrônicos
para controlar, amplificar e retificar correntes elétricas, como é o caso dos
transistores. Os semicondutores (tais como o silício e o germânio) mos-
tram uma condutividade intrínseca que se forma quando, por motivo de
uma eventual impureza em sua massa, elétrons conseguem libertar-se de
suas ligações atômicas. Então, não só esses elétrons conduzem eletricida-
de como também, os lugares onde eles estavam fixos, passam a funcionar
como “vazios eletrônicos”. Quando um campo elétrico é aplicado ao ma-
terial semicondutor, elétrons podem se mover para esses vazios, deixando
livres seus lugares. Assim forma-se como que uma corrente positiva em
sentido oposto ao dos elétrons. Há impurezas nos semicondutores que fa-
zem prevalecer as cargas negativas (elétrons) e em outros, as positivas
(vazios). É fácil ver que se dois desses semicondutores forem postos em
contato e seu conjunto submetido a potenciais elétricos alternados, eles
funcionarão como retificadores de corrente.
A distribuição probabilística de Fermi dos estados eletrônicos dos ma-
teriais covalentes, além de sugerir o que foi dito, mostra que a condutivi-
dade aumenta rapidamente com a temperatura e que a corrente é tanto uma
função do potencial aplicado quanto da direção do mesmo, sendo que para
os potenciais positivos ela cresce, mas para os negativos, ela mantém-se
em valores muito baixos. Isto confirma a função retificadora dos semicon-
dutores, já mencionada.
Evidentemente há uma interconexão entre fluxo eletrônico e luz. Daí a
semelhança entre fenômenos termiônicos e fotoelétricos, cujas expressões
matemáticas contêm o valor do trabalho de extração dos elétrons, necessá-
rio para vencer a diferença de potencial entre o interior e o exterior dos me-
tais. Contudo, há uma diferença prática entre os dois porque as substâncias

422
em que ocorrem as correntes fotoelétricas em geral se fundem com o calor
das correntes termiônicas. Por outro lado, as substâncias que suportam o
calor termiônico sem se fundir, como o tungstênio, não são sensíveis à luz.
Os semicondutores são sensíveis à fotoexcitação, pois, neles, a energia ne-
cessária para fazer um elétron soltar-se dos átomos é equivalente à dos fó-
tons da região do vermelho e infravermelho do espectro luminoso. Assim,
os semicondutores puros são também fotocondutores, isto é sua conduti-
vidade é nula quando não há luz e aumenta com a intensidade luminosa.
Os materiais não estruturados são chamados de amorfos. Eles são es-
sencialmente os gases, os líquidos e os vidros. Os materiais cerâmicos
são compostos de substâncias metálicas e não metálicas, eventualmente
em conjunto com amorfos. Evidentemente suas propriedades não podem
ser equacionadas pela Física do Estado Sólido. Na disciplina tecnológi-
ca, denominada Ciência dos Materiais, essas propriedades são explicadas
qualitativamente. No campo da Física pura, há um esforço em analisar,
com o auxílio das suas teorias matemáticas, as propriedades dos materiais
amorfos, abordando sua estrutura microscópica e macroscópica em base a
considerações atômicas e eletrônicas210. Entretanto, tais tentativas, embora
muito promissoras, estão ainda em seu início.
A finalidade deste esboço sumário das ciências dos materiais é simples-
mente a de procurar tornar plausível a ideia de que o principal escopo das
ciências modernas, pelo menos daquelas que objetivam a região da reali-
dade correspondente à natureza inorgânica, é o de expressá-la por meio de
equações matemáticas. Em outras palavras: falar da natureza inorgânica
por meio de símbolos matemáticos seria o escopo de algumas das ciências
da natureza.
Procurou-se mostrar, no capítulo anterior, que um dos ingredientes
dessa natureza inorgânica, a energia, pode ser expressa basicamente pelas
equações básicas das Mecânicas Analítica e Estatística e pelas equações de
Maxwell. Neste capítulo, procurou-se mostrar que a Mecânica Quântica já
conseguiu expressar matematicamente as propriedades da matéria sólida
por meio da Física do Estado Sólido e está em vias de conseguir algo se-
melhante no que se refere ao estado amorfo da matéria.
É verdade que a ciência moderna renunciou a qualquer indagação sobre
o significado da realidade última, quer da natureza quer da cultura. Assim
não compete à ciência indagar se os símbolos matemáticos simplesmente
210 ELLIOT, S. R. Physics of Amorphous Materials. Nova York: John Wiley & Sons,
1984. (Longman Scientific and Technical).

423
referem-se à realidade, se a substituem ou se, de uma certa forma, são a
própria realidade. Qualquer que seja a resposta a esse tipo de questões, a
ciência da natureza inorgânica permanecerá a mesma. Entretanto, o inte-
lecto humano não se satisfaz com essa renúncia do conhecimento científi-
co sobre o significado da realidade última. Essa é a questão a ser abordada
nas conclusões deste livro.

424
XI – CONCLUSÕES GERAIS

a) Da Análise Matemática à computação eletrônica


O processo da matematização da natureza não poderia ter-se dado
se não houvesse simultaneamente um progressivo desenvolvimento das
teorias, métodos e processos de cálculo. Se, por um lado, os fenômenos
naturais vieram progressivamente sendo representados por equações ma-
temáticas, por outro, a Matemática foi evoluindo de forma a ser capaz de
expressá-los ou de apresentar formas adequadas para servir-lhes de mode-
los.
Conforme se tentou mostrar neste livro, esse progressivo desenvolvi-
mento tornou-se possível e pertinente desde o momento em que a Matemá-
tica, no século VI a.C., foi concebida como teoria, isto é pensada a partir
de formas unitárias, coerentes e verdadeiras ou falsas independentemente
de suas aplicações empíricas. Somente como teoria é que a Geometria e
a Aritmética puderam aparecer, no pitagorismo, como conhecimento con-
templativo da realidade expressa pelas perfeições e harmonias dos núme-
ros e figuras geométricas. É verdade que persistiam ainda os seus aspec-
tos técnicos, como ocorre até hoje, mas, a teoria matemática, como visão
da harmonia que preside a realidade substancial dos fenômenos naturais,
estabeleceu-se então.
Foi visto, ainda, que a esse caráter contemplativo da teoria veio se so-
mar o de conhecimento, demonstrável pela razão humana, a partir de prin-
cípios evidentes por si mesmos, consubstanciado no sistema axiomático
da Geometria de Euclides, já quando o centro da cultura ocidental passava
de Atenas para Alexandria. Depois dessa época, a Matemática adquiriu,
com Archimedes, Erastóstenes e, por fim, Ptolomeu, o papel de intérprete
das aparências dos fenômenos. Tratava-se, por exemplo, de interpretar que
os astros não descrevem órbitas perfeitamente circulares, como requeria
a teoria. O sistema de combinações de órbitas circulares em epiciclos e
deferentes, “salva” as aparências enganosas dos fenômenos, tornando-as
consistentes com a teoria.
Os árabes, depois de saciados das suas conquistas, absorveram a cultu-
ra helenística, por meio de traduções, entre elas, a do tratado de Ptolomeu:
megale syntaxis sob o nome arabizado de almagesto. Foi por intermédio
dessa tradução que a matematização dos céus chegou ao Ocidente.

425
Ptolomeu é também o autor de uma geografia pela qual a Terra é in-
terpretada matematicamente como esfera dividida em coordenadas geo-
gráficas: meridianos e paralelos, pelos quais se pode determinar a posição
na Terra, em base à posição dos astros nos céus. Foi esse o início da ma-
tematização da Terra. Embora tenha sido esquecido na Idade Média, foi
esse livro que transferiu a matematização helenística da Terra ao Ocidente,
pois um original da geografia, de Ptolomeu, chegou à Europa no século
XV, trazido pelos sábios que fugiam de Constantinopla, conquistada pelos
turcos.
É possível que um manuscrito da geografia tenha chegado às mãos
de D. Henrique, o Navegador. Assim, teria ele sido a base de referências
para as navegações ibéricas. Paralelamente às navegações há, na época,
um notável desenvolvimento da Álgebra e da Trigonometria de origem
árabe. Esse desenvolvimento, a par com o da cartografia e da Astronomia
de Posição, é o que permitiu o estabelecimento da atual imagem matema-
tizada do globo terrestre.
Durante o Renascimento, reaparece a ideia grega das perfeições har-
moniosas do mundo e dos céus, o que leva à Perspectiva, como instrumen-
to capaz de revelar os segredos da natureza, como pensava Leonardo da
Vinci na Pintura, e Brunelleschi na Arquitetura. Neles domina a opinião de
que não há certeza enquanto não intervém a Matemática, mas, para eles,
Matemática é contemplação de harmonias. Kepler, por exemplo, está mais
preocupado com as harmonias das órbitas celestes que com as leis que
determinam seus movimentos.
Mas, foi Galileu, que rompendo com essa atividade contemplativa,
inaugura o papel da Matemática no mundo moderno como análise dos
fenômenos naturais. Porém, foram Descartes, Newton e Leibniz que tor-
naram a Matemática abrangente como representação desses fenômenos.
Descartes, pela criação da Geometria Analítica, por meio da qual determi-
na posições, dimensões e extensões espaciais, que para ele eram a própria
substância do mundo material; Newton e Leibniz possibilitando, com o
Cálculo Infinitesimal, a Análise Matemática do próprio movimento. Foi
com a Geometria e rudimentos do Cálculo Infinitesimal que Newton foi
capaz de matematizar o fenômeno da gravitação universal e, ao mesmo
tempo, estabelecer as bases da Mecânica Racional, a partir de três únicos
axiomas envolvendo as noções de força, massa e aceleração.
Entretanto a Matemática do tempo de Newton não estava ainda apta
para a completa matematização da natureza. Foi o trabalho de Euler que
aperfeiçoou e deu rigor ao Cálculo Diferencial e Integral, tornando-o pos-

426
sível de servir como instrumento, nas mãos de Lagrange e Laplace, para
matematizar, com o auxílio de equações diferenciais da Mecânica Racio-
nal, o movimento dos astros no céu, e dos corpos inorgânicos na Terra.
Surgiu, assim, a ideia da natureza como máquina, regida pelas leis mate-
máticas da Mecânica Racional e, com ela, o ateísmo mecanicista.
Por outro lado, a preocupação em tornar matematizável o jogo e o com-
portamento livre dos homens, levou os ateístas da época a conjeturar que
a única explicação da existência do mundo e de seu movimento seria a do
puro acaso. Entretanto, não foi isso que levou Laplace a escrever sua teoria
das probabilidades. Deve-se lembrar que Laplace era um determinista e as
probabilidades, para ele, tinham o sentido de possibilitar a análise dos fenô-
menos nos quais, devido à ignorância humana, não se conheciam todos os
dados e causas. Devia-se, então, procurar, entre as várias causas possíveis,
a mais provável. Introduziu-se então, para o conhecimento da natureza, ao
lado da Análise Matemática, o Cálculo das Probabilidades e a Estatística.
Com a análise dos fenômenos do calor e das máquinas térmicas, feitas
na primeira metade do século XIX, ficou claro que toda energia trans-
forma-se, porém, mantendo constante seu valor total. Entretanto, sempre
haveria dissipação de energia calorífica no ambiente, a qual seria impos-
sível de ser aproveitada. Clausius introduziu o conceito de entropia, como
medida desse processo de dissipação da energia. Num ciclo reversível, a
entropia seria nula, mas, na natureza, não há ciclos reversíveis, portanto, a
entropia sempre aumenta. À essa altura já se podia entender o calor como
um fluxo de moléculas que corria da caldeira para o condensador nas má-
quinas térmicas.
Cada uma das moléculas de um corpo obedeceria às leis determinísticas
da Mecânica, mas o comportamento da multidão de moléculas movendo-se
e chocando-se entre si, não poderia ser determinado por leis exatas. Max-
well mostrou que esse fluxo dá-se segundo leis probabilísticas e Boltzmann
demonstrou que a entropia era expressa pela probabilidade do estado mo-
lecular desordenado. Assim, as probabilidades passaram a ser entendidas
como expressões matemáticas de certos fenômenos da natureza.
Desta forma, no final do século XIX, a matematização da natureza
inorgânica atingia forma bastante abrangente, porém divididas em três
campos. No primeiro, os fenômenos mecânicos rigorosamente expressos
por equações determinísticas de Laplace ou de Hamilton; no segundo, as
equações de Maxwell, exprimiam os fenômenos eletrodinâmicos. Havia
um terceiro, no qual se encontravam as equações probabilísticas, expres-
sando os fenômenos de energia calorífica.

427
Acontece, porém, que essas equações, geralmente postas em forma
diferencial, na maior parte das vezes, não admitiam soluções analíticas
simples. Entretanto, a necessidade de calculá-las tornava-se cada vez mais
premente. Nas ciências puras era necessário comparar suas soluções parti-
culares com resultados de experiência. Nas tecnologias tinha de se chegar
aos resultados objetivos exigidos pelo caráter prático dos problemas tecno-
lógicos. Isso exigia a procura de simplificações que desmentiam o caráter
rigoroso que as Matemáticas tinham adquirido. Tornou-se mesmo possível
a solução de equações matemáticas por processos empíricos, baseados em
experiência pessoal.
Por outro lado, as condições de contorno dos fenômenos naturais eram,
em geral, de tal maneira complexas que não poderiam ser expressas em
simples limites de validade das equações. Daí a necessidade de esquema-
tizar os fenômenos, reduzindo-os a casos simples capazes de satisfazerem
tais condições de limites. Apareceram, então, os métodos numéricos e grá-
ficos (como o da rede de fluxo) para resolver equações diferenciais, em seus
contornos particulares. É possível que tais processos tenham tido origem
nos métodos de interpolação de valores em tabelas de variáveis. Por exem-
plo, a interpolação em tabelas de logaritmos para os cálculos astronômicos,
que tinha de ser precisa. Um exemplo de cálculo numérico deve-se a New-
ton, com o seu processo interativo de determinação das raízes reais de poli-
nômios de grau n. A partir de uma aproximação inicial do valor de uma raiz
real do polinômio p(x), Newton elaborou um processo de cálculos suces-
sivos (algoritmo). Uma vez obtida uma raiz real o polinômio era reduzido
ao grau n-1 e recomeçava-se a procura de outra raiz pelo mesmo processo.
Por outro lado, o crescente sucesso da aplicação da Matemática à so-
lução de problemas tecnológicos e econômicos levou ao desenvolvimento
da Matemática Aplicada. Um dos mais bem-sucedidos processos desen-
volvidos recentemente para tais fins é a Análise de Sistemas. Essa é capaz
de abordar racionalmente problemas amplos e complexos que aparecem
na Engenharia e na Econometria. Chama-se sistema, nesse contexto, um
conjunto numeroso de problemas inter-relacionados visando uma mesma
finalidade e que desafiam solução imediata. A Análise Matemática de tais
sistemas foi desenvolvida a partir da quantificação de parâmetros dos vá-
rios problemas ou por meio de observação direta, técnicas de mensuração
e ensaios tecnológicos, ou por meio de métodos estatísticos. A Análise
de Sistema baseia-se, tanto no Cálculo Diferencial e Integral e na análise
matricial, como na estatística. Desenvolve, assim, métodos de análise tais
como a programação linear ou a dinâmica, ao lado de sistemas estocásticos
e teoria matemática dos jogos.

428
Desde muito tempo havia também a preocupação de inventar máquinas
de calcular. Pascal foi o primeiro que projetou, em 1642, a primeira delas,
capaz de somar e diminuir. Leibniz projetou e construiu uma outra que,
além de soma e diminuição, fazia ainda multiplicações e divisões. Muitas
dessas máquinas foram inventadas e construídas a partir de então. Porém, a
calculadora mecânica mais comentada é a inventada por Charles Babbage
(1792-1871), matemático que ocupou, por certo tempo, a própria cadeira
de Newton em Cambridge. Em 1812, Babbage já construíra uma pequena
calculadora. A vista do sucesso dessa máquina, conseguiu uma subvenção
do governo inglês para projetar uma máquina capaz de resolver problemas
matemáticos complexos. Em 1834, estabeleceu os princípios aos quais as
máquinas calculadoras deveriam obedecer, isto é a capacidade de efetuar
qualquer operação matemática, segundo instrução fornecida por meio de
cartões perfurados. Além disso, dispor de um dispositivo que permitis-
se memorizar números e instruções. Ora, esses são os princípios que se
aplicam aos modernos computadores eletrônicos. Entretanto, naquele tem-
po a tecnologia era ainda incapaz de permitir a elaboração das delicadas
peças mecânicas que permitissem tais funções. Apesar da Royal Society
recomendar a continuação dos auxílios governamentais a Babbage, esses
foram interrompidos em 1842 e sua máquina não foi completada.
As conexões mecânicas para o cálculo, na máquina de Babbage, fo-
ram substituídas por conexões elétricas, através dos furos dos cartões per-
furados, de uma máquina inventada por Herman Hollerith em 1889. Os
catões perfurados já tinham sido utilizados, no princípio do século XIX,
por Joseph-Marie Jacquard, num sistema para controlar a operação de má-
quinas de tecelagem, mas foi Hollerith que teve a ideia de utilizar os furos
dos cartões para estabelecer ligações elétricas, com as quais efetuar-se-iam
operações aritméticas. Em 1911, Hollerith fundou a Computing Tabulating
Recording Company que mais tarde tornou-se a famosa International Bu-
siness Machines Corporation, a IBM.
Porém, o início dos computadores modernos deu-se em 1939, quando
Howard Aiken, associado a IBM, projetou e construiu uma máquina com-
putadora inteiramente automática, a Mark I, na Universidade de Harvard.
Essa máquina era capaz de efetuar as quatro operações aritméticas. Os da-
dos eram fornecidos por meio de cartões perfurados e as respostas vinham
por meio de uma máquina datilográfica elétrica. Mas o primeiro computa-
dor inteiramente eletrônico, foi completado em 1946, na Universidade da
Pensilvânia, por J. Presper Eckert e John W. Mauchly. Era o ENIAC, ten-
do como comutadores válvulas termoiônicas, mil vezes mais rápidas que
os, até então correntes, comutadores eletromecânicos. No mesmo ano, em

429
Harvard foi montado um computador eletrônico a válvulas termoiônicas,
o primeiro capaz de larga abrangência.
As válvulas termoiônicas seriam como comutadores de circuitos elé-
tricos fechando-os ou abrindo-os com espantosa velocidade. Um circuito
aberto corresponderia a uma resposta positiva, interpretada como o núme-
ro um. O circuito fechado era a resposta negativa, interpretada com o nú-
mero zero. Ora, os matemáticos já tinham mostrado que somente com es-
ses dois números seria possível estabelecer todo o sistema da numeração.
Era o sistema binário, cuja base em vez de 10, como no sistema corrente
era somente um. Assim, teríamos: 0 e 1, 10 (para 3), 11 (para 4), 100 (para
5), 110 (para 6), e assim por diante. Era, portanto, com esse sistema binário
de numeração que as máquinas efetuariam as operações aritméticas.
Talvez por uma feliz coincidência, o sistema binário de numeração
adotado para os computadores permitiu a eles uma certa capacidade de
raciocínio artificial. Pois, quando o matemático e lógico inglês George
Boole (1815-1864) publicou, em 1854, o seu an investigation of the
laws of thought, abriu-se uma curiosa interligação entre a Álgebra e a
Lógica. Boole mostrou que havia uma analogia entre os símbolos positivo
e negativo da Álgebra com os qualificativos verdadeiro ou falso da Lógica
Simbólica. Assim, seria possível, nos computadores, uma “mecanização”
da Lógica, ao operarem no sistema binário: 0 e 1, por meio da ligação-
-desligação de circuitos elétricos. O conectivo OU da Lógica assimilava-
-se à soma, e o conectivo E, à operação de multiplicação: OU quando dois
circuitos são ligados em paralelo e E, quando em série.
É curioso notar ainda que Boole foi um dos divulgadores do Cálculo
Numérico, com seu livro a treatise on the calculus of finite differen-
ces, publicado em 1860, mas que permaneceu como o livro de texto mais
conhecido, sobre o assunto, até o início do século XX. Isto mostra como a
nova Matemática, enfatizando mais o cálculo que a análise dos fenômenos
naturais, já vinha preparando o caminho para a computação eletrônica.
Em 1947, o matemático da Universidade de Princeton, John von Neu-
mann (1903-1957), projetou um método para conferir aos computadores
a capacidade de se autoprogramarem, isto é: trazerem de suas memórias
indicações sobre as operações que deveriam realizar. Antes disso, era ne-
cessário ajustar manualmente as conexões dos computadores para resolver
um determinado programa. Assim, von Neumann imaginou um controle
central que recebia instruções codificadas numericamente e guardava-as
na memória. Esse novo dispositivo de programas, guardados na memória
do computador, tornou possível uma automodificação dos programas por

430
meio de instruções aritméticas. Dessa forma, von Neumann projetou um
computador, o EDVAC, que poderia guardar na memória não só os dados
numéricos do programa mas, também as instruções de como operá-los.
Entretanto, o sistema de válvulas termoiônicas era muito incômodo.
Primeiro porque exigia, dado o grande número de válvulas necessário, um
grande espaço para os computadores. O de Harvard ocupava todo um edifí-
cio. Segundo porque eram necessárias trocas frequente de válvulas, devido
ao calor gerado por todas elas. Somente com a invenção dos transistores
é que foi possível construírem-se computadores eletrônicos de tamanho
pequeno e de duração mais conveniente.
Um exemplo comum de problema a ser resolvido pela computação ele-
trônica é o de um fenômeno expresso por uma equação diferencial básica.
Divide-se o intervalo da função que abrange o fenômeno em questão em n
partes iguais da variável independente. Calcula-se, pelo método das dife-
renças finitas, as derivadas da função que intervêm na equação diferencial,
nos pontos médios ou extremos de cada intervalo anteriormente dividido.
Dessa maneira, consegue-se armar um sistema de n equações lineares a n
incógnitas. A tarefa do computador será então a de resolver esse sistema
de equações.
Como já foi mencionado, antes mesmo da invenção do computador
eletrônico, os matemáticos tinham desenvolvido métodos de cálculo de
sistemas de equações lineares a várias incógnitas. Entretanto, prevaleceu
o método das matrizes, pois um sistema de equações lineares pode ser re-
duzido a uma equação matricial: a matriz das funções é igual à matriz dos
coeficientes das equações multiplicada para matriz das incógnitas. Ora,
como a Álgebra das matrizes corresponde ao cálculo numérico de determi-
nantes, a solução de equações lineares é perfeitamente programável para a
computação eletrônica. Posteriormente ao aparecimento dos computado-
res eletrônicos, apareceram vários métodos que simplificavam as opera-
ções de cálculo, porém, em essência, o método matricial não mudou.
Com o computador eletrônico em plena operatividade, iniciou-se uma
nova era na história da Matemática. Esgotou-se a era da Análise Matemá-
tica dos fenômenos naturais e tecnológicos e iniciou-se a da sua compu-
tação. Já foi visto que a própria Matemática já se vinha adaptando à nova
situação pelo desenvolvimento do Cálculo Numérico, mas foi o computa-
dor que deu maior razão de ser a esse cálculo e propiciou o seu desenvol-
vimento e estudo apurado. Aperfeiçoaram-se assim os métodos das dife-
renças finitas, das equações integrais e apareceram, predominantemente
nos problemas tecnológicos, o método dos elementos finitos e o dos ele-

431
mentos de contorno. Veio, também, a predominar o conceito de algoritmo,
como um conjunto completo de operações para a solução numérica de um
problema. O Cálculo Numérico veio a ser estudado em conjunto com o
conceito de algoritmo e a programação do computador, com os respecti-
vos fluxogramas211. Porém, o resultado dessas operações numéricas não é
exato, embora haja sempre uma precisão requerida, daí a necessidade de
analisar os erros envolvidos e sua correção.
O uso de computador não se restringe a simples cálculos numéricos. É
possível programá-lo para analisar fenômenos naturais e problemas tecno-
lógicos em condições e contornos complexos, heterogêneos e descontínuos,
aliados a comportamentos não lineares, dinâmicos etc. Esses fenômenos
agrupam-se geralmente em sistemas, isto é, em conjuntos de componentes
ou processos inter-relacionados de forma a contribuírem para uma mesma
finalidade. Para sua análise, utilizam-se os processos chamados simulação.
A simulação consiste na representação de um fenômeno, sistema ou
processo, por meio de modelos que tanto podem ser físicos quanto mate-
máticos. Esses últimos é que podem ser processados pelos computadores.
Eles serão representados por um conjunto de equações diferenciais basea-
das em leis determinísticas ou por um modelo estatístico relacionando va-
riáveis aleatórias. Mas o que caracteriza a simulação é que os parâmetros
de suas equações poderão ser reajustados pela observação do comporta-
mento do próprio fenômeno, num processo de retroação entre computação
e observação.
A simulação tem sido muito utilizada para a análise de fenômenos que
desafiam a análise e que estão longe de uma experimentação imediata,
como é o caso, por exemplo, das questões de astrofísica e Cosmologia.
Também é utilizada para a análise de fenômenos complexos da natureza
ou da cultura como os da Geologia ou da Economia.
Nas tecnologias, a simulação vem encontrando amplos campos de apli-
cação, por exemplo, o do projeto de aproveitamento múltiplo dos recursos
hidráulicos de uma região: aproveitamento hidroelétrico em conjunto com
irrigação e navegação.
Com as técnicas de simulação e a computação eletrônica, a matema-
tização da natureza estendeu-se enormemente, vindo a expressar fenôme-
nos de extrema complexidade, por meio de modelos matemáticos, isto é,
representando-os de forma tal que os processos e interações envolvidos
chegam a assemelhar-se aos dos próprios fenômenos naturais.
211 CONTE, S. D. Elementos de Análise Numérica. Porto Alegre: Globo, 1975.

432
b) A complexidade dos fenômenos naturais e o caos
Um dos resultados da computação eletrônica é o da possibilidade do
cálculo numérico dos fenômenos que, por sua extrema complexidade, não
podiam anteriormente ser calculados matematicamente. Assim, o compu-
tador veio desempenhar um papel essencial no estudo dos fenômenos caó-
ticos tão comuns na natureza. Com isso, a atenção dos cientistas voltou-se
para o estudo dos fatores que implicam a turbulência e a imprevisibilidade
de certos fenômenos naturais, da hipersensibilidade a pequenos desvios
de suas condições iniciais à imprevisibilidade das ocorrências finais num
fenômeno constituído por um conjunto muito grande de subfenômenos
determinísticos, cujas indeterminações estão ligadas à extrema irregula-
ridade dos contornos do fenômeno ou à pura e simples interveniência do
acaso em fenômenos complexos.
Um modelo simples de hipersensibilidade às condições iniciais poderia
ser, por exemplo: uma bolinha rolando sobre uma superfície ligeiramente
inclinada, na qual haveria vários obstáculos. A bolinha bate num primeiro
obstáculo e se desvia indo bater num segundo e assim por diante. Quando
existe um número muito grande de obstáculos, qualquer pequeno e imper-
ceptível desvio da posição inicial da bolinha corresponderá a desvios cada
vez maiores a cada obstáculo. Assim, a trajetória final da bolinha será tanto
mais indeterminada quanto maior for o número de obstáculos ultrapassa-
dos por ela. Diz-se que um fenômeno é hipersensível às condições iniciais
quando as sucessivas variações de sua decorrência crescem exponencial-
mente (dobram em cada variação unitária).
Um outro modelo é o do caso de fenômenos constituídos por um gran-
de número de subfenômenos determinísticos. Um bom exemplo seriam
pêndulos pendurados uns nos outros. O primeiro pêndulo oscila segundo
lei determinística, a oscilação do segundo, já é mais complicada, o ter-
ceiro, ainda mais, e assim por diante. A oscilação do n-ésimo pêndulo (n
tendendo para o infinito) seria imprevisível, embora cada um dos pêndulos
oscile segundo leis determinísticas.
Da mesma forma, cálculos compreendendo sucessivas iterações de
equações simples levam a resultados imprevisíveis. Um interessante exem-
plo de tais cálculos foi relatado por Ian Stewart, em seu conhecido livro
de divulgação sobre o caos212. É sobre a iteração das soluções da equação
y = 2x2 - 1. Isto é: efetuando-se o cálculo do valor de y dando-se um certo
valor para x e depois, sucessivamente, aplicando os valores encontrados
212 STEWART, Ian. Será que Deus joga dados? A nova matemática do caos. Tradução:
Maria Luiza X. de A. Borges. Rio de Janeiro: Jorge Zahar, 1991.

433
para y em x. Continuando esse cálculo indefinidamente, obtém-se uma sé-
rie de números sem ordem aparente e cada vez mais desordenados quanto
maior for o número de iterações. Pois bem, se tomarmos como valor inicial
o número x = 0,54321 obteremos uma série de números aleatórios. Porém,
se tomarmos como valor inicial x = 0,54322, muito próximo do primeiro,
a série obtida é diferente da primeira, afastando-se drasticamente dela à
medida que cresce o número de iterações.
Mas isto não diz respeito somente a equações simples, como a do
exemplo acima. Há equações diferenciais que podem representar fenôme-
nos naturais que têm as propriedades de hipersensibilidade às condições
iniciais e que levam a soluções correspondentes a trajetórias desordenadas,
alternando periodicidade com aperiodicidades. É o caso da trajetória de
Hipérion, um dos satélites de Saturno que periodicamente entra num movi-
mento desordenado, em cambalhotas, para depois voltar a um movimento
regular.
Os fenômenos meteorológicos são exemplos desse tipo de indetermi-
nação não só porque são hipersensíveis às condições iniciais observadas
pelos meteorologistas, como pela multiplicidade de “obstáculos” que mo-
dificam exponencialmente o seu desenvolvimento. Por meio de observação
direta ou por informações de satélites, determinam-se a pressão barométri-
ca, a temperatura, a pluviosidade e a direção dos ventos em vários pontos
de uma região. Com esses parâmetros iniciais, processa-se em computador
um programa de simulação para prever a evolução de tais parâmetros ao
correr do tempo. Porém, aí intervém a questão da hipersensibilidade às
condições iniciais e a multiplicidade de obstáculos. É essa a razão porque
as previsões meteorológicas, mesmo quando são calculadas por computa-
dores, falham tanto e, no máximo, podem ter validade de alguns dias.
Por volta de 1960, um meteorologista com amplos conhecimentos de
Matemática, Edward Lorenz, desenvolveu, no MIT (Massachusetts Insti-
tute of Technology), uma teoria matemática que poderia ser aplicada nos
fenômenos meteorológicos213. Tal artigo foi ignorado pelos meteorologis-
tas durante muito tempo até que, com o advento dos estudos sobre os fe-
nômenos caóticos e o reconhecimento que muitos eventos meteorológicos
são desse tipo, esse artigo passou a ser considerado como básico para o
estabelecimento de uma teoria do caos.
Ele parte da concepção de equações diferenciais não lineares que ex-
pressam o fenômeno de fluxos hidrodinâmicos forçados, além do limite de
213 LORENZ, Edward. Deterministic Nonperiodic Flow. Journal of the Atmospheric
Sciences, v. 20, 1963.

434
escoamentos regulares. Essas são resolvidas por iteração, isto é, partindo-se
de estados iniciais e chegando-se a soluções que descrevem estados próxi-
mos futuros e depois, aplicando-se a própria solução para calcular estados
posteriores e assim por diante. Verificou-se que aparecem séries de soluções
não periódicas extremamente dependentes de pequenas variações dos parâ-
metros indicadores dos estados iniciais. Esses longos cálculos tornaram-se
possíveis graças à utilização de computadores eletrônicos.
O tipo mais simples das perturbações atmosféricas é o chamado fenô-
meno de convecção, isto é, a ascensão do ar aquecido pelo calor da terra,
indo formar as nuvens de tempestades. Muitas vezes essa ascensão de ar
é não estacionária, indo formar turbulências atmosféricas. O estudo desse
fenômeno já era anterior ao de Lorenz, mas foi ele que o matematizou em
sistemas de equações diferenciais de três variáveis, por exemplo: tempera-
tura, pressão e umidade, a serem calculadas numericamente por iteração,
por meio de computadores. Com essa teoria, Lorenz traçou um gráfico
mostrando três mil iterações calculadas numericamente cujas oscilações
cresciam consecutivamente até virem a se tornar caóticas.
De conjeturas como essas, surgiu a teoria do caos que trata de fenôme-
nos cuja evolução depende da hipersensibilidade das condições iniciais e
nos quais se observam variações aleatórias devido à conjugação de uma
infinidade de subfenômenos determinísticos. Esses fenômenos não encon-
tram possibilidade de serem estudados analiticamente, porém, podem ser
calculados numericamente, em cálculos extremamente longos, por com-
putadores.
Um fenômeno caótico é o do movimento turbilhonar de fluidos. Por
exemplo, o fluxo d’água jorrando de uma torneira. Quando as velocidades
e volumes são pequenos, o fluxo é regular, porém, à medida que a torneira
é aberta, ele vai se tornando periódico ou irregular, até que atinge a turbu-
lência. Esse fenômeno foi estudado, antes da teoria do caos, pela dinâmica
dos fluidos, chegando-se a equações complicadíssimas. Mas, somente no
final da década de 1970 encontrou-se expressão mais explícita, com os es-
tudos de Mitchell Feigenbaum, a partir da equação denominada, na teoria
do caos, “mapeamento logístico” – cuja forma é a da iteração da fórmula:
xt+1 → kxt ( 1 - xt ) onde xt (variando de 0 a 1) é uma característica de estado
do fenômeno no tempo t. O tempo deve ser marcado em intervalos enume-
rados sucessivamente por números inteiros. O parâmetro k (variando de 1
a 4) é que define as peculiaridades e incorpora os efeitos de retroação do
fenômeno sobre si mesmo. Com k entre 1 e 3 o fluxo não é turbulento e
torna-se estacionário a partir de um certo valor de xt. A partir de k = 3 co-

435
meçam a aparecer valores que se repetem em ciclos de períodos cada vez
maiores. Com k = 3,57 os valores de xt sucedem-se pseudoaleatoriamente,
isto é estabelece-se o caos e o fenômeno torna-se imprevisível. Note-se
que essas ocorrências dependem também do valor inicial de x e, geralmen-
te, o fenômeno é hipersensível a pequenas flutuações desse valor.
Assim, as iterações semelhantes à acima exemplificada dão uma ideia
da geração de fenômenos caóticos a partir de eventos determinísticos, com
hipersensibilidade às condições iniciais. É desse tipo o tão falado “efeito
borboleta”, isto é, o do bater de asas de uma borboleta que, numa deter-
minada situação, poderia ser suficiente para fazer surgir uma tempestade.
Desta forma, os fenômenos caóticos, desordenados, turbilhonares e ca-
tastróficos que ocorrem na natureza inanimada estão sendo matematizados
graças ao novo processo de cálculo que se tornou possível com a compu-
tação eletrônica.
Em meados da década de 1970, Benoît Mandelbrot publicou a sua the
fractal geometry of nature, na qual mostrava que as formas da natu-
reza não são figuras geométricas perfeitas. Disse ele: “As nuvens não são
esferas, as montanhas não são cones, os litorais não são círculos, a casca
das árvores não é lisa e tampouco a luz viaja em linha reta”. Ele tinha cria-
do novos entes geométricos capazes de descrever as formas irregulares da
natureza: “os fractais”. São entes geométricos que mantêm sua estrutura
irregular mesmo quando são traçados em escalas cada vez maiores. Um
exemplo desses entes são os mapas de contorno da costa de uma região geo-
gráfica. Ao aumentar a escala, esses mapas vão mostrar que a configuração
dos acidentes que aparecem num grande golfo, é semelhante a que se irá
mostrar numa baía do interior do golfo e essa é semelhante aos acidentes,
entre dois pontos no interior da baía, e assim por diante. Reciprocamente
uma pequena porção da costa ampliada sucessivamente mostra a estrutura
do próprio litoral. Na análise dos fenômenos naturais, essa similaridade
pode ser estudada pela estatística, com os fractais, como entes matemáti-
cos, essa similaridade torna-se exata. Para medir o grau de irregularidade
e rugosidade de um fractal usa-se o conceito de “dimensão fractal”. Ao
contrário das dimensões associadas à geometria euclidiana que são sempre
números inteiros: 1, 2 e 3, as dimensões fractais podem ser fracionárias.
Por exemplo, a linha da costa ocupa mais espaço do que se fosse uma linha
regular por causa da sua rugosidade, mas também ocupa menos espaço do
que uma superfície. Portanto, sua dimensão deve estar entre 1 e 2.
Com o desenvolvimento das teorias matemáticas do caos e dos fractais
baseadas na computação eletrônica, pode-se esperar que, em breve, a com-

436
pleta matematização dos fenômenos naturais irregulares torne-se efetiva-
mente operacional, como já o é a matematização nos fenômenos naturais
baseados em leis determinísticas ou analisados por métodos estatísticos.
Desta forma, está em vias de se realizar a total matematização da natu-
reza inorgânica. Além disso, as teorias do caos e dos fractais abriram uma
porta para a análise e o cálculo matemático dos fenômenos da natureza viva.

c) Problemas filosóficos da Matemática


Procurou-se mostrar o caráter simbólico dos entes da Matemática Apli-
cada. Isto é, são entes que se interpõem entre os fenômenos da natureza e a
mente que os concebe. Mas, o desenvolvimento da Matemática, desde que
ela tomou o caráter de pensamento teórico, na Grécia clássica, passando
pela Análise Matemática, até o atual Cálculo Numérico e a computação
eletrônica, veio consubstanciar a questão de até onde esses símbolos nu-
méricos e geométricos se confundem com a própria realidade.
De fato esta questão já se prefigurava quando os filósofos gregos tra-
tavam de entender a natureza como physis, isto é: configuração teórica,
única, coerente e verdadeira das aparências enganosas do mundo físico.
Não se trataria da realidade dos próprios símbolos que apareciam nos com-
pêndios, nos ensinamentos dos professores de Matemática e nos cálculos
dos cientistas ou engenheiros, mas sim, de uma realidade última que su-
portaria as aparências fenomênicas que se observam no mundo. Isto é, os
entes matemáticos seriam fontes (arché) dessa realidade última.
Foi visto que a Matemática Teórica, criada pelos próprios filósofos
gregos tivera origem na Matemática empírica dos egípcios e babilônicos,
porém era totalmente diferente daquela. Nela havia uma estreita relação
com a Filosofia a respeito da natureza (peri physei). Esse caráter é típico
dos pré-socráticos, porém não se deve esquecer que o último diálogo de
Platão, o timeu, é, também, peri physei. Assim, os filósofos gregos vieram
a entender os entes matemáticos como expressões de uma harmonia uni-
versal que presidia a realidade última. É a concepção pitagórica, adotada
por Platão.
Foi mencionado, no item c do capítulo II, que Julián Marías escreveu
um esplêndido ensaio sobre a evolução da compreensão dos entes mate-
máticos pelos filósofos gregos, desde Tales de Mileto até Proclus. Para
Marías, embora Tales tenha sido criador da teoria matemática, na sua bus-
ca pelo universal e permanente em todas as coisas, foi Pitágoras de Samos
que veio a compreender os entes matemáticos no sentido, acima mencio-

437
nado, de arché da realidade última, isto é, que “os princípios da Matemá-
tica eram os princípios de todas as coisas” (entendendo por princípios da
Matemática, não suas regras lógicas, mas números e figuras). Marías lem-
bra, ainda, que Aristóteles, ao comentar a doutrina pitagórica, mostra uma
dubiedade entre as ideias de que as coisas imitam os números ou que haja
uma identificação dos números com as próprias coisas.
Lembre-se que foram os pitagóricos os primeiros que mostraram que
a corporeidade não é um atributo específico do ser. Há entes, como os nú-
meros e as figuras geométricas, que são incorpóreos. Portanto, é lícito aos
pitagóricos defender a identificação de ambos, principalmente em vista de
certas similitudes entre eles, por exemplo, as proporções numéricas e o
tamanho das cordas da lira. Daí a ideia das harmonias da natureza, como
a realidade última. Assim, para eles, a Matemática é uma visão (teoria) de
entes que são imitados pelas coisas do mundo. A descoberta da incomen-
surabilidade entre os lados e a diagonal de um quadrado pôs em crise o
pitagorismo, porém revelou, com o fato de que o número √2 não é nem par
nem ímpar, a presença do irracional na natureza.
No mesmo item c do capítulo II, procurou-se mostrar como a Mate-
mática grega está relacionada com as metafísicas platônica e aristotélica.
Propôs-se mesmo a hipótese de que a Matemática dos gregos teria servido
como prolegômenos de sua Metafísica. No caso de Platão, pela analogia
de sua doutrina do realismo das ideias, com o caráter simbólico das figuras
geométricas, no de Aristóteles, pelas semelhanças da doutrina da potência
e do ato, com a estrutura postulacional das Matemáticas.
No item b, do mesmo capítulo II, procurando-se dar uma ideia da teo-
ria platônica, lê-se: “seguindo a influência pitagórica, Platão não poderia
deixar de se ter inspirado na perfeição e harmonia das figuras geométricas
para elaborar sua teoria das ideias”. Essas eram reais, existiam realmente
no topos uranos – o mundo das ideias, enquanto que as coisas sensíveis
eram pura imitação delas. Como foi dito, no capítulo citado, o conheci-
mento das coisas sensíveis e das imagens só é atingido pela mente por
conjeturas ou opiniões (doxa). O conhecimento dos entes matemáticos,
como os números e as figuras geométricas, é atingível pela razão discursi-
va (dianóia). Mas os entes matemáticos são percebidos pela sensibilidade,
sendo, assim, intermediários entre a realidade sensível e as ideias.
Portanto, no platonismo, os entes matemáticos são reais, tanto quanto o
são as ideias, imitadas pelas coisas sensíveis e pelos ideais. Um triângulo
não é a figura triangular traçada na lousa ou no papel, é algo que possui
propriedades inteligíveis, independentes do seu traçado. Entretanto, esses

438
entes inteligíveis participam da natureza (physis), como já fora preconi-
zado pelos pitagóricos pela constatação de harmonias, presentes tanto nas
proporções numéricas e geométricas quanto também nos fenômenos natu-
rais. No timeu, Platão discorre como essa participação dos entes matemá-
ticos com o mundo físico (physis) está patente. Conforme já mencionado
aqui, o Demiurgo constrói a physis com os olhos voltados para um modelo
eterno e imutável, criando inicialmente a Alma do Mundo pela combina-
ção, em proporções harmoniosas, de formas puras com aquilo que é pere-
cível. Depois, também misturando, em proporções harmoniosas o um e o
outro, criou o kosmos, esférico e finito, com a Terra no centro e as esferas
celestes em torno.
Em suma, no platonismo, os entes matemáticos, por meio de suas har-
monias, constituem a realidade do mundo físico. As aparências sensíveis
da matéria seriam puras ilusões dos sentidos. Assim, é possível interpretar
o timeu, dizendo que a natureza teria sido construída, segundo formas
geométricas, conforme um modelo perene tendo como materiais de cons-
trução os opostos misturados segundo proporções matemáticas. Essa in-
terpretação, apesar de seu tom poético, domina larga parte do pensamento
científico moderno – principalmente no que toca à atual concepção quân-
tica da matéria, reduzida a equações matemáticas referidas a um espaço
vazio.
Foi Aristóteles quem primeiro descreveu a estrutura do conhecimento
matemático. Ele inicia pela compreensão dos entes matemáticos, separan-
do-os dos objetos sensíveis e expressando-os segundo definições – pelas
quais suas essências são expostas. A partir disso é que se torna possível o
estudo de suas propriedades, possível a partir de noções comuns, com as
quais se constroem axiomas, isto é, afirmações cujo significado é necessa-
riamente evidente por si próprio. A esses axiomas agregam-se os postula-
dos que são verdades que se impõem, porém sugerem a possibilidade de
serem demonstradas, mas que podem ser aceitas sem demonstração. Final-
mente, vem a demonstração de sucessivos teoremas a partir dos axiomas e
postulados anteriormente aceitos ou de outros teoremas já demonstrados,
segundo regras previamente estabelecidas, as quais Aristóteles dá o nome
de regras do silogismo matemático. Essas ideias, que já estão na metafí-
sica, de Aristóteles, são as mesmas com que Euclides elaborou os seus
elementos.
A posição de Aristóteles é contrária à concepção platônica dos entes
matemáticos como reais e separados das coisas sensíveis. Para Aristóteles
as ideias não são separadas das coisas e do que realmente existe, os entes

439
individuais – aquilo que tem existência por si, com seus três elementos:
substância, essência e acidentes. A substância é o sujeito do que se diz
sobre o ente, e a essência é o predicado desse dito. A substância concreta
individual deve compor-se de matéria e forma. Mas, nem a matéria nem a
forma separadamente são entes reais por si.
No trabalho citado, Julián Marías expõe detalhadamente a posição de
Aristóteles, nos Livros I, XIII e XIV da sua metafísica, pela qual conclui
não ser possível a existência dos entes matemáticos separados das coisas
sensíveis, mas nem também nas coisas sensíveis, por conseguinte, têm um
modo próprio de ser. Eles não estão em ato, mas sim em potência nas coi-
sas sensíveis. Diz Marías:
[...] o dado de pedra existe como tal em ato, o cubo não tem uma existência sepa-
rada, mas também não está aí atualmente, ocupando o mesmo lugar que o corpo
sensível, mas existe em potência, por isso a abstração geométrica, mediante a
sua peculiar “tésis” (posição) pode pô-lo como separado, substantivá-lo e fazê-
-lo objeto de consideração.
Outro tanto acontece com o “um” que um dado ente sensível é, e que
permite manejá-lo abstratamente sob o ponto de vista da Aritmética.
Essas ideias filosóficas sobre a Matemática perduram pelo restante no
mundo antigo e por toda a idade média. Somente no século XVII com o
racionalismo de Leibniz e o criticismo de Kant vieram a ser retomadas sob
a visão analítica e crítica do pensamento moderno. Ambos desenvolveram
filosofias da Matemática que perduram como bases das atuais concepções
sobre os fundamentos da Matemática: o logicismo, o formalismo e o in-
tuicionismo. Isto é: especulações filosóficas sobre se os entes matemáticos
são reais, como propriedades das coisas, ou se têm uma existência trans-
cendente, ou se, por outra, são formas da intuição. As duas primeiras posi-
ções originam-se nas ideias de Leibniz e a terceira, nas de Kant.
É verdade que se poderia ainda adotar uma posição pragmática em
relação aos princípios da matemática, admitindo-se que toda a Matemática
seria derivada da noção de número natural e, daí por diante, seria cons-
trução humana. Isto, entretanto, não satisfaz as questões que surgiram no
final do século XIX, com as análises de Georg Cantor sobre os números
transfinitos.
Leibniz (1646-1716) inicia sua filosofia distinguindo, no conhecimento
humano, as verdades de razão e as de fato. As primeiras enunciam algo de
tal forma que não é possível enunciar o seu contrário como verdade. Por
outro lado, as verdades de fato enunciam algo que assim é, mas pode ser

440
de outra maneira. Sua contradição é assim possível. Em outras palavras,
as verdades de razão são necessárias, enquanto que as de fato são contin-
gentes. As primeiras são a priori, isto é, inatas no intelecto humano, as
segundas são resultantes da experiência, por meio da percepção sensível.
Para Leibniz, como racionalista, o conhecimento ideal dá-se mediante pro-
posições enunciando verdades de razão, enquanto que as de fato formam
um conhecimento imperfeito, embora objetivo. Assim, a aquisição de um
conhecimento ideal e, ao mesmo tempo objetivo, dá-se por uma passagem
gradual das verdades de fato para as de razão. Esse trânsito sustenta-se no
princípio da razão suficiente – o qual é uma verdade de razão que enuncia
que qualquer coisa é o que é, devido a uma razão suficiente para sê-lo.
Desta forma, a pergunta sobre a razão de uma verdade de fato pode ser
desdobrada numa série de perguntas sucessivas, as quais levarão a uma
resposta final necessária.
Este ideal leibniziano de pura racionalidade encontra-se na Lógica e
na Matemática pura, teorias constituídas por proposições enunciando tão
somente verdades de razão. Essas proposições constam de sujeito e predi-
cado, em que o predicado está sempre contido no sujeito, e organização em
raciocínio obedecendo as leis da Lógica: a da identidade, a da não contra-
dição e a do terceiro excluído. Isto é: ou são verdadeiros ou são falsos, não
há um meio termo. Por conseguinte, Leibniz é o precursor da ideia logi-
cista da Matemática, no nosso tempo, adotada por Whitehead e Russell 214.
O conhecimento do mundo físico seria, em princípio, inferior ao da
Matemática pura, pois nele ocorrem proposições enunciando fatos. En-
tretanto, esse conhecimento desenvolve-se num esforço de converter, por
meio da aplicação da Matemática, na explicação dos fatos físicos. É a fun-
ção da Matemática Aplicada, por meio da qual se dá o fenômeno da mate-
matização da natureza.
A posição filosófica de Kant (1724-1804) resulta de seu antagonismo
tanto a Leibniz quanto aos empiristas ingleses, mas dirige-se principal-
mente contra Leibniz. Para Kant, existem proposições sintéticas cujos
predicados não estão necessariamente contidos no sujeito e que, portan-
to, trazem conhecimentos novos, porém que são a priori. São essas as
proposições da Matemática – as quais trazem conhecimentos novos que
não estão necessariamente contidos em suas premissas, porém, não depen-
dem da experiência sensível. Assim, a Matemática seria um conhecimento
descrito pelas equações aritméticas ou figuras geométricas, isto é, algo
construído no tempo ou no espaço (lembre-se que, para Kant, o espaço e o
214 WHITEHEAD, A. N.; RUSSELL, B. Principia Mathematica. [S. l.]: Cambridge
University Press, 1962.

441
tempo são formas a priori da sensibilidade nas quais os fenômenos neces-
sariamente se dão).
As proposições da Matemática são construídas pela mente humana, a
partir de premissas intuídas como verdadeiras. Porém não se trata de uma
intuição de natureza sensível ou estética, mas, sim, de algo que brota prati-
camente da própria razão. Há, portanto, nas Matemáticas, necessariamente
uma intuição racional.
Desta forma, os objetos da Matemática pura são as estruturas do es-
paço, como descritas pela Geometria, e as do tempo, como descrita pela
Aritmética, independentemente do seu material empírico. Por outro lado,
as proposições da Matemática Aplicada são a posteriori enquanto se refe-
rem ao material empírico da percepção, porém, a priori quando se referem
ao espaço e ao tempo. Portanto, seu objeto de estudo são as estruturas do
espaço e do tempo em conjunto com o material neles contido.
Em resumo: as ideias filosóficas modernas sobre a Matemática apa-
recem no século XVII com o racionalismo de Leibniz, quando ainda a
ciência moderna estava em elaboração por Galileu, Descartes e o próprio
Leibniz. O empirismo inglês pouco contribuiu para o esclarecimento da
natureza da Matemática. Porém, foi a leitura da crítica de Hume, sobre a
existência de qualquer possibilidade de uma realidade objetiva, que levou
Kant à sua doutrina do idealismo transcendental e, daí, às suas ideias sobre
a Matemática.
Leibniz admitia que as teorias matemáticas partiam de princípios consti-
tuídos por proposições enunciando “verdades de razão”, cujo conhecimento
era inato ao intelecto humano. Dessas “verdades de razão”, cujos predicados
eram necessariamente contidos nos sujeitos, seriam deduzidos, pelas regras
da Lógica, todos os seus teoremas. Porém, Kant procurou mostrar que as Ma-
temáticas não poderiam ser tautológicas porque seus juízos traziam conhe-
cimentos novos, porém, “construídos” pela mente humana a partir de prin-
cípios a priori intuídos pela razão. Dessas ideias de Leibniz e Kant é que se
originam as modernas concepções da Matemática pura como Lógica, como
sistema formal ou como construção intuitiva.

d) A natureza matematizada
Como foi visto, o processo de expressão das leis naturais, por símbolos
matemáticos, está na origem da nossa cultura: no pitagorismo, quando se
percebeu que a harmonia que regia a existência das coisas e dos homens
expressava-se por proporções numéricas. Desta forma, a realidade aórgica

442
do não feito pelo homem, a natureza, passou a ser conhecida e compreen-
dida como teoria, isto é, como visão de uma ordem cuja tendência era a de
expressar-se matematicamente: embora logo se tenha percebido que nela
própria ocorria o irracional, pois, por exemplo, o número √2 que não é par
nem ímpar.
Logo se percebeu, entretanto, que tal processo de matematização só
poderia explicitar-se completamente quando a própria Matemática se de-
senvolvesse a ponto de ser capaz de fazê-lo. Foi quando Galileu percebeu
que o livro da natureza estava escrito em caracteres matemáticos, contudo,
só foi Newton que, pela primeira vez, conseguiu lê-lo. Pois o philoso-
phiae naturalis principia mathematica foi o primeiro tratado, em que o
fenômeno natural do movimento dos astros no céu e dos graves na Terra
foi matematizado. Isto se deu porque a Matemática havia se desenvolvido,
com a Geometria Analítica e com o Cálculo Diferencial e Integral, como
instrumento capaz de analisar os fenômenos naturais. Daí por diante foi
que surgiu a Física como teoria matemática dos fenômenos naturais, en-
volvendo forças e movimentos no espaço-tempo. O mundo foi visto então
como máquina regida pelas leis da Mecânica Racional.
Embora tenha sido bela a reação romântica contra a matematização da
natureza, expressa originalmente pela revolta de Goethe contra a Análise
Matemática da luz, perpetrada por Newton, o processo em questão estabe-
leceu-se definitivamente com a ciência moderna aliada à tecnologia. Com
isso, as atividades práticas envolvendo a natureza, passaram a ser feitas
como se ela fora um conjunto de instrumentos a serviço dos homens. O
mar e também o céu são, agora, rotas marítimas ou aéreas. As florestas ten-
dem a ser parques nacionais; os rios, fontes de energia hidráulica ou vias
navegáveis; as montanhas, locais de veraneio ou alpinismo. É que, como
instrumento, a natureza deve ser apropriada, calculada e contabilizada para
a conservação, manutenção e melhoramentos, como dizem os belos versos
de T.S. Eliot:
Não sei muito dos deuses, mas creio ser o rio
Um forte deus pardo – sombrio, selvagem e intratável,
Paciente até certo ponto, primeiro reconhecido como fronteira
Útil, indigno de confiança como condutor de comércio
Depois somente um problema posto aos construtores de pontes,
Uma vez resolvido o problema, o deus pardo é quase esquecido
Pelos moradores das cidades – entretanto sempre implacável.
É essa instrumentação da natureza que a leva à matematização, pois
o manuseio do instrumento exige o conhecimento exato da ordem a que
ele se subordina. Quando o instrumento é simples: uma faca ou um mar-

443
telo, seu conhecimento e manuseio é imediato, porém, quando se trata de
manejar uma máquina complexa ou operar um instrumento eletrônico, o
conhecimento de como fazê-lo exige um aprendizado completo que, na
maioria das vezes, é facilitado pelo emprego da Matemática. Foi isso que
aconteceu, por exemplo, com as navegações ibéricas, no início dos tem-
pos modernos. Quando as caravelas portuguesas lançaram-se sobre o alto
mar atlântico, a procura do caminho das Índias foi necessário recorrer à
Astronomia de Posição, para demarcar lhes os rumos, e essa teve que ba-
sear-se no desenvolvimento da Geometria e da Trigonometria, as quais
aperfeiçoavam-se, então, na Europa Central. Ora, isso pode dar-se porque
a matematização do céu e da Terra, como esferas, já tinha sido estabelecida
por Ptolomeu, com seu almagesto e sua geografia.
Com o aparecimento de ciência moderna, no século XVII, a natureza
física veio a ser matematizada, porém a vida e a cultura ainda resistem
– não podendo ser entendidas pela Matemática. Mas, os progressos da
Matemática, principalmente nos campos da estatística e da computação
eletrônica, pretendendo racionalizar o próprio caos, estão almejando o do-
mínio completo não só da natureza viva como da própria cultura.

444

Você também pode gostar