Você está na página 1de 30

Textos

História da matematização
da natureza
MILTON VARGAS

A
FILOSOFIA GREGA instituiu uma forma de des-velamento da realidade que
se chamou épisteme theoretike; em outras palavras, uma sabedoria basea-
da em forma de pensar radicalmente nova denominada teoria. Esse foi o
mais rico legado da civilização grega clássica à humanidade. A visão teórica da
natureza como physis, eterna porém localmente sujeita ao processo de geração e
corrupção, deu origem às ciências gregas da natureza. Com o cristianismo, tal
forma de pensar entrou em crise: se o mundo fora criado por Deus, por Ele
poderia ser destruído invalidando as leis da natureza.

Acontece porém que o cristianismo não foi fundado por filósofos, mas por
homens simples e crédulos. Assim, quando se tornou necessário consubstanciar
a fé cristã num corpo de doutrinas coerentemente elaborado, os padres da Igreja
passaram a reinterpretar os princípios da épisteme theoretike em termos de um
Deus único, eterno, perfeito e verdadeiro, governando uma natureza precária.
Tal fato foi possível talvez justamente porque os filósofos gregos estavam já do-
minados – como muito bem o demonstrou Werner Jaeger (1) – pela crença em
uma divindade única, permanente e coerente (to theon). Foi essa crença que
tornou possível a compreensão da physis como algo inteligível. Conseqüente-
mente, as filosofias de Platão e de Aristóteles prestaram-se à reinterpretação cris-
tã monoteísta da teoria grega sem deformá-la radicalmente.
Em suma, o pensamento teórico consiste em ver que por detrás das apa-
rências cambiantes do mundo há uma realidade idêntica a si mesma, não-contra-
ditória e verdadeira, ou falsa, não admitindo meio termo entre a verdade e a
falsidade. É o que nos ensina o poema de Parmênides. Essa nova forma de pen-
sar, inventada por gregos no século VI antes de Cristo, foi transferida ao mundo
ocidental moderno, através da Idade Média, justamente pela Teologia – a teoria
de Deus – baseada na re-interpretação dos princípios da épisteme theoretike. É
verdade que com a derrocada do mundo antigo os homens perderam o interesse
pela natureza, provavelmente devido à crença em seu caráter precário, por acre-
ditarem que estaria sujeita a ser destruída a qualquer momento pela vontade de
Deus. Com o correr do tempo, e com a própria Teologia como reinterpretação
da teoria grega, foi ressurgindo o interesse pela criação divina que era a natureza
e, assim, a partir do final da Idade Média, as ciências da natureza.
Note-se que com o espetacular desenvolvimento da teoria de Deus durante
a Idade Média há um não menos espetacular aperfeiçoamento da Lógica Clás-

ESTUDOS AVANÇADOS 10 (28), 1996 249


sica. Essa era também uma teoria sobre a forma de pensar que conduzia necessa-
riamente ao real, com suas características de identidade, não-contradição e ex-
clusão de um terceiro termo intermediário entre o falso e o verdadeiro. Pois foi
a Lógica que, desde Aristóteles, garantiu a exatidão do pensar teórico.
Simultaneamente, com o aparecimento do conhecimento teórico grego
aparece um processo que veio a moldar a forma das ciências da natureza. É o que
se poderia chamar de matematização da natureza. Com Pitágoras e seus segui-
dores surgiu a fecunda idéia de que a arché da natureza, ou seja, o princípio do
qual brotam todas as coisas e a ele revertem, é o número. Isto é, o que é perma-
nente, unitário, verdadeiro e, portanto, inteligível sob as aparências enganosas
dos fenômenos, são suas proporções harmoniosas, expressas em números. Em
outras palavras, a realidade vista pela teoria (theoren, em grego, significa ver) são
as harmonias que governam o mundo, desde o movimento dos planetas até o
som das cordas de lira.
Platão tratou da natureza e da sua origem em um de seus últimos diálogos:
o Timeo (2), cujo subtítulo é exatamente Peri Physei (a respeito da natureza).
Nesse diálogo ele assume a posição pitagórica quando descreve a construção da
physis pelo Demiurgo – cujos olhos estão fixos num modelo pré-estabelecido –
misturando, em proporções harmoniosas, duas substâncias indefinidas, incorpóreas
e contrárias a que chamou de o um e o outro. Portanto, os números que expres-
sam tais combinações são a própria essência da natureza. Dessa mistura surgem
os quatro elementos que vão constituir, quando combinados entre si, todas as
coisas da natureza. Porém, a realidade por detrás das aparências enganosas desses
elementos – terra, ar, fogo e água – são as figuras geométricas perfeitas: tetraedro,
cubo, octaedro e icosaedro.

Na academia platônica desenvolve-se a geometria que, embora inspirada


nas técnicas egípcias de medir terrenos, é uma teoria das formas perfeitas das
quais as coisas participam. Os geômetras da Academia desenvolveram os teoremas
pelos quais as propriedades das figuras geométricas eram demonstradas de forma
racional. Posteriormente Euclides, já agora na Escola de Alexandria, demons-
trou que esses teoremas eram todos dedutíveis uns dos outros a partir de certos
axiomas, evidentes por si mesmos, formados com noções primeiras. Assim sur-
giu a geometria como modelo de uma teoria axiomática.

Platão impressionou-se com a idéia de que quando os geômetras discuti-


am seus problemas, traçando figuras geométricas sobre a areia, não se referiam
diretamente a esses toscos traçados, mas aos triângulos e outras figuras ideais
cujas propriedades podiam ser racionalmente demonstradas e que eram simples-
mente representados pelos traçados na areia. Estendeu essa sua impressão a to-
das as coisas, afirmando corresponder a cada uma delas uma idéia perfeita e
inteligível e serem essas idéias as que constituíam a realidade. Tudo o mais era
ilusão e engano dos sentidos.

250 ESTUDOS AVANÇADOS 10 (28), 1996


Assim, para Platão, o mundo das idéias, das coisas pensadas era o do real
(bom, belo e verdadeiro). Nesse mundo existiam, de um lado, as idéias das for-
mas geométricas, inteligidas pelo pensamento matemático (a dianóia); e do ou-
tro, as idéias das demais coisas, inclusive os ideais como: beleza, justiça e bonda-
de, abarcáveis pelo pensamento dialético (noética). Em suma, a realidade última
eram as idéias. Era sobre esse mundo ideal que a épisteme theoretike se ocupava.
O restante, o mundo das coisas vistas e sentidas, só poderia ser objeto de
conjecturas, crenças e opiniões. Essa é a origem das doutrinas metafísicas deno-
minadas de idealismo.
Havia porém outra épisteme theoretike sobre a natureza, a qual só chegou
ao conhecimento do Ocidente depois do primeiro milênio; a princípio, através
de interpretações árabes e, no século XIII, diretamente do grego. É a Physica de
Aristóteles (3). Para Aristóteles, a idéia mais completa de Physis era a das formas
das coisas que se movem e se transformam por meio de causas e, eventualmente,
pelo acaso. A natureza é dotada de animação. Era quase o mesmo que – para
nós – um animal; isto é, dotada de um movimento autônomo, almejando um
fim ou lugar último e próprio. É a teoria do movimento organizado, visando a
uma finalidade.
Na física de Aristóteles não há a inspiração matemática que domina o Timeo
de Platão. Mas ela é organizada de forma lógica, não muito diferente da geome-
tria euclidiana. Parte de determinados princípios, e deles vão sendo deduzidas as
conclusões. Os primeiros princípios, porém, são dados por outra teoria: a
metafísica, que pode ser entendida como teoria da realidade última ou radical,
ou seja, a teoria daquela realidade da qual a realidade física decorre. Antes de
mais nada, em contraposição a Platão, Aristóteles insiste que as idéias não são
separadas das coisas; existem enquanto relacionadas a elas, das quais são idéias.
O que realmente existe são os entes individuais: aquilo que faz esses entes real-
mente representarem o que são. O ser desses entes representa a sua substância,
com sua essência e seus acidentes. A essência é o que se diz da substância neces-
sária para que ela permaneça sendo o que é; os acidentes são os predicados não-
necessários para que o ente permaneça sendo o que é. A realidade última está nas
substâncias que individualizam os próprios entes. Essa é a origem de todas as
doutrinas realistas. O real, segundo Aristóteles, está naquilo que os indivíduos
são e não nas idéias, como queria Platão. É a doutrina que se chama realismo.
Com a Física aristotélica inaugurou-se um tipo de teoria sobre a natureza,
organizada logicamente, mas na qual a matemática está ausente. No Timeo de
Platão há uma visão matemática pitagórica da natureza, mas essa é pura contem-
plação. Entretanto, apesar de já anunciar a possibilidade da matemática ser a
linguagem própria da realidade, pouco tem a ver com o cálculo ou a análise da
atual matemática. Foi somente durante o período helenístico que homens como
Arquimedes (289-212 a.C.) deram origem à idéia da aplicação da geometria e da
aritmética como instrumento de cálculo e descrição de fenômenos. Assim o fez
Eratóstenes ao medir a circunferência da Terra e estimar as distâncias e tamanhos
do Sol e da Lua.

ESTUDOS AVANÇADOS 10 (28), 1996 251


Ao final do período helenístico, Claudio Ptolomeu (século II d.C.), em sua
Síntese Matemática (4) utilizou intensivamente a matemática para a compreen-
são do movimento dos astros. Havia um modelo aristotélico dos céus, no qual os
corpos perfeitos dos planetas descreviam órbitas circulares, pois os círculos se-
riam as únicas figuras geométricas compatíveis com a perfeição dos céus. Mas os
fenômenos não se adaptavam a esse modelo. Os planetas aparentavam movimen-
tos que não eram exatamente circulares: muitas vezes pareciam mover-se em
sentido contrário. Para os filósofos, tal fato não contrariava a teoria; considera-
vam que as aparências enganosas dos fenômenos não eram reais. Mas, os helenistas
da Escola de Alexandria, baseados aliás numa idéia original de Platão, sustenta-
vam que cabia aos matemáticos retificar as observações no sentido de salvar os
fenômenos. Foi o que fez Ptolomeu, com a ajuda da geometria, conjugando
movimentos circulares de forma tal que o movimento resultante se aproximasse
das órbitas aparentes.
Pierre Duhen (5) chamou a atenção sobre a importância desse procedi-
mento; segundo ele, a evolução da física – de Platão a Galileu – deu-se em decor-
rência da necessidade de ajustar a realidade da teoria à aparência dos fenômenos.
Ora, isso pode ser entendido no sentido de que o conhecimento teórico da
natureza – originariamente ligado à geometria – como visão ideal da perfeição
harmoniosa do cosmo foi se desenvolvendo paralelamente à evolução da mate-
mática, deixando, assim, de forma paulatina de ser simples forma de contempla-
ção da realidade, para adquirir o caráter de um instrumento de conhecimento da
natureza.
Tal matematização estendeu-se também para o Globo Terrestre quando o
próprio Ptolomeu aplicou o mesmo processo geométrico para marcar a posição
dos astros no céu com relação à Terra. É verdade que, antes dele, Marino de
Tiro, um seu contemporâneo do século II de nossa era, já concebera a Terra
como uma esfera que podia ser dividida em paralelos e meridianos. A partir dessa
idéia, fundamentando-se em relatos anteriores, traçou o que teria sido o primei-
ro mapa-múndi em bases matemáticas com as posições na Terra indicadas por
coordenadas geográficas. Mas, suas coordenadas eram paralelas e ortogonais entre
si, portanto, deformando as posições locais. Ptolomeu continuou e aperfeiçoou
o trabalho de Marino de Tiro, adotando meridianos que convergiam para os
pólos. Dessa forma, chegou a coligir uma lista das coordenadas geográficas das
principais cidades do mundo então conhecido. Com essa lista, traçou um mapa-
múndi que fazia parte de sua Geografia, o qual, no entanto, foi perdido; mas a
Geografia de Ptolomeu, com sua lista de coordenadas geográficas, foi reencon-
trada no alvorecer do Renascimento servindo de base para as navegações ibéricas.
Diz-se que o império romano pouco contribuiu para com as ciências. Mas,
há alguma injustiça em afirmar-se que a Scientia romana não fez mais do que
compilar a épisteme grega. Na Medicina e na História Natural foi além dela.
Exemplo disso é o poema de Lucrécio, De Natura Rerum (6), no qual outra
teoria grega, o atomismo de Demócrito, no contexto do epicurismo, é

252 ESTUDOS AVANÇADOS 10 (28), 1996


magnificamente interpretada e ampliada. Demócrito explicara a aparente contra-
dição na concepção grega da Physis – entre o conceito de algo eterno e perfeito
e a existência da geração e corrupção na natureza – concebendo-a como um
conjunto de átomos – esses sim, indivisíveis, perfeitos e eternos – movendo-se
no vazio, sujeitos a chocarem-se entre si, aglutinarem-se ou separarem-se, assim
formando naturezas que se faziam e desfaziam, num processo de geração e
corrupção, o qual se encontra magnificamente descrito no poema de Lucrécio.
Mesmo assim, em nada contribui para o processo de matematização da natureza
que estamos procurando analisar historicamente. Foi o reencontro do livro de
Lucrécio no Renascimento, porém, que levou ao atomismo moderno, de decisi-
va importância para a matematização da física contemporânea.
Durante a maior parte da época medieval, o escasso interesse pela natureza
restringiu muito o desenvolvimento das matemáticas. Contudo, foi nesse perío-
do que elas floresceram entre árabes e hindus. Entre os chineses, a matemática
era mais uma técnica de enumeração, medida e contagem, como o fora entre
egípcios e babilônios nos tempos míticos. Na própria Europa, mantinha-se a
idéia grega da matemática como contemplação das proporções harmoniosas,
mais nas artes e especialmente na música do que na natureza. A partir do século
XII a introdução na Europa da matemática árabe, do sistema de numeração de
origem hindu e da nova ciência – a álgebra – despertou o interesse pelo cálculo
através da solução de equações algébricas. Os árabes tinham recebido a matemá-
tica no século IX por meio da tradução dos tratados gregos. Agora seus textos
em árabe eram traduzidos para o latim. Os Elementos de Euclides foi um dos
primeiros tratados matemáticos gregos assim traduzidos por Adelard de Bath,
em 1142. Pouco depois, em 1175, o Almagesto, versão árabe da Síntese Matemá-
tica de Ptolomeu foi traduzido por Gerardo de Cremona, também tradutor da
Álgebra de Al-Khoarizmi. Essa já tivera tradução anterior por Robert de Chester,
na qual apareciam tabelas trigonométricas. Foi então que apareceu a palavra seno.
O uso dos algarismos árabe-hindus foi incrementado tanto para fins de
contagem e comércio, quanto científicos. Os últimos eram quase que totalmen-
te referentes a cálculos astronômicos. A obra elementar sobre astronomia adota-
da nas universidades até o Renascimento era a Sphaera de Sacrobosco (1200-
1256). A ela agregava-se o Algorismus vulgaris, do mesmo autor, exposição clara
sobre o uso dos algarismos árabes nos cálculos matemáticos.
Foi com a geometria e a aritmética gregas, e a álgebra e a trigonometria
árabes que foram calculadas as tabelas de efemérides utilizadas a partir do pri-
meiro quarto do século XV nas navegações ibéricas. Foi também com tais conhe-
cimentos matemáticos, e mais o Almagesto e a Geografia de Ptolomeu, que as
grandes descobertas foram realizadas pelos navegantes de Portugal e Espanha.
Georg Peuerbach (1423-1469) e seu discípulo Regiomantanus – os mate-
máticos mais influentes do século XV – foram os primeiros a calcular as tabelas de
efemérides que acompanhavam os novos tratados de astronomia de posição
sugeridos na época. Foram seus trabalhos que possibilitaram a elaboração das

ESTUDOS AVANÇADOS 10 (28), 1996 253


tabelas de marear portuguesas e espanholas utilizadas por navegantes em suas
viagens por mares desconhecidos. Quando o Equador foi cruzado ao sul pelos
navegantes portugueses em sua procura pelo caminho da Índia, o cálculo da
posição, pela declinação do sol, tornou premente o uso da trigonometria esférica
desenvolvida por Regiomantanus.
Dessa forma, um dos resultados colaterais das descobertas do Novo Mun-
do e do caminho da Índia foi o estabelecimento de uma imagem geográfica do
mundo, em bases matemáticas. Essa imagem definitiva do mundo, com seus
continentes e mares mapeados exatamente com a ajuda da astronomia de posi-
ção e da cartografia científica pode, sem dúvida, ser considerada como o resulta-
do final de uma longa etapa do processo de matematização da natureza.
O capítulo sobre trigonometria da obra De revolutionibus orbium collestium
de Copérnico (7) , publicada em 1543 , ano de sua morte, muito deve a
Regiomantanus. Muito se fala dos propósitos práticos do heliocentrismo de
Copérnico para a reforma do calendário; é de se conjecturar, porém, também
sobre a influência que teriam tido as notícias do uso da astronomia de posição
nas descobertas ibéricas. Muito se fala ainda sobre o caráter de humildade huma-
na do sistema de Copérnico, retirando a humanidade de uma posição central e
privilegiada no centro do universo. Entretanto, tal fato não estaria de acordo
com o humanismo exacerbado que dominava a mentalidade da época. Pelo con-
trário, colocar a Terra entre as coisas perfeitas e eternas do céu pode parecer mais
uma atitude de exaltação do humano do que de humildade. De fato, o que
resultou do heliocentrismo de interesse para a análise da matematização da natu-
reza foi a abolição de qualquer diferença entre o mundo das perfeições celestes e
o mundo sub-lunar da corruptibilidade habitado pelos homens. De então em
diante admitiu-se, como um princípio dominante das ciências, que as leis huma-
nas são válidas para todo o universo. Uma equação matemática deduzida teori-
camente aqui na Terra, e tendo sua verdade sido estabelecida por experiências
levadas a efeito pelos homens, vale em qualquer parte do universo por remota
que seja. Essa é uma das diferenças fundamentais entre a ciência aristotélica e a
moderna, estabelecida após Copérnico.
Há, nessa época, curiosa mudança do significado que se dá às matemáti-
cas, especialmente à geometria. A redescoberta de textos gregos trás de volta aos
homens do Renascimento o sentido grego da Geometria como contemplação
das harmonias que dominam a natureza. As artes renascentistas acentuam esse
caráter através da perspectiva, principalmente através da arquitetura de um
Brunesleschi, por exemplo. Passam a utilizar a geometria como um instrumento
para bem construir, imitando as harmonias com as quais a natureza foi criada.
Leonardo da Vinci, em seus Scritti Letterari (8), mostrou muito bem o seu
intento de utilizar a perspectiva e as proporções harmônicas para descobrir, por
meio da pintura, os segredos da natureza. Provavelmente teria sido essa sua visão
da geometria, através das proporções e da perspectiva que o levou a afirmar que
“não há nenhuma certeza onde não se possa aplicar uma das ciências matemáticas”.

254 ESTUDOS AVANÇADOS 10 (28), 1996


Contudo, para Leonardo, como para todo cientista do Renascimento, o conhe-
cimento faz-se através da experiência. É ela que ensina como a natureza opera;
porém, ela própria, está sujeita à razão; pois, segundo Leonardo da Vinci, “ne-
nhum efeito está na natureza sem razão; entenda essa razão e não necessitarás da
experiência”. Contudo, deve-se lembrar que o significado de experiência para os
renascentistas é o da visão direta dos fenômenos, submetidos à ordem da razão.
É algo muito parecido com a moderna fenomenologia. Esse método, entretan-
to, é muito conveniente para as ciências da natureza – como a botânica ou a
anatomia, ambas muito próximas da descrição das plantas ou dos órgãos
anatômicos por meio de desenhos e pinturas artísticas. Isso foi o que fizeram
Leonardo ou Dürer.
Na astronomia ou na geografia e cartografia renascentistas esse critério de
visão direta, controlada pela razão, está obviamente presente na observação di-
reta dos astros e dos locais na Terra, com suas posições anotadas por meio de
suas coordenadas celestes ou geográficas. Essas observações diretas, porém, irão
ser interpretadas de acordo com o que se apresenta como matematicamente cor-
reto. Foi o que fez Kepler, ao tentar interpretar as observações de Ticho Brahe
quanto às suas idéias sobre a harmonia dos céus. Incidentalmente chegou às suas
três leis que descrevem o movimento dos astros. A expressão matemática dessas
leis, entretanto, não estava no centro dos seus interesses, a não ser a terceira que
enumerava a disposição proporcional dos astros girando em torno do rei Sol.
Por esse aspecto, creio que se deva compreender Kepler como uma figura perifé-
rica do movimento científico renascentista, já em transição para a ciência moder-
na estabelecida por Galileu no início do século XVII, em termos de um novo
conceito tanto no papel das matemáticas quanto do significado da experiência
científica.
Foi Galileu, como está explicitado em seus Discursos e demonstrações ma-
temáticas em torno de duas novas ciências (9), publicado em 1638, quem tornou
patente a nova função da matemática como análise dos fenômenos naturais, ao
mesmo tempo em que enunciava um novo critério de verdade científica, atribu-
indo à palavra experiência novo significado. “Ao investigar um fenômeno da
natureza”, diz Galileu textualmente, “primeiro concebo com a mente”.
Modernamente, significaria: elaborar uma conjectura sobre o fenômeno. No caso
do fenômeno da queda dos graves, analisado nos Discorsi, conjectura-se que os
graves cáiam com movimento uniformemente acelerado. A partir dessa conjectura
arma-se um raciocínio lógico, para Galileu, preferivelmente matemático, uma
vez que ele já afirmara: “o livro da natureza está escrito em caracteres matemáti-
cos”. Tal raciocínio levará a conclusões ou soluções particulares, as quais deverão
ser confrontadas com a experiência. Essa experiência, porém, não será a da visão
direta do fenômeno, como o faziam os renascentistas. Será uma experiência or-
ganizada de acordo com a conjectura previamente estabelecida, como a que está
descrita em detalhes nos Discorsi. É a do plano inclinado, organizada no sentido
de eliminar-se ao máximo os efeitos de atrito e resistência do ar, que atuariam
como circunstâncias perturbadoras do fenômeno, da forma como conjecturado.

ESTUDOS AVANÇADOS 10 (28), 1996 255


Essa experiência, assim idealmente organizada, irá comprovar a verdade
ou denunciar a falsidade da conjectura previamente concebida pela mente. Dessa
forma, Galileu simultaneamente confere à matemática a função de análise dos
fenômenos naturais e dá à experiência organizada em laboratório de campo o
papel de simplesmente responder afirmativa ou negativamente àquilo que foi
primeiramente concebido com a mente. Trata-se do método experimental, ba-
seado em conjectura prévia, que se mostrou tão eficaz nas ciências modernas.
Contudo, a análise matemática não tinha ainda se desenvolvido nos tem-
pos de Galileu. Para armar seu raciocínio matemático na análise da queda dos
graves, ele teve de recorrer à regra medieval, desenvolvida em Oxford e em Paris
no século XIII, a qual afirmava que um movimento uniformemente acelerado era
semelhante a um movimento uniforme com a velocidade média do primeiro.
Foi a criação da geometria analítica por Descartes, em 1637, e do cálculo
diferencial e integral por Newton e Leibniz, durante o século XVII, que tornou
possível a análise matemática dos fenômenos físicos. Note-se, porém, haver aí
algo de mais profundo do que o simples cálculo dos fenômenos da natureza. O
cartesianismo estabelece que as coisas da natureza são, em essência, pura exten-
são. Elas não são somente aptas a serem calculadas pela geometria analítica; ape-
nas poderão ser compreendidas e explicadas, em sua essência, como grandezas a
serem medidas. Por outro lado, nos Princípios matemáticos da filosofia natural,
de 1687 (10) , Newton mostrou que qualquer fenômeno físico observado
empiricamente corresponde exatamente a um modelo matemático deduzido de
axiomas pré-estabelecidos como verdadeiros. E ainda mais, que esses axiomas
referem-se às noções de espaço, tempo, massa e força, todas elas só compreensí-
veis matematicamente.
O importante, para o que se está aqui almejando, é que no Livro I, O
movimento dos corpos dos seus Principia, Newton deduz, por meios geométri-
cos, com o auxílio ainda incipiente de noções do cálculo infinitesimal, as leis de
Kepler, a partir de definições e axiomas por ele admitidos como evidentes por si
mesmo, e estabelece sua lei geral da gravidade. No Livro III, O sistema do mun-
do, a partir da observação de fenômenos siderais observados que conduzem a
admitir como verdadeiras as leis de Kepler, e com o auxílio de regras do raciocí-
nio indutivo, Newton justifica sua lei de gravitação – a qual, aliás já estava anali-
ticamente justificada no Livro I. Parece que, com isso, Newton quer racional-
mente demonstrar como é possível matematizar (Livro I) os fenômenos naturais
conhecidos empiricamente (Livro III).
No século XVIII a análise matemática foi instituída definitivamente como
instrumento de pesquisa dos fenômenos naturais. Dois entusiastas do cálculo
infinitesimal, na notação de Leibniz, foram os irmãos Bernoulli: Jacques (1654-
1705) e Jean (1667-1748) de Basiléia. Foram eles que, com Leibniz, desenvolve-
ram as aplicações do cálculo. Paralelamente, Jacques publicou, em 1713, o pri-
meiro livro sobre a teoria das probabilidades: Ars conjectandi. Mas a inaugura-
ção do edifício acabado da análise, deu-se com a publicação, em 1748, da

256 ESTUDOS AVANÇADOS 10 (28), 1996


Introductio in analisis infinitorum de Leonard Euler (1707-1783), livro em que
aparece, pela primeira vez, o conceito exato de função como fundamento da
análise. Com essas funções e com a inclusão de infinitesimais, derivadas e inte-
grais, aliás com a notação de Leibniz e não a de Newton, é que se tornou possível
para os matemáticos do século XVIII escreverem equações matemáticas as quais,
na verdade, serviam de modelos dos fenômenos físicos e, resolvendo-as, chega-
rem a soluções que descreviam fenômenos particulares relacionados com a teoria
matemática.
Foi a esperança de Voltaire quanto à aplicabilidade do método de Newton
na análise racional dos fenômenos, quer naturais quer culturais, que levou os
enciclopedistas franceses a acreditarem na possibilidade de um conhecimento
objetivo da natureza, baseado na simbiose estabelecida por Newton entre o pen-
samento racional e o empírico. Diderot e D’Alembert propuseram-se então a
organizar o Dictionaire raisoné des sciences, des arts et des métiers, abarcando
todo o conhecimento científico, artístico e técnico a partir do empirismo técni-
co, pois acreditavam que a única maneira de conhecer seria por sensações no
manuseio das coisas; mas, não abandonaram o racionalismo, principalmente quan-
do expresso através das matemáticas. Todos os conceitos derivavam de fatos, mas
esses deveriam ser ordenados preferivelmente pela matemática para serem com-
preendidos.
Foi nessa linha que o Traité de dynamique, de D'Alembert, publicado em
1743, procurou estruturar matematicamente a mecânica, mas sem recorrência a
qualquer verdade de razão. Parte de uma cinemática, envolvendo noções de
espaço, tempo e movimento, derivadas da experiência sensível, evitando assim
partir da idéia de força que, para ele, estava carregada de suposições metafísicas.
Procurando entendê-las através da generalização do princípio dos trabalhos vir-
tuais, o qual reunia em si os axiomas de Newton. Com esse livro foi dado um dos
primeiros passos no processo definitivo da matematização da natureza, colocan-
do a mecânica racional como a mestra de todo conhecimento físico. Atingira-se
assim o cume da crença dominante desde Galileu e Descartes, de que o mundo
era uma máquina regida pela racionalidade matemática.
Durante a Revolução Francesa apareceram os matemáticos – entre eles os
dos três Ls : Lagrange, Laplace e Legendre – os quais estabeleceram a análise
matemática em sua forma atual, sistematizando os princípios da anterior, de for-
ma a torná-la um instrumento útil tanto na análise dos fenômenos da natureza
quanto na solução de problemas técnicos. A matemática, assim constituída, exi-
gia a quantificação dos problemas naturais e técnicos, daí a importância dada
durante a Revolução aos processos de medida, desde as medidas geográficas até
a fiscalização dos pesos e medidas comerciais. Assim, Legendre foi encarregado
da triangulação da França, enquanto Lagrange e Condorcet faziam parte da co-
missão da qual resultou o sistema métrico.
As obras mais importantes desses matemáticos foram publicadas em pleno
período revolucionário: a Mecanique analytique, de Lagrange, é de 1799 (11) e

ESTUDOS AVANÇADOS 10 (28), 1996 257


a Exposition du systeme du monde, de Laplace, é de 1796 (12). Na primeira dessas
obras, Lagrange coloca os princípios da mecânica sob forma diferencial e propõe
a solução de qualquer problema – da natureza ou da técnica – pela integração de
equações diferenciais. Introduzindo uma nova função, igual à diferença entre a
energia cinética e a potencial do sistema, Lagrange escreve suas três equações
que reúnem, em si, os axiomas de Newton e a generalização do princípio dos
trabalhos virtuais. Assim ficou constituída a mecânica analítica, capaz de resolver
tanto os problemas da gravitação celeste e terrestre quanto o dos vários ramos
tecnológicos da física clássica.
O segundo dos livros citados, o de Laplace, não é um tratado matemático.
É uma dissertação sob base fenomenológica dos movimentos dos astros, repor-
tando-se a Lagrange como aquele que reduziu a pesquisa de um sistema em
movimento à integração de equações diferenciais. O livro termina com notas
sobre a história da astronomia e sua célebre hipótese nebular sobre a origem do
sistema solar. A intenção de Laplace com esse livro seria a de demonstrar, sob
forma acessível aos não-matemáticos, sua teoria amplamente matematizada no
Tratado de mecânica celeste (13), no qual analisa não só os movimentos regula-
res dos astros mas também as perturbações de suas órbitas, oriundas da influên-
cia de outros astros.
A intenção subjacente ao Tratado de Laplace é mostrar que o sistema solar
é dominantemente estável e, portanto, perpétuo, não necessitando da interven-
ção divina para por-se em movimento. Além disso, não teria propósito procurar
saber o sentido ou a finalidade desse movimento e, assim, Laplace dá início à
doutrina denominada materialismo mecanicista, a qual dominou o pensamento
de grande parte dos cientistas do século XIX.
Outra decorrência filosófica do sistema de Laplace é o determinismo, ou
seja, tudo o que acontece tem necessariamente uma causa e, se essa causa for
conhecida, o efeito é previsível. Ele próprio enfrentou o problema de matematizar
acontecimentos aleatórios, desenvolvendo em seu tratado Teoria analítica das
probabilidades, um cálculo capaz de estimar a probabilidade de um aconteci-
mento, desde que sejam conhecidas as probabilidades de suas causas. As idéias
fundamentais desse tratado constam do conhecido Ensaio filosófico sobre as pro-
babilidades (14), no qual afirma que “uma inteligência que conhecesse todas as
forças que animasse a natureza num dado instante e submetesse esses dados à
análise, poderia ter presente aos seus olhos todo o futuro, tão evidente quanto o
passado”. Para Laplace, na falta dessa inteligência onisciente, a ciência teria de
recorrer às probabilidades, não aceitando o acaso como um fator dos aconteci-
mentos, mas simplesmente utilizando as probabilidades devido à ignorância hu-
mana sobre a totalidade de determinantes dos acontecimentos da natureza.
Com as obras de Lagrange e Laplace a mecânica analítica tornou-se a mais
importante das ciências, garantindo a matematização de toda a física. Sob o pon-
to de vista da doutrina materialista mecanicista era uma questão de tempo que
toda a natureza – pelo menos a inanimada – viria a ser matematizada a partir das
equações de Lagrange e de Laplace.

258 ESTUDOS AVANÇADOS 10 (28), 1996


Entretanto, surgia na época o controle técnico de uma poderosa fonte de
energia: o calor, cuja matematização teve dupla origem. A primeira, através de
outra doutrina filosófica, o positivismo. Fourier, positivista convicto, arma equa-
ções diferenciais do fluxo de calor a partir de princípios derivados de fatos positi-
vos – aqueles indubitáveis, constatados pelos sentidos humanos. De acordo com
a doutrina positivista, as soluções matemáticas de equações diferenciais
estabelecidas a partir de fatos positivos corresponderiam necessariamente a fatos
particulares verdadeiros. O tratado de Fourier sobre a transmissão do calor (15)
passa a ser considerado como modelo de análise matemática de um fenômeno
natural.
A segunda via de investigação da natureza do calor dá-se através de pes-
quisas de caráter tecnológico sobre o poder motivo do calor, pelo engenheiro
Sadi Carnot. Suas observações levam-no a antever os dois princípios da teoria
que vem a ser chamada termodinâmica. O desenvolvimento dos estudos de Carnot
por parte de Clayperon e aperfeiçoados por Clausius (16) levam à matematização
do fenômeno da transformação da energia calorífica em energias de outras espé-
cies, com base nos dois referidos princípios: conservação da energia e o célebre
segundo princípio da termodinâmica, enunciado por Lord Kelvin em 1851: é
impossível construir uma máquina que, operando em ciclos, extraia calor de uma
dada fonte e o transforme integralmente numa quantidade equivalente de traba-
lho. Pode-se portanto concluir que nos processos naturais de transformação de
energia – os quais são sempre irreversíveis por ocorrer perdas ocasionais por
atrito ou por dissipação de energia no ambiente – haverá sempre um acréscimo
de energia não-aproveitável para a produção de trabalho mecânico. A esse acrés-
cimo de energia inaproveitável chamou-se entropia. Foi esse fato que levou à tão
discutida idéia da morte térmica do universo pelo constante aumento irreversível
da energia calorífica não-aproveitável.
A matematização do fenômeno do calor estava assim concluída. Os signi-
ficados físicos de energia calorífica e de entropia, porém, continuavam obscuros.
Para Fourier, o calor era um fluído sutil, expresso por uma equação matemática
contínua e derivável; para Carnot esse fluído chamava-se calórico, mas não ia
muito além do nome para expressar sua natureza. Clayperon e Clausius já pensa-
vam o calor como sendo transportado por gases das máquinas a vapor e, portan-
to, por suas moléculas. Em 1738, Daniel Bernoulli já formulara sua teoria cinética
dos gases, segundo a qual o calor era devido ao movimento das moléculas que
golpeavam as paredes do recipiente que as continha, de cuja energia cinética
resultava a pressão contra elas, proporcional à temperatura do gás. Percebeu-se,
porém, que a hipótese de velocidades constantes das moléculas não era realista.
Essas deveriam ser de grande variabilidade, mas permitindo uma velocidade média.
Tal percepção deu ensejo ao tratamento probabilístico da questão, o que foi
realizado por James Clerk Maxwell em 1860. Ele chegou analiticamente à con-
clusão de que o logaritmo das funções de distribuição das velocidades – em três
direções ortogonais – era proporcional ao quadrado das velocidades nas respec-
tivas direções, tendo a mesma forma que a função das probabilidades de Gauss.

ESTUDOS AVANÇADOS 10 (28), 1996 259


Ludwig Boltzmann, retomando a questão em 1870, mostrou que a distri-
buição estatística dos estados de energia das moléculas de um gás estava em
correlação com o acréscimo da entropia desse gás ao sofrer uma transformação
térmica. Assim, a entropia foi definida como uma função das variáveis de estado,
proporcional ao logaritmo da probabilidade desse estado. Como a distribuição
desordenada do estado das moléculas é mais provável que a ordenada, o estado
de desordem das moléculas corresponderá à maior entropia, portanto, à menor
probabilidade de produzir trabalho eficiente.
A análise probabilística dos fenômenos naturais entrou em conflito com a
corrente positivista, que entendia os fenômenos naturais como expressões em
equações diferenciais, armadas a partir de princípios estribados em fatos positivos.
A análise probabilística era feita a partir de átomos e moléculas que nada tinham
de positivos, pois não eram observáveis pelos sentidos. Foi a querela do atomismo
que contou com a participação de notáveis cientistas do século XIX, defendendo
ou atacando as posições de ambos os lados. É possível que o conhecido artigo de
Boltzmann Sobre a inevitabilidade do atomismo nas ciências da natureza, publi-
cado em 1897, tenha mostrado a necessidade de se considerar a matéria como
um conjunto de partículas (17).
A matematização completa da questão, entretanto, só foi levada a efeito
em 1902, quando Josiah Willard Gibbs publicou o seu livro sobre Os princípios
elementares da mecânica estatística (18), abordando matematicamente os fenô-
menos da natureza relacionados com movimentos dispersos de partículas. As-
sim, essa região da natureza foi também matematizada.
A matematização dos fenômenos naturais relacionados com a eletricidade
e o magnetismo deu-se a partir do momento em que se imaginou medir as forças
de atração e repulsão entre cargas elétricas que ocorreu em 1777, quando o
engenheiro Charles Augustin Coulomb publicou sua memória sobre Pesquisas
sobre a melhor maneira de fabricar agulhas imantadas. Nesse trabalho Coulomb
demonstrou haver um campo magnético terrestre, como se em qualquer ponto
existissem forças que, agindo sobre a agulha magnética, a orientassem para o
norte. Estendendo a idéia de campos de força à gravitação terrestre e às forças de
atração ou repulsão em torno de uma carga elétrica, Coulomb utiliza a balança
de Cavendish, inventada para medir as forças de gravitação, para medir também
as forças entre cargas elétricas. Assim, chega à famosa lei de Coulomb sobre essas
forças, que é análoga a lei de Newton para as forças gravitacionais. Dessa forma,
definiu-se a existência de um campo de forças eletrostático semelhante ao campo
de gravidade. Mais tarde, o próprio Coulomb demonstrou que também o cam-
po magnético era sujeito a lei semelhante. Com tal analogia, as leis da mecânica
analítica vieram a ser aplicadas também às questões de eletrostática e de magne-
tismo. As formas das equações eram as mesmas, variando somente os significa-
dos dos símbolos. A equação de Laplace, por exemplo, que definia a função
potencial dos campos de força, valia tanto para os problemas de mecânica quan-
to para os de eletrostática e magnetismo. Valia ainda para os problemas de
percolação d’água, na hidráulica, pois as forças atuantes, nesse caso, eram ainda

260 ESTUDOS AVANÇADOS 10 (28), 1996


gravitacionais. A partir de então desenvolveu-se a teoria matemática dos campos
de força, que muito deve ao grande matemático do início do século XIX: Karl
Friedrich Gauss. Na expressão matemática dos campos de força apareciam as
superfícies ou linhas eqüipotenciais, definidas pela equação de Laplace e, nor-
mais a essas, os canais ou linhas de fluxo ao longo das quais uma partícula de
massa ou uma carga elétrica mover-se-ia caindo de um potencial maior para um
menor, exatamente como uma pedra cai, na vertical da Terra, de uma altura
maior para uma menor. Assim, fenômenos magneto e eletrostáticos foram anali-
sados por teorias formalmente semelhantes às das forças gravitacionais.
Alessandro Volta, ao inventar uma pilha capaz de fornecer continuamente
uma corrente a um circuito elétrico, demonstrou que tal semelhança não existia.
Aparece então a eletromagneto-dinâmica, cujos campos de força não admitiam
potencial. O estudo das correntes elétricas exigiu diferente enfoque da visão
newtoniana da natureza. Oersted, em 1920, descobriu que uma corrente elétrica
exercia força sobre uma agulha magnética, curiosamente, não deslocando-a na
direção da corrente, mas transversalmente. Mostrou que essa correlação era de-
vida ao aparecimento, em torno do fio, de um campo eletromagnético. Mas foi
Ampére quem analisou matematicamente a correlação entre corrente elétrica,
campo magnético e movimento, publicando suas deduções em 1826, em um
texto intitulado Memória sobre a teoria matemática dos fenômenos eletrodinâmicos
deduzida exclusivamente da experiência (19).
Ampére defendia a idéia kantiana de que as teorias científicas seriam sem-
pre deduzidas de hipóteses a priori; isto é, independentemente de experiências.
Não se compreende por que teria indicado no título dessa memória ter sido sua
teoria deduzida exclusivamente de experiências, quando sua convicção filosófica
era de que seria impossível deduzir algo de caráter geral da experiência; as teori-
as, sendo de caráter geral, não poderiam provir de fatos particulares da experiên-
cia. A resposta a essa questão, talvez possa ser encontrada na conhecida referên-
cia de Oersted a respeito de Ampére, afirmando que ele, apesar de um pensador
profundo, era inábil debatedor, incapaz de apresentar com clareza seus próprios
argumentos. Realmente, a teoria de Ampére parte do fato fundamental (ou po-
sitivo) observado por ele: a existência de força agente entre dois fios condutores.
Mas disso, elaborou um princípio: a força exercia-se perpendicularmente aos
elementos de corrente, proporcionalmente às correntes e inversamente propor-
cional ao quadrado das distâncias entre os fios. A partir desse princípio armou
sua equação diferencial e, pela solução dessa, chegou aos resultados particulares
correspondentes dos fenômenos observados.
Às investigações de Ampére seguiram-se pesquisas e análises que paulati-
namente vieram explicar os fenômenos eletromagnéticos. Restava esclarecer de-
finitivamente a natureza e as propriedades dos campos magnéticos formados em
torno dos condutores elétricos. Isso foi feito por Michael Faraday que começou
a trabalhar em eletromagnetismo em 1821 e publicou os resultados de suas pes-
quisas em memórias nos Transactions of the Royal Society, entre 1831 e 1855, as
quais foram posteriormente reunidas e publicadas em um só volume (20). Nessas

ESTUDOS AVANÇADOS 10 (28), 1996 261


memórias está explicado o fenômeno de indução de uma corrente elétrica de um
condutor para outro, quando houvesse variação da corrente no primeiro condu-
tor. Explica-se também o fenômeno do movimento (por exemplo, rotação de
um disco de cobre) quando esse é colocado entre pólos de um eletro-imã, com
simultânea geração de corrente elétrica no disco, e vice-versa, o que veio, mais
tarde, possibilitar o invento do gerador e do motor elétrico.
Ao correr dessas experiências surge a maneira de se visualizar os campos de
forças magnéticas, espalhando-se limalha de ferro num papel sobreposto aos pólos
de um imã. As partículas de limalha orientam-se segundo as linhas de força mos-
trando como elas se dispõem. Quando um condutor se move, cortando essas
linhas de fluxo, gera uma força eletro-motriz, a qual, por sua vez, gera uma cor-
rente elétrica.
Da mesma forma, quando um fluxo magnético varia, induz uma força
eletro-motriz em condutores fixos que delimitam superfícies cortadas pelo flu-
xo. Assim, Faraday explicou experimentalmente todos os fenômenos eletro-mag-
néticos-dinâmicos.
Mas, a matematização dos fenômenos elétricos e magnéticos só foi feita
por James Clerk Maxwell, a partir de suas memórias sobre as linhas de força de
Faraday, lidas quando fellow do Trinity College de Cambridge, entre dezembro
de 1855 e fevereiro de 1856. Posteriormente, em 1864, Maxwell publicou um
trabalho sob o título Uma teoria dinâmica dos campos eletromagnéticos, no qual
estuda os aspectos dinâmicos da eletricidade e do magnetismo. Depois de uma
série de tentativas para explicar mecanicamente o fenômeno, Maxwell abandona
suas imagens mecânicas e parte para uma aplicação da racionalidade matemática,
segundo os princípios da mecânica analítica. Dá aos símbolos das equações me-
cânicas os significados das grandezas e parâmetros eletromagnéticos e, assim,
chega a duas equações correspondentes à eletro-magnético-dinâmica. Essas equa-
ções, combinadas entre si, levam à forma diferencial da equação das ondas, onde
o coeficiente correspondente à velocidade de propagação é numericamente igual
à velocidade da luz. Conclui que as ondas eletromagnéticas são transversais e se
propagam com a velocidade da luz. Portanto, inversamente, a luz seria de natu-
reza eletromagnética.
A súmula de toda a teoria de Maxwell, porém, só aparece em 1873 com a
publicação do seu Tratado sobre eletricidade e magnetismo (21). Nesse trabalho
Maxwell utilizou vetores e álgebra vetorial para definir as forças e correntes ele-
tromagnéticas, mas não os empregou na dedução de suas quatro equações dife-
renciais básicas do eletromagnetismo, provavelmente porque a análise vetorial
ainda não estava suficientemente desenvolvida. Dessas quatro equações, duas
referem-se à eletro-estática e ao magnetismo e duas à dinâmica dos campos ele-
tromagnéticos e estabeleceram:
• a primeira, que os campos eletrostáticos são formalmente análogos aos
gravitacionais;

262 ESTUDOS AVANÇADOS 10 (28), 1996


• a segunda, que o mesmo pode-se dizer dos campos magnéticos, mas como
neles não há pólos isolados, a carga magnética é sempre nula;
• a terceira equação expressa matematicamente a lei de Faraday, ou seja, um
campo elétrico é formado sempre que ocorra variação de um campo magnético;
• a quarta lei de Maxwell indica que há o aparecimento de um campo magnético,
não só em torno de uma carga elétrica, mas também quando há variação de
um campo elétrico.
Como já mencionado, as duas primeiras aparecem no trabalho de Maxwell
sobre linhas de força, e as duas últimas, na sua teoria dinâmica dos campos ele-
tromagnéticos.
Em 1885 Heinrich Hertz, professor em Karlsrule, iniciou suas experiên-
cias sobre a propagação das ondas eletromagnéticas. Utilizou, como transmis-
sor, pontas metálicas pelas quais saltavam faíscas elétricas e, como receptor, espiras
metálicas. Em suas experiências demonstrou que tais ondas refletiam-se contra
placas metálicas. Apesar de ter tentado medir a velocidade de propagação dessas
ondas, só mais tarde outros pesquisadores verificaram que essa velocidade era
exatamente igual à da luz. A diferença estava apenas na freqüência ou comporta-
mento das ondas. O comprimento da onda de luz era de frações de micron,
enquanto que as ondas hertzianas tinham comprimentos medidos de centíme-
tros até centenas de metros.
Ficou assim demonstrado que um campo elétrico, mesmo formado no
espaço vazio, variável com o tempo, formaria correntes de deslocamento que pro-
duziriam, em torno de si, campos magnéticos que também se deslocariam no
espaço. Assim, formar-se-iam ondas eletromagnéticas que se propagariam no
espaço com a velocidade da luz. A descrição dessas experiências está em seu livro,
cuja tradução para o inglês apareceu em 1893 (22). Era concluído por dois arti-
gos publicados em 1890, nos quais Hertz procurou simplificar e corrigir certas
incoerências na teoria matemática de Maxwell, chegando a exprimir a terceira e
a quarta equação do pesquisador de forma bem mais compreensível. Afirmou,
entretanto, que esse intento já tinha sido tentado cinco anos antes por Oliver
Heavisides, em seu Cálculo Operacional. Embora o cálculo de Heavisides tivesse
sido acusado de falta de rigor, foi ele que passou a ser empregado pelos enge-
nheiros eletricistas para a solução de problemas de telegrafia e telefonia a longas
distâncias.
Nessa época foram descobertos os raios infravermelhos, os ultravioletas e
o raio X. Todas essas radiações mostraram reflexão e difração, como a luz; por-
tanto, seriam todas elas ondas eletromagnéticas que obedeciam às equações de
Maxwell e foi também demonstrado que o calor era transmitido como irradiação
hertziana. Dessa forma, matematizava-se o vasto domínio das irradiações de ener-
gia. A medida da pressão dessas irradiações sobre superfícies em que incidiam
concordava com as calculadas pela teoria de Maxwell.

ESTUDOS AVANÇADOS 10 (28), 1996 263


Tornou-se costumeira a observação das intensidades e comprimentos de
ondas de irradiações caloríficas que atravessavam um pequeno orifício nas pare-
des de um recipiente, no interior do qual se mantinha temperatura uniforme,
constante e elevada. Eram os chamados corpos negros. Pôde-se, então, traçar ex-
perimentalmente uma família de curvas, cada uma delas para temperatura cons-
tante, num gráfico que tinha, em ordenadas, as intensidades específicas da ener-
gia irradiada e, em abcissas, os respectivos comprimentos de onda. Mas, os resul-
tados das tentativas de traçar tais curvas, calculadas a partir da teoria eletromag-
nética, não coincidia com a experiência.
O impasse só foi resolvido em 1900, quando Max Planck publicou os re-
sultados de suas investigações. Aconteceu então algo que revolucionou toda a
ciência física e abriu as portas para uma nova concepção da natureza inorgânica.
Ficou patente que o emissor não irradiava a energia de forma contínua, mas
somente em quantidades inteiras de quanta de energia, cujos valores eram inver-
samente proporcionais aos comprimentos da onda irradiada.
Assim, no final do século XIX, quando a descoberta de Planck pôs fim ao
que se chamou física clássica, iniciando-se a mecânica quântica, o domínio da
natureza, concernente às energias, achava-se expresso sob forma matemática com
toda a abrangência; os fenômenos energéticos mecânicos, expressos pelas equa-
ções de Lagrange (mais tarde complementadas pelas de Hamilton); os caloríficos,
pela equação de Fourier e pelas equações da mecânica estatística; e os das irradi-
ações eletromagnéticas, pelas de Maxwell.
Contudo, as equações diferenciais dividiam os fenômenos energéticos em
três campos: os mecânicos, os caloríficos e os eletromagnéticos, embora a expe-
riência mostrasse que a energia não se extinguia, mas se transformava de mecâni-
ca, em calor, luz, eletricidade ou magnetismo, e vice-versa. Foi o que levou Henri
Poincaré a propor que se considerasse a lei da conservação da energia como uma
definição disfarçada da própria energia, dizendo: “energia é aquela coisa que se
conserva”.
O fato de Maxwell ter abandonado suas tentativas de construir modelos
mecânicos para explicar suas teorias reforçou a idéia de que a formulação mate-
mática era a única maneira de, pelo menos, vislumbrar a natureza daquela “coisa
que se conserva”. Nesse sentido, Hertz também deixou de lado qualquer mode-
lo mecânico para insistir que só as equações de Maxwell poderiam encerrar todo
o conhecimento possível sobre a natureza das ondas hertzianas. O mesmo po-
der-se-ia dizer sobre as equações de Lagrange e as de Hamilton no que concerne
à energia mecânica; e as equações de Fourier e as da mecânica estatística no que
se refere à energia calorífica.
Dessa maneira, as conclusões finais da física clássica mostravam que a natu-
reza da energia seria essencialmente formal, ou seja, sua realidade estaria mais
nas expressões matemáticas do que nos seus efeitos sensíveis. Não que a expres-
são matemática fosse “a coisa em si, que se transforma”, mas permitia entrevê-la.

264 ESTUDOS AVANÇADOS 10 (28), 1996


Com a descoberta dos quanta, essa concepção de energia não se modifica; pelo
contrário, veio a mostrar que a natureza corpuscular da energia estava mais pró-
xima da dos números do que da das substâncias.
Foi a partir das simplificações dessas equações que se deu o notável pro-
gresso da tecnologia, no final do século passado e início deste, quando se verifi-
cou o pleno sucesso da utilização de teorias científicas na solução de problemas
técnicos. Da mecânica analítica surgiram as soluções de problemas de engenha-
ria na resistência dos materiais, na teoria da elasticidade e da plasticidade. Da
mesma forma, as equações da mecânica dos fluídos levavam a soluções particu-
lares de problemas de hidráulica e hidrodinâmica. A formulação matemática
avançada dessas teorias veio a constituir a mecânica dos contínuos. Aparece
então, a reologia com seus modelos matemáticos, por meio dos quais é possível
se escrever fórmulas expressando o comportamento elástico, plástico e viscoso
de quaisquer materiais, mesmo não-existentes, em função de coeficientes, ex-
primindo propriedades desses materiais a serem obtidas experimentalmente. Com
as mecânicas dos solos e das rochas surgem teorias mecânicas de meios não-
contínuos. Da termodinâmica, baseada na mecânica estatística, surgiram as so-
luções para os problemas das máquinas a vapor, das caldeiras, das turbinas tér-
micas e dos frigoríficos. Do eletro-magnetismo, pelas aplicações e simplificações
das equações de Maxwell, apareceram as soluções para os problemas de
eletrotécnica e, mais tarde, de eletrônica.
O sucesso da matematização dos problemas tecnológicos relacionados com
a física levou às tentativas de formulação matemática de teorias da natureza não-
formalizada. Até agora, a mais bem sucedida foi a análise matemática dos fenô-
menos geológicos, com a geomatemática. Essa possibilidade foi aberta pela ex-
tensão da análise matemática das propriedades dos materiais constituintes da
crosta terrestre, feita pelas mecânicas dos meios não-contínuos, à explicação tan-
to dos fenômenos tectônicos quanto dos sedimentares.
A maioria dessas utilizações tecnológicas de teorias científicas, em suma,
seria consubstanciada por soluções particulares de equações diferenciais. A difi-
culdade estaria em encontrar soluções para as poucas equações diferenciais que
formalizavam um grande e diverso número de fenômenos naturais. Por outro
lado, a solução analítica de tais equações nem sempre é conseguida. Além disso,
na maioria das vezes, é necessário simplificar as condições de limites dessas equa-
ções – as quais correspondem às circunstâncias em que o fenômeno se dá na
natureza, em geral complexas. Isso veio a exigir solução dessas equações por
métodos gráficos e numéricos ou, mesmo, utilização de modelos físicos simpli-
ficados.

Exemplo muito bem-sucedido de solução gráfica foi o da rede de fluxo,


traçada à mão, obedecendo a regra de que as linhas de força eram todas normais
às linhas eqüipotenciais. Tal método foi empregado para resolver a equação de
Laplace em problemas de hidráulica dos solos ou de eletrostática.

ESTUDOS AVANÇADOS 10 (28), 1996 265


Matematicamente surgiu o cálculo numérico como, por exemplo, o das
diferenças finitas, pelo qual os diferenciais das equações eram substituídos pelos
valores das diferenças finitas das variáveis. Disso resultou um sistema de equa-
ções lineares simultâneas, o qual seria resolvido pelas técnicas de cálculo que
estavam sendo desenvolvidas na época.
Mas a questão só veio a ser completamente solucionada quando, logo
depois da Primeira Guerra Mundial, as universidades americanas começaram a
montar seus primeiros computadores eletrônicos – os quais permitiam o cálculo
automático de equações quando eram transformadas, por processos matemáti-
cos, em cálculo numérico – utilizando um sistema numérico binário, isto é, cujos
algarismos são somente 0 e 1. Zero, correspondente ao circuito elétrico fechado
e um, ao aberto.
Com o desenvolvimento dos computadores fez-se necessária a elaboração
de métodos para transformar as equações diferenciais em numéricas, objetivando
tornar o seu cálculo mais rápido. O problema veio a ser resolvido pelo emprego,
entre outros, do método dos elementos finitos – baseado no cálculo variacional
elaborado por Euler há mais de dois séculos.
Com a computação eletrônica digital tornou-se possível a solução de, em
tese, qualquer equação nas condições de limites mais complexos, atualmente
expressas em simbologia das mais abstratas. Em grande número de casos, po-
rém, as próprias condições de contorno ou limites não são inteiramente conhe-
cidas. Há, então, que se recorrer às simulações matemáticas para resolver o pro-
blema. Parte-se de um modelo matemático, o qual é resolvido pela simulação
de condições diversas, que definiriam prováveis circunstâncias em que o fenô-
meno poderia acontecer. Para tanto são desenvolvidas técnicas de simulação em
computadores, pelas quais as soluções obtidas sob diferentes condições de limi-
tes são comparadas e avaliadas entre si para se chegar a uma solução adequada.
Assim são resolvidos problemas abrangendo toda a natureza: desde problemas
cosmológicos extremamente complexos, referentes à constituição e à origem
do universo, até questões tecnológicas que envolvem a vida diária da humanida-
de ou simplesmente referem-se a questões particulares.
Exemplo interessante de utilização do processo de simulação matemática
é o caso da pesquisa sobre as conseqüências do fechamento das adufas da barra-
gem de Tucuruí sobre o rio Tocantins para enchimento do reservatório, realiza-
do entre os meses de setembro e outubro de 1984.
O estudo teve dupla finalidade: em primeiro lugar, verificar as conseqüên-
cias do fechamento do rio no que diz respeito à saúde, alimentação, transporte e
abastecimento de água das populações ribeirinhas, à jusante da barragem; em
segundo, verificar a influência do fechamento do rio Tocantins sobre a salinidade
da água de abastecimento de Belém do Pará, levando em conta as marés oceâni-
cas que não só atingiam esse ponto como chegavam mesmo ao pé da barragem
de Tucuruí, 250 km à montante.

266 ESTUDOS AVANÇADOS 10 (28), 1996


A análise da primeira questão foi feita a partir das equações diferenciais de
continuidade da vazão e da dinâmica de propagação das ondas ao longo de um
canal. Essas combinadas levaram a uma equação diferencial, que foi integrada
por meio do método das diferenças finitas, o qual transforma a equação num
sistema de equações lineares algébricas simultâneas. Essas foram então calculadas
por um computador, tendo seus parâmetros determinados por observações de
registros diários de níveis d’água em vários pontos do rio e registros mareográficos
em locais próximos à confluência do rio com a baía de Marajó (23).
O modelo matemático da intrusão salina na água de abastecimento de
Belém era uma equação diferencial que relacionava a vazão fluvial com o valor
médio da salinidade na seção e no ciclo de maré. A vazão fluvial era a correspon-
dente à combinação das dos rios Pará, Tocantins e Guamá. Também aqui proce-
deu-se à transformação da equação diferencial num sistema de equações algébri-
cas lineares simultâneas e seu cálculo pelo computador (24).
A concordância, dentro de uma margem correspondente à precariedade
das informações disponíveis, veio confirmar que o método de simulação mate-
mática, nos cálculos eletrônicos, é um instrumento hábil e utilíssimo para a pre-
visão de fenômenos naturais complexos, não só nas áreas das ciências pura mas
também nas das tecnologias.
Contudo, não eram suficientes somente as equações diferenciais e as esta-
tísticas para que se completasse a matematização da natureza. Necessitava-se
ainda de uma série de leis empíricas, incluindo parâmetros relativos a proprieda-
des das matérias, tais como elasticidade, permeabilidade, condutividade térmica,
resistência elétrica etc. Isso exigia a matematização da própria matéria – o que
não foi possível pelas ciências clássicas. Para se chegar à tal matematização foi
necessário o desenvolvimento não só da mecânica quântica mas também da teo-
ria da relatividade. A primeira esclareceu a natureza corpuscular da matéria e
conduziu à expressão matemática de suas propriedades por meio da física do
estado sólido (25) e da ciência dos materiais amorfos (26), baseadas em estatística
quântica. A segunda demonstrou que a principal característica da matéria, a sua
gravidade, decorre de circunstâncias relacionadas com o espaço e o tempo.
A matematização da matéria, entretanto, só se torna possível quando as
idéias aristotélico-platônicas sobre a indeterminabilidade da matéria são abando-
nadas pela ciência moderna e substituídas pelas do atomismo – para o qual a
natureza é constituída tão somente por átomos e vácuo. Esse conceito está des-
crito no texto de Roberto Boyle, publicado em 1661, The sceptical chymist (27).
Entretanto, foi somente no primeiro decênio do século XIX que cientistas, de
várias nações de uma Europa dilacelerada pelas guerras napoleônicas – John
Dalton, inglês; Joseph-Louis Gay-Lussac, francês; Amedeo Avogrado, italiano;
J.J. Berzelius, sueco – estabeleceram as bases da teoria química atômica da maté-
ria. Dalton lançou a conjectura de que os diferentes elementos eram constituí-
dos por átomos maciços e indivisíveis, diferentes entre si somente por seus pesos,
e que se combinavam entre si para formarem as substâncias químicas. Berzelius,

ESTUDOS AVANÇADOS 10 (28), 1996 267


entre 1809 e 1814, numa enorme série de experiência, determinou os pesos
atômicos com relação ao oxigênio.

A possibilidade de correlação entre as propriedades dos elementos quími-


cos e seus pesos atômicos, porém, só aparece quando o químico russo Dimitri
Mendeleyev publica seus Princípios de química, em 1869, cujo capítulo Agru-
pamento dos elementos e lei periódica foi traduzido para o alemão em 1895 (28).
Nesse agrupamento, feito com base nos pesos atômicos, tanto os elementos que
caíam nas mesmas colunas quanto os que caíam nas mesmas linhas tinham pro-
priedades químicas semelhantes e se repetiam periodicamente. A razão dessa
coincidência só foi explicada quando surgiu a física atômica, revelando a estrutu-
ra interna dos átomos, no início do nosso século.

Depois que Faraday estudou o fenômeno da eletrólise, mostrando que


uma substância química dissolvida em água se decompõe em íons eletrizados, já
se pôde conjecturar que a estrutura atômica tinha algo a ver com a eletricidade.
Depois que Crookes descobriu, em 1879, os raios catódicos – partículas de car-
gas negativas por serem sensíveis a placas carregadas positivamente e colocadas
paralelamente à sua trajetória – percebeu-se que haveria nos átomos partículas
de carga elétrica negativa e foi possível medir suas cargas e massas. Foi Antoine
Henri Becquerel, porém, quem primeiro notou que sais de urânio emitiam radi-
ações que ionizavam o ar. Pierre e Marie Curie, depois de isolarem elementos
mais radioativos que o usual, demonstraram que tais irradiações se compunham
de elétrons (raios β), partículas carregadas positivamente (raios α) depois
identificadas como núcleos de hélio e raios semelhantes aos raios X (raios γ). Sir
Ernest Rutherford, interpondo uma delgada folha de ouro entre uma amostra
de rádium uma chapa sensível, pôde então conjecturar a estrutura interna dos
átomos como constituída por um núcleo, de dimensões reduzidíssimas, com
carga positiva, no qual se concentrava a massa dos átomos e elétrons girando em
torno do núcleo em um espaço vazio. Para tornar esse modelo estável, Niels
Bohr, em 19l3, postulou que os elétrons só poderiam girar em órbitas determi-
nadas em função do quantum da energia de Planck. Assim, só emitiriam ou
absorveriam energia ao saltar de uma dessas órbitas para outra. Esse modelo foi
justificado por explicar as regularidades das raias do espectro de emissão do
hidrogênio quando aquecido. Entretanto, as linhas espectrais dividiam-se em
vários conjuntos de linhas justapostas. Para explicar esses detalhes dos espectro
de emissão foi necessário admitir que não só os raios das órbitas dos elétrons
determinavam as energias de emissão mas, também suas formas elíticas. Essa
energia dependeria também de sua rotação em torno do próprio eixo, podendo
essa ser para a direita ou para a esquerda. Todos esses fatores determinariam o
nível energético dos elétrons e seriam identificados por quatro números quânticos
designando respectivamente: o raio médio; a forma elítica das órbitas; o movi-
mento angular da rotação do elétron; e a própria rotação (spin) do elétron.
Esses quatro números quânticos determinariam a posição dos elétrons em suas
órbitas e correlacionar-se-iam com as propriedades químicas dos átomos.

268 ESTUDOS AVANÇADOS 10 (28), 1996


A tabela de Mendeleyef foi reagrupada na ordem do número Ζ de elé-
trons, e em relação aos números quânticos. Assim, as propriedades químicas dos
elementos foram melhor relacionadas com suas estruturas atômicas. Com isso
fortaleceu-se a idéia de que seria possível se deduzir o valor das propriedades
químicas da matéria a partir de sua estrutura atômica.
Mas a dificuldade de adaptar o modelo de Bohr a elementos de muitos
elétrons foi se agravando. Ao mesmo tempo, foram sendo estudados fenômenos
os quais mostraram que as partículas atômicas às vezes apareciam como ondas
capazes de se refletirem e se difratarem. Em 1924 os irmãos De Broglie demons-
traram experimental e teoricamente essa complementaridade entre partículas e
ondas. Chegou-se mesmo a conjecturar que as entidades quânticas não eram
partículas, nem ondas; só seriam umas ou outras depois de registradas experi-
mentalmente e expressas matematicamente.
Foi então necessário que se abandonasse qualquer modelo do átomo como
sistema planetário, passando-se a entendê-lo como um núcleo envolto em at-
mosfera ondulatória. Desenvolveu-se a seguir uma nova mecânica quântica, por
parte de Erwin Schrödinger, indicando uma função que mediria as variações,
nos pontos e nos tempos, em que a ondulação da atmosfera eletrônica dos áto-
mos se dava. Em outras palavras, a equação da função ψ expressaria a variação da
densidade elétrica em torno do núcleo atômico. Em 1926, Max Born demons-
trou que o quadrado da amplitude da função exprime a probabilidade daquela
densidade elétrica. Em átomo de um só elétron tal probabilidade pode ser en-
tendida como a de encontrar-se o elétron num ponto e no instante correspondente.
Simultaneamente a essa teoria ondulatória, apareceu outra sobre a estru-
tura atômica: a de Werner Heisenberg, apoiada nas equações da mecânica clássi-
ca de Hamilton. Essas equações envolvem a energia total H (a qual é função das
quantidades de movimento e respectivas coordenadas espaciais dos pontos de
massa) do sistema. Essa função é tomada, em sua forma generalizada H(qipi),
como função de ponto de um espaço fase 2i – dimensional, e as variáveis inde-
pendentes passam a ser consideradas como matrizes. Heisenberg, bem utilizan-
do a álgebra matricial, construiu sua teoria matemática. Pode-se demonstrar que
a matriz diagonal correspondente à matriz H é equivalente ao nível de energia E
das equações de Schrödinger. Portanto, ambas as formalizações representam dois
aspectos da mesma teoria: o primeiro, enfatiza o aspecto ondulatório; o segun-
do, o movimento das partículas.
Esses formalismos só foram aceitos como verdadeiros depois de verifica-
dos experimentalmente por meio da observação do que acontecia quando os
átomos eram bombardeados por partículas dotadas de energia suficiente para
quebrá-los. A princípio usaram-se para tal fim os raios cósmicos e, depois, acele-
radores de partículas cada vez mais poderosos. Essas experiências confirmaram a
teoria; porém, é de se lembrar que elas foram, por sua vez organizadas de acordo
com a teoria, ou seja, para serem realizadas e seus resultados interpretados, de
alguma forma pressupunha-se a constituição quântica da matéria.

ESTUDOS AVANÇADOS 10 (28), 1996 269


Curiosamente, em 1928, Dirac, estendendo a teoria ondulatória ao caso
de um elétron livre movendo-se com velocidade próxima à da luz, concluiu que
as equações levariam a duas soluções para o nível energético do elétron, uma
delas negativa. Inferiu que quando fosse concentrada energia suficiente num
ponto do espaço ocupado por um elétron de nível energético negativo, surgiria
uma partícula de massa igual à do elétron, mas de carga elétrica positiva.
Em 1933, Occhialini observou nos raios cósmicos recolhidos numa câma-
ra de névoa, ou chapa fotográfica, o aparecimento de partículas que deixavam
duas riscas, originadas num mesmo ponto. Na presença de um campo magnéti-
co, uma delas tomava a direção positiva e a outra a negativa. Eram um elétron e
um anti-elétron positivo, que veio a ser denominado posítron.
Tal fato confirma a idéia de que as equações matemáticas, verificadas como
verdadeiras, não só simbolizam, mas descobrem e englobam a realidade.
A decisão de renunciar à figuração dos elétrons girando em órbitas em
torno do núcleo atômico, apresentada nas teorias de Schrödinger e Heisenberg,
foi acentuada pelo princípio de incerteza introduzido pelo último, em 1927.
Heisenberg mostrou que seria impossível determinar, ao mesmo tempo, as co-
ordenadas do ponto onde estivesse um elétron e a quantidade de movimento.
Uma série de experiências posteriores, organizadas e interpretadas de acordo
com a complementaridade onda-partícula e com o princípio de incerteza, leva-
ram a observar uma estranha ambigüidade da posição, da identidade e da traje-
tória dos fótons e, por extensão, de quaisquer partículas atômicas que se com-
portassem como ondas. Dessas experiências pode-se concluir que um mesmo
fóton passa, ao mesmo tempo, por duas fendas feitas num anteparo. Recente-
mente foi demonstrado que a simples procura de informação sobre em qual dos
dois furos passara o fóton, já é suficiente para impedir a formação de bandas de
interferência que se formariam pela passagem de ondas de fótons pelas duas
fendas.
Portanto, as experiências organizadas e interpretadas de acordo com a te-
oria ondulatória levam à conclusão de que partículas atômicas comportam-se em
desacordo com as leis de identidade e da não-contradição que deveriam reger a
realidade, conferindo a elas um caráter fantasmagórico. Entretanto, a equação
de Schrödinger é única, coerente consigo mesma e verdadeira; por ser concor-
dante com a experiência; portanto define melhor uma realidade do que a própria
experiência. Assim, poder-se-ia conjecturar que as equações matemáticas não
seriam apenas símbolos do real; elas passariam a ter características da própria
realidade.
Na década dos anos 30 a mecânica quântica já estava suficientemente de-
senvolvida para que surgissem análises estatísticas do comportamento de elé-
trons e fótons, considerados como nuvens de partículas; os primeiros subordina-
vam-se à estatística de Ferni, que obedece ambos os princípios quânticos de

270 ESTUDOS AVANÇADOS 10 (28), 1996


incerteza e de exclusão; os segundos à estatística de Bose, que obedece ao prin-
cípio de incerteza mas não ao de exclusão. Verificou-se posteriormente que os
prótons e os neutros obedecem à estatística de Ferni, e os mésons, a de Bose. Por
esse motivo, os primeiros foram chamados de fermions e os segundos de bosons,
em homenagem aos criadores das estatísticas quânticas.
Aplicando-se a estatística de Ferni à nuvem de elétrons livres numa estru-
tura cristalina, como a dos metais, chega-se a exprimir a condutividade elétrica
em termos da energia dos elétrons e, portanto, de sua temperatura absoluta.
Torna-se evidente que a temperatura absoluta pode ser expressa de forma seme-
lhante à da condutividade térmica. Há tipos de ligações atômicas – por exemplo,
nos sólidos não-metálicos – que não permitem a existência de elétrons livres por
serem isolantes. Entretanto, há materiais intermediários entre isolantes e condu-
tores: os semicondutores.
Os semicondutores (como o silício e o germânio) apresentam
condutividade intrínseca formada quando, por motivo de eventual impureza em
sua massa, elétrons conseguem se libertar de suas ligações atômicas. Então, não
só esses elétrons conduzem eletricidade como também os lugares onde eles es-
tavam fixos passam a funcionar como vazios eletrônicos. Quando um campo
elétrico é aplicado ao material semicondutor, elétrons podem se mover para
esses espaço, deixando vazios os seus lugares. Assim, forma-se como que uma
corrente positiva em sentido oposto à dos elétrons. Há impurezas nos
semicondutores que fazem prevalecer as cargas negativas (elétrons) e, outras, as
positivas (vazios). É fácil verificar-se que se dois desses semicondutores forem
postos em contato e seu conjunto submetido a potenciais elétricos alternados,
eles funcionarão como retificadores de corrente. A aplicação dos princípios da
física dos sólidos a esse fenômeno levaram à descoberta e à fabricação dos tran-
sistores – dispositivos eletrônicos compostos pela justaposição de semicondutores,
como mencionado – utilizados para controlar, amplificar e retificar correntes
elétricas.
Semelhantemente a esse exemplo, a mecânica quântica já conseguiu ex-
pressar matematicamente – através da física dos estados sólidos – as propriedades
da matéria sólida cristalina. e está em vias de fazê-lo no que se refere à matéria
amorfa. Contudo, deve-se lembrar que essas conquistas foram precedidas por
análises qualitativas, experiências e ensaios no campo da tecnologia através de
uma ciência de engenharia: a ciência dos materiais. Dessa forma, confirma-se
que a matematização da natureza não é um processo simplesmente científico;
atende também a uma necessidade tecnológica.
A partir de então o problema da física quântica foi investigar a natureza e
a estrutura interna daquele pequeníssimo núcleo do átomo no qual se concen-
trava a sua massa. Contudo, por pequenas que fossem suas dimensões, ele seria
composto por partículas ainda menores como era de se supor desde que se des-
cobriu a desintegração radioativa: prótons, com massa milhares de vezes superi-
or às dos elétrons e carregados positivamente; e neutros, de massas semelhantes

ESTUDOS AVANÇADOS 10 (28), 1996 271


às dos prótons, porém sem carga elétrica. Matematicamente chegou-se à con-
clusão que essas partículas também admitiam antipartículas, à semelhança do
que se tinha observado com os pósitrons. Deve-se lembrar, entretanto, que to-
das essas antipartículas têm vida extremamente curta. A matéria dominante no
universo é constituída por prótons, nêutrons e elétrons movidos ou aglutinados
por energias.
No ano de 1935, em uma série de conferências proferidas em Berlim,
Heisenberg já se referia sumariamente a um físico japonês – Hideki Yukawa –
que propusera a existência de um campo de forças nucleares, diferente do eletro-
magnético. Tal campo seria responsável pela atração atuante a pequeníssimas
distâncias entre prótons e nêutrons. Teoricamente, os quanta desses campos
nucleares deveriam ter massa cerca de 200 vezes maiores do que a massa do
elétron. Em 1937 Anderson Neddermeyer descobre partículas de massa na pro-
porção de 200 vezes à do elétron nos raios cósmicos, as quais foram chamadas
mésons. Mas, esses mésons não tinham as características requeridas pela teoria
de Yukawa.
Nos anos 60 começa-se a considerar a idéia já concebida de eletro-dinâmi-
ca quântica (29) – explicando a interação entre cargas elétricas por intermédio de
fótons – como possível modelo de uma teoria matemática para esclarecer a
interação entre as partículas do núcleo atômico. Tais forças são chamadas de
fortes e fracas: as primeiras atuando a pequeníssimas distâncias entre os núcleos e
intermediadas pelos mésons; as segundas atuando entre as demais partículas, por
intermédio de uma partícula postulada por Steven Weinberg em sua Teoria
unificada da i,teração entre partículas (30). Essa teoria está sendo revista com
referência às forças fortes uma vez que, do seu estudo, resultou algo não se
enquadrar adequadamente.
Dessas especulações inferiu-se a existência de subpartículas intranucleares:
os quarks, unidos entre si pelos gluons, que formam os prótons, os neutros e os
mésons. Depois de muitos esforços para se quebrar as partículas em quarks, os
atuais poderosos aceleradores de partículas o estão conseguindo.
A elaboração de uma teoria matemática que unisse as forças eletromagné-
ticas com as nucleares e, eventualmente, pudesse ser estendida às forças
gravitacionais, intermediadas pelas hipotéticas partículas grávitons – acompa-
nhadas pelos gravitinos, correspondentes aos neutrinos dos elétrons e mésons –
constituir-se-ia como uma construção da mente humana de tal monta que se
poderia, evocando Hegel, dizer que a natureza é uma explicitação da idéia; em
outras palavras, que a natureza material seria moldada pela mente humana. Isso
porém não é inteiramente verdadeiro: é um pressuposto da ciência moderna
que toda teoria verdadeira deve conformar-se com resultados de experiências.
Contudo insiste-se, sob o aspecto metodológico das ciências modernas, que a
experiência científica deve, por sua vez, ser organizada e interpretada de acordo
com a teoria. Portanto, o fenômeno observado e experimentado já tem em si a
marca do pensamento humano.

272 ESTUDOS AVANÇADOS 10 (28), 1996


Dessa forma, assim como não se pode aceitar o idealismo como teoria da
realidade radical, também não é possível aceitar o realismo. É possível sustentar-
se haver complementaridade entre a mente humana e o mundo físico de tal
ordem que suprimindo um dos pólos o outro desapareceria. A realidade radical,
isto é, a fonte de onde brota toda a realidade com que nos defrontamos, contra
a qual esbarramos, controlamos ou somos por ela subjugados no cotidiano de
nossas vidas, é uma dualidade polar: mente-mundo que ainda não foi suficiente-
mente analisada e compreendida pela filosofia.
Quer-me parecer que a expressão dessa realidade dual está justamente nas
equações matemáticas, quando essas recebem o veredicto da comprovação ex-
perimental. Tal fato está patente no campo das tecnologias ao se utilizar uma
equação matemática para projetar uma obra ou criar um produto e, conseqüen-
temente, a construção da obra ou a fabricação do produto trazem ao mundo
aquilo que antes foi somente pensado. Enfim a tecnologia é capaz não só de
prever e prover, mas de criar o real através da conjugação do pensamento teóri-
co com a ação prática, ambos se conformando um com o outro.
Contudo, tal aspecto da equação matemática – como reveladora do cará-
ter dual da realidade – está mais nitidamente expresso nas equações da teoria da
relatividade e da mecânica quântica, quando corroboradas pela experiência cien-
tífica. Essas equações – que vão além da capacidade intuitiva da mente humana –
evidentemente têm origem mental, mas revelam aspectos da realidade que nos
impedem tanto de tomar posição idealista quanto realista. Elas estão se impon-
do, como modelos sugestivos de uma futura teoria metafísica da realidade radi-
cal, àqueles que se interessam por procurar compreender a essência da natureza.
Assim poder-se-ia completar o dito de Galileu: “o livro da natureza está
escrito em caracteres matemáticos”, acrescentando-se a ele: mas, algumas das
páginas desse livro estão sendo agora escritas e outras ainda o serão, no futuro.

Notas

1 W. Jaeguer. La teologia de los primeros filosofos gregos. México, Fondo de Cultura


Economica, 1952.

2 Platon. Timée. Critias. Paris, Societé d’Edition “Les Belles Lettres”, 1970.

3 Aristóteles. Physique. Paris, Societé d’Edition “Les Belles Lettres”, 1961.

4 Claudion Ptolemaion. Mathematike syntaxeis. Edição bilingüe grego/francês. Paris,


Chez Henri Grand Librairie, 1813.

5 Pierre Duhen. Sozeinta fainomena: Essai sur la notion de theorie physique de Platon
à Galiléi. Annales de Philosophie Crétiene (ser. 4) 79/156-1908. Tradução brasileira
de Roberto de Andrade. Cadernos de História e Filosofia da Ciência - Supl. 1,
Campinas, Unicamp, 1984.

ESTUDOS AVANÇADOS 10 (28), 1996 273


6 Lucrecio. Da natureza das coisas. Tradução portuguesa de Antonio José da Silva
Leitão. São Paulo, Edições Cultura, 1941.
7 N. Copernico. Sobre las revoluciones de los orbes celestes. Edición preparada por
Carlos Minguez y Mercedes Testal. Madrid, Editora Nacional, 1982.
8 Leonardo Da Vinci. Scritti letterari. Milão, Rizzoli, 1952.

9 Galileu Galilei. Duas novas ciências. Museu Astronomia, Instituto Italiano de Cul-
tura. São Paulo, Ed. Nova Stella, 1988.
10 I. Newton. Mathematical principles of natural philosophy. Chicago, Britannica Great
Books, v. 34, 1978.
11 J.L. Lagrange. Mecanique analytique. Paris, Mattet-Bachelier, gendre et successur
de Bachelier, 1853.
12 P.S. Laplace. Oeuvres completes de Laplace. Paris, Gauthier-Villars, 1884.

13 Id. ibid.

14 Id. A philosophical essay on probabilities. In: Breakthroughs in mathematics. New


York, Signet, 1963.
15 J.B.J. Fourier. Analytical theory of heat. Chicago, Britannica Great Books, v. 45,
1978.

16 S. Carnot. Reflexions on the motive power of fire, and other papers on the second law of
termodynamic by E.Clayperon and R. Clausius. New York, Dover Public. Inc., 1962.
17 Ludwig Boltzmann. Sobre da inevitabilidad del atomismo en las ciencias de la
naturaleza. In: Ensaios de mecanica y termodinamica. Madrid, Alianza Editorial,
1986.

18 J. Willard Gibbs. Elementary principles in statistical mechanics. New York, Dover


Pub. Inc., 1960.
19 André-Marie Ampére. Theorie mathematique des phénomenes electro-dynamiques
uniquement déduites de l’experience. Paris, Blanchard, 1958.
20 M. Faraday. Experimental research in electricity. Chicago, Great Books. Encyclopaedia
Britannica Inc., 1952.
21 J.C. Maxwell. A treatise on electricity and magnetism. New York, Dover Public.
Inc., 1954.
22 Heinrich Hertz. Electric waves. New York, Dover Public. Inc., 1962.

23 P.D. Jensen; C.L.M. Horita e C. Matheopoulos. Simulação matemática de escoa-


mento fluvial com influência da maré. Comparação entre valores simulados e obser-
vados no rio Tocantins após o fechamento de Tucuruí. São Paulo, VI Simpósio Bra-
sileiro de Recursos Hídricos, 1985.
24 A. Portela; C. Matheopoulos; L. Roa; P.D. Jensen e R. Barbosa. Intrusão salina no
rio Guamá, durante o enchimento do reservatório de Tucuruí. São Paulo, Anais do
XII Congresso Latinoamericano da AIRH, 1986.

274 ESTUDOS AVANÇADOS 10 (28), 1996


25 R. Christian. Fundamentals of solid state physics. New York, J. Willey & Sons, 1988.

26 S.R. Elliot. Physics of amorphous materials. Longman Scientific and Technical. New
York, John Willey & Sons, 1984.

27 Robert Boyle. The sceptical chymist. In: Breakthroughs in chemistry. New York and
Toronto, New American Library, 1967.

28 Mendeleyev. Grouping of the elements and the periodic law. In: Breakthroughs in
chemistry. New York and Toronto, New American Library, 1967.

29 R.P. Feymman. Eletrodinamica cuántica. Madrid, Alianza Editorial, 1988.

30 S. Weinberg. Unified theory of elementary particle interation. Scientific American,


jul. 1974.

RESUMO – O processo pelo qual os fenômenos da natureza vêm sendo expressos por
equações matemáticas tornou-se essencial para a ciência e a tecnologia do mundo atual,
não só para compreendê-los mas também para prevê-los, controlá-los e modificá-los
segundo a conveniência humana. Esse processo teve origem ao surgir na Grécia, no VI
século antes de Cristo, um tipo de pensamento radicalmente novo que veio a se chamar
teoria. Entretanto, somente se estabelece totalmente quando aparece a ciência moderna,
no século XVII da nossa era, com as palavras de Galileu: “o livro da natureza está escrito
em caracteres matemáticos”. Desde então, a matemática deixa de ser tão somente a
técnica de contar, de medir figuras, ou a maneira de contemplar as harmonias do univer-
so, para tornar-se uma forma de analisar os fenômenos naturais quantificados. Os mate-
máticos contemporâneos da Revolução Francesa desenvolveram essa análise por meio de
equações diferenciais, cujas resoluções iriam resolver problemas não só científicos mas
também de engenharia. Disso resultou uma matematização da natureza que vai desde a
geometrização do espaço, por Einstein, até a descoberta dos transistores pelas teorias
matemáticas da física dos materiais. Contudo, a solução dessas equações diferenciais,
dentro dos limites determinados pelas circunstâncias em que o fenômeno natural se dá,
apresenta uma série de dificuldades que impede o ideal de resolver matematicamente
qualquer problema científico ou tecnológico. Somente depois da Segunda Guerra Mun-
dial, a computação eletrônica e as técnicas de simulação matemáticas possibilitadas pelo
cálculo automático tornaram possível a solução de tais equações, já agora expressas em
simbologia extremamente abstrata. Com elas tornou-se possível não só conhecer
detalhadamente os estranhos fenômenos que se passam entre as galáxias do universo,
como resolver problemas técnicos que afetam a vida diária da humanidade. Uma tal
dominância da matematização da natureza no mundo moderno vem transformando ra-
dicalmente a vida humana, tanto do ponto de vista biológico quanto do social e do
econômico. Mas, além disso, veio trazer problemas filosóficos que desafiam as doutrinas
idealistas e as realistas.

ABSTRACT – The practice of expressing natural phenomena by mathematical equations


has become essential for science and technology of the today’s world, not only to
understand them but also to predict them, putting these phenomena under control and
changing them for human convenience. This practice was originated in Grece, when in
the VI century b.C. there appeared an absolutely new way of thinking that came to be

ESTUDOS AVANÇADOS 10 (28), 1996 275


called theory. But it was definetely set only during the XVII century of this era, when the
modern science appeared, with the Galileu’s writings: “the book of nature is written in
mathematical characters”. Since then, mathematics has no longer been merely a technique
for counting or measuring figures or a way for contemplating the universal harmonies: it
became a way of analysing the quantified natural phenomena. The mathematicians at the
time of the French Revolution developed this analysis by means of differential equations
whose solutions will solve not only scientific problems, but also engineering problems.
This resulted in the mathematization of the nature that goes from the geometrization of
the space, by Einstein, to the discovery of the transistors through the mathematical
theories of the physics of materials. However, the solution of these differential equations,
within the limits defined by the circumstances in which natural phenomena occur, shows
a series of difficulties that obstruct the goal of mathemathically solving any scientific of
technological problem. Only after the World War II the electronic computation and the
mathematical simulation techniques, made possible by the automatic calculus, turned
possible the solution of such equations, now expressed in an extremely abstract symbology.
With these, now not only it is possible to know in detail the strange phenomena of the
galaxies of the universe, but also to solve technical problems of the day to day activities
of man. Such a dominance of the mathematization of nature has radically been changing
human life, not only in the biological point of view but the social and economical as well.
Moreover, it has brought about philosophical challenges, concerning both idealistic and
realistic doctrines.

Milton Vargas é professor emérito da Escola Politécnica da USP e autor de Introdução à


mecânica dos solos, Ciência e verdade e Para uma filosofia da tecnologia.

Conferência do Mês do IEA-USP feita pelo autor em 19 de março de 1996.

276 ESTUDOS AVANÇADOS 10 (28), 1996

Você também pode gostar