Você está na página 1de 18

O Método da Teoria Neoclássica - a economia neoclássica é uma teoria refutável?

Liderau dos Santos Marques Junior*

Sabino da Silva Pôrto Júnior**

1. Introdução

O desenvolvimento da economia, enquanto campo do saber em formação, tem se


dado não só através de um embate teórico, como também em termos de solução de
problemas centrais como a geração de riquezas e a distribuição de renda entre os
agentes econômicos. Ou seja, a resolução de questões de política econômica
propriamente dita, bem como através de um embate epistemológico, ainda não
resolvido, onde cada autor ou escola procura, ainda que de forma implícita, apresentar
os verdadeiros postulados metodológicos que devem nortear a ciência econômica.

Sem ser exaustivo, este artigo procura retomar a questão metodológica a partir da
análise da concepção de método na teoria neoclássica. Após uma breve sistematização
da concepção empirista, desde os indutivistas clássicos, passando pelo falseacionismo
popperiano e pelo programa de pesquisa de Lakatos, procura-se apresentar argumentos
que justificam a posição neoclássica quanto ao método em economia.

Nesse sentido, apresenta-se um panorama da teoria neoclássica, a partir do seu


enfoque metodológico, tendo como objetivo principal a sua caracterização. Em
particular, buscam-se respostas para as seguintes questões: A economia neoclássica é
uma teoria refutável? A economia neoclássica é um programa de pesquisa científico?
Para responder às questões colocadas acima, fez-se na segunda seção, uma resenha das
contribuições da visão empirista, Friedman, Machulup, Popper e Lakatos sobre
metodologia científica. Discute-se, na terceira seção, a prática dos economistas
neoclássicos a partir de análises de algumas de suas teorias específicas. A economia
neoclássica em estudo neste artigo é representada pela teoria do consumidor, teoria da
firma, teoria do equilíbrio geral e teoria da produtividade marginal.

Portanto, o artigo não é um tratado de filosofia da ciência, ou seja, não se discute


aqui a evolução da teoria do conhecimento e da metodologia científica, nem a evolução
da metodologia da ciência econômica. Procura-se apenas apontar argumentos que
caracterizam a abordagem neoclássica como sendo baseada essencialmente nos
approachs metodológicos de Popper e de Lakatos sem seguir estritamente uma visão ou
outra.

                                                            
** Doutorando, PPGE-UFRGS. E-mail: liderau@ppge.ufrgs.br.

** Professor, PPGE-UFRGS. E-mail: portojr@vortex.ufrgs.br.


2. Metodologias Científicas alternativas: uma breve revisão

2.1 A Visão Empirista

O método indutivo é uma forma de compreensão da realidade que procura fazer


generalizações a partir de observações particulares. O ponto de partida é sempre um ou
algumas observações regulares, ou seja, que apresentam certo padrão de repetição e
certas características básicas. O processo indutivo consiste exatamente em afirmar que
aqueles fatos que foram observados no passado se repetirão sistematicamente no futuro.

A indução surge com os trabalhos de Francis Bacon que procura definir um


conjunto de regras para observar fenômenos e inferir conclusões a partir de tais
observações.

Negligenciava-se por completo a teorização e abstração, dando-se ênfase ao


saber empírico. A observação era pura e, por conseguinte, infalível, objetiva, verdadeira
e neutra. Esta visão era sensualista ao extremo e pressupunha uma infalibilidade dos
sentidos o que representava o caráter objetivo da ciência e a sua não subjetividade. Ao
defender a retirada de toda carga de valores que o observador possui na observação dos
fenômenos, criou-se a ilusão de que o método indutivo evita completamente a viés
ideológico, subjetivo e tendencioso da ciência. Como tudo é observável e os sentidos
são neutros e infalíveis o critério de cientificidade de uma investigação é definido pela
comprovação ou verificação dos fatos.

Um desdobramento posterior da visão empirista de mundo é o de Comte em sua


"Lei dos três Estados", segundo a qual a humanidade (se fosse possível usar esta
expressão ao final do século XIX) passaria por estágios diferenciados de
desenvolvimento onde cada "época" representaria a predominância de um determinado
aspecto do saber. Primeiro, o espírito humano desenvolveria a fase teológica na busca
de explicação apoiada no "sobrenatural", no divino. Depois viria a fase Metafísica, onde
o homem era o centro do Universo, assumindo-se explicações universais, totais. Por
fim, a fase positiva, onde a ciência seria a própria teoria do conhecimento e o fim último
do conhecimento.1[1] Além disso, o homem procura uma explicação dos fatos e
fenômenos através da investigação empírica e na busca das relações universais e
constantes entre os fatos.

Seria a primazia do empírico e a ciência seria o "locus" deste saber moderno


onde todos os enunciados, conceitos, teorias e hipóteses teriam um contato, uma base
com a observação pura. Porém, além desse princípio empírico básico, o positivismo de
Comte se apóia também numa base sólida, usando as palavras de Habermas: "... o
                                                            
1[1]Ver Habermas (1982).
positivismo não considera, porém, a certeza do conhecimento como exclusivamente
garantida por meio do embasamento empírico, igualmente importante, ao lado da
certeza sensível, é a certeza metódica." (Habermas, 1982, p.96).

Em outras palavras, a base empírica não se afasta totalmente da base racional do


proceder científico. O positivismo reúne a razão e a observação. Nada é observado sem
uma lógica formal onde as conexões entre causas e efeitos, entre os fenômenos e os
conceitos "observacionais" são teorizados e/ou modelados, ou seja, "... o espírito
positivo, sem jamais desconhecer a necessária prevalência da realidade constatada
imediatamente em cada forma, tende sempre a aumentar o mais possível o domínio do
puro raciocínio à custa do exercício experimental." (Comte, 1988).

Surge, assim, o positivismo lógico, expressão conhecida para representar um


grupo de intelectuais que fizeram parte do chamado Círculo de Viena que reuniu, dentre
outros, Shlick, Rudolf Carnap, Otto Nemath, Honh e Karl Mayers.2[2] Estes autores
assumem a relevância da ciência e reconhecem a impropriedade da filosofia como base
para explicação. Estes autores baseavam-se na ciência como surgindo dois princípios
fundamentais:3[3]

a) Princípio do Empirismo - onde cada conceito só terá relevância se puder ser


testado empiricamente, se possível através do exame de fatos concretos.

b) Princípio do logicismo - para que um enunciado seja considerado de cunho


científico ele tem que ser formulado em linguagem estritamente lógica.

Como conseqüência desta concepção epistemológica do conhecimento, os


positivistas lógicos apóiam-se ainda no empírico, apesar de não discutirem a origem
racional ou não do conhecimento, ou seja, não importando quem vem primeiro a
observação ou a teoria, mas sim, que o conhecimento seja observável, corroborável e
testável4[4].

Para os positivistas lógicos a ciência busca infalivelmente a verdade e esta pode


ser comprovada ou corroborada pelos fatos empiricamente testáveis. A verdade
científica é um valor em si mesma sendo alcançável através de rigor lógico dos sistemas
teóricos e da experimentação ou testes empíricos. Portanto, são chamados de
verificacionistas. Diferentemente, Popper assevera que as formulações teóricas (lógicas)
nascem da necessidade de resolução de problemas concretos e propõe o uso da base
empírica como teste formal das teorias, contudo, não defende a comprovação de teorias,
mas sim a sua refutação ou falseabilidade via testes empíricos.

                                                            
2[2] Para uma esquematização das idéias deste grupo, ver CALDWELL (1982).

3[3] Ver Carvalho (1988).

4[4]  Esta posição não pode ser confundida com as posições de Popper (1977, 1982), apesar deste ter 
sido contemporâneo e de ter colaborado em certo sentido com o CÍRCULO DE VIENA.  
Ademais, Popper, apoiado em Hume, derruba o indutivismo e, por conseguinte,
o "apelo" fortemente empirista do positivismo lógico. A observação, os fatos e a
experimentação não levam à verdade inexorável, última, apenas possibilitam testar a
teoria e revisar o problema que a teoria postula solucionar.

Até aqui, o que se viu foi uma rápida visão da evolução do pensamento empirista
que se consolidou a partir do século XVI e que até os dias atuais é usado em ampla
medida pela ciência na resolução de problemas, na formulação de bases empíricas e na
corroboração de teorias. Contudo, a primazia da observação como processo de
compreensão do real não vigora com o mesmo entusiasmo do passado. A observação
pura e o acúmulo sistemático de observações pouco representam, a menos que estejam
estreitamente ligados a um corpo teórico básico.

Ainda que as teorias precisem de base empírica ou de verificação empírica para


se consolidarem, a indução pura foi questionada radicalmente, primeiro porque não é
possível uma total isenção dos sentidos como defendiam os empiristas, segundo porque
não podemos observar o que não conhecemos, é impossível observar puramente. Por
exemplo, ninguém que não conheça o conceito de cadeira pode catalogar um conjunto
de cadeiras. "Um dado fala por si, mas pela boca de uma teoria." (Demo, 1989) A
primazia da teoria sobre o empírico é incontestável, pois, primeiro nos perguntamos o
que queremos observar; para, em seguida, procurar na realidade a corroboração ou
refutação ao que asseveramos de forma hipotética e dedutiva.

Além desse aspecto geral, a indução foi questionada por David Hume em sua
base racional e lógica no trabalho "Investigações sobre o conhecimento humano". Hume
(1989) defende com bastante ênfase que não há uma justificativa racional capaz de
assegurar que o que aconteceu no passado se repetirá no futuro, por maior que seja o
número de repetições e/ou observações realizadas. Pode-se sempre afirmar o contrário
do observado no passado, ou seja, pode-se afirmar categoricamente que o sol não vai
nascer amanhã sem se incorrer em erro lógico, porque simplesmente não se conhece a
causa primeira ou a essência do processo de nascimento do Sol. Não se pode fazer a
ponte entre a causa e o efeito, apenas se pode observar e anotar as repetições.

Contudo, continua-se a acreditar em nossas expectativas de forma insistente, ou


seja, expectativas são geradas em torno de observações repetidas e se tem uma "crença"
inabalável de que essas repetições continuarão a ocorrer no futuro. A partir delas,
fazemos afirmações e generalizações para fenômenos ainda não observados como, por
exemplo, o Sol irá aparecer amanhã às 6 horas. Hume defende que isto ocorre por causa
do costume ou hábito, é uma questão psicológica fundamental: o ser humano precisa de
regularidades para a sua própria sobrevivência.

2.2 Metodologia (normativa) de Popper5[5]

                                                            
5[5]Segundo Feijó (1994) a metodologia popperiana é adaptada em economia por
autores como Hutchison (1965) e Machlup (1978).
Popper diferencia a ciência da não-ciência propondo o seguinte critério de
demarcação: “... a ciência é aquele corpo de proposições sintéticas sobre o mundo real
que pode, pelo menos em princípio, ser falseada mediante observações empíricas.
Portanto, a ciência se caracteriza pelo seu método de formular e testar proposições, (...)
qualquer que seja a certeza apresentada pela ciência, essa é a certeza da ignorância.”
(Blaug, 1993, p.50) A característica fundamental do conhecimento científico, portanto,
é a constante tentativa de falsear as hipóteses existentes e substituí-las por outras que
resistem à falseabilidade. Outra forma de ver o mesmo processo é encarar o critério de
demarcação como sendo o de que as teorias são científicas se fazem previsões passíveis
de serem testadas empiricamente. Neste sentido, o critério essencial é o de se expor ao
teste da realidade observável. Conforme este critério, tem-se um amplo espectro de
conhecimento que vai do extremo da física e da química, consideradas como as ciências
naturais “pesadas”, passando pelas ciências sociais, até a poesia e as artes.

A inferência indutiva (ou a indução) enquanto “... um argumento que usa


premissas que contêm informação sobre alguns membros de uma classe a fim de apoiar
uma generalização sobre toda a classe...” não é um argumento lógico válido, portanto, é
não demonstrativo. Isto porque não é possível justificar logicamente a inferência
indutiva. A indução “... é a operação não-lógica que consiste em pular do caos, que é o
mundo real, para uma intuição ou tentativa de conjectura acerca da relação real existente
entre o conjunto de variáveis pertinentes.” (Blaug, 1993, p.54) Já a lógica dedutiva,
segundo a qual argumentos baseados em premissas verdadeiras levam a conclusões
verdadeiras, é um argumento demonstrativo. De fato, Popper justifica o conhecimento
científico utilizando principalmente a lógica dedutiva.6[6] Em outras palavras, reduz o
conhecimento científico aos seus aspectos lógico-formais. A justificação lógica da
dedução advém do seguinte expediente: “... a inferência dedutiva só é legítima se não
admite contra-exemplo.” (Ramos, 1993, p.61).7[7]

Em suma, a proposta de Popper é clara: “negar a indução, considerar o


apriorismo, escolher o falsificacionismo.” (Ramos, 1993, p.60) Em troca da inferência
indutiva, trata-se de avaliar a coerência interna de uma teoria, comparar suas conclusões
com outras teorias concorrentes, examinar a lógica formal da teoria (se é empírica ou
tautológica), verificar se a teoria resiste aos testes empíricos e, finalmente, confrontar
suas predições com a experiência.

O que os cientistas buscam é explicar e produzir “... previsões lógicas inerentes


às suas explicações a fim de testar suas teorias; todas as teorias ‘verdadeiras’ são apenas
provisoriamente verdadeiras (...), toda a verdade material que possuímos está embutida
nessas teorias que ainda não foram falsificadas.” (Blaug, 1993, p. 55)

Assim, nenhuma teoria é conclusivamente falseável ou inexistem experimentos


definitivos que refutem de modo conclusivo uma teoria, pois “... ‘sempre se pode dizer
que os resultados experimentais não são confiáveis ou as discrepâncias que se supõe
existir entre o resultado experimental e a teoria são apenas aparentes e que

                                                            
6[6]Para uma crítica a esta posição de Popper, veja Ramos (1993, p.59).  

7[7] Essa passagem merece um tratamento mais rigoroso que será feito nos próximos parágrafos.  
desaparecerão com o avanço de nossa compreensão.’” (Blaug, 1993, p.56) Ademais,
uma teoria pode não corresponder aos fatos empíricos.

Para proteger suas teorias da refutação os cientistas utilizam-se de “estratagemas


de imunização”, ou seja, da imposição de limites metodológicos. São três os
estratagemas básicos:

“(1) Podemos postular hipóteses adicionais ad hoc que, mantendo


aparentemente a integridade da teoria, possibilita encaixá-la nos fatos. (2) O
cientista está livre para questionar a validade do conjunto de enunciados
factuais que compõem a chamada ‘base empírica’. (3) Por fim, o cientista,
mantendo as hipóteses básicas da teoria, altera, algumas das condições
adicionais que compõem o explanans, por exemplo, o campo de
aplicabilidade da teoria em questão.” (Feijó, 1994, p. 24)8[8]

Tais estratagemas se justificam, pois, os cientistas têm a esperança de que suas


teorias possam ser revistas e, desse modo, possam lidar com as anomalias descobertas.

Quanto ao grau de corroboração de uma teoria, Popper afirma o seguinte: “...


‘Quando falo em grau de corroboração de uma teoria, refiro-me a uma avaliação concisa
do estado (em um dado tempo t) da discussão crítica de uma teoria, com relação à forma
como resolve seus problemas; seu grau de testabilidade; o rigor dos testes a que foi
submetida; e a maneira como resistiu aos testes. A corroboração (ou grau de
corroboração) é, portanto, um relatório avaliador de desempenho passado.’” (Blaug,
1993, p.64) Para ele, “... uma teoria é corroborada não quando concorda com muitos
fatos, porém, quando não encontramos fatos que a refutem.” (Blaug, 1993, p.62) A
corroboração de uma teoria é uma medida do grau de confiança dos cientistas sobre as
teorias submetidas aos testes empíricos.9[9]

Lisboa (1998) chama a atenção para o uso do termo corroboração, o qual

“... é utilizado para evitar qualquer interpretação de que o modelo foi


demonstrado correto ou verdadeiro. A abordagem de Popper é
                                                            
8[8]Feijó (1994,p.24-25) discute os três estratagemas em maiores detalhes.

9[9] Algumas das dificuldades, apontadas por Lisboa (1998), sobre a realização de
testes empíricos para validar um argumento ou proposição: “O teste empírico de
qualquer argumento usualmente requer a adoção de diversas hipóteses auxiliares. Estas
hipóteses definem e selecionam tanto os dados empíricos quanto os testes estatísticos a
serem utilizados. Além disso, os argumentos falseáveis são usualmente definidos em
condições ideais que não são satisfeitas empiricamente, ou ainda, podem requerer a
especificação de variáveis não mensuráveis.” (Lisboa, 1998, p.122-23)
inconsistente com qualquer argumento sobre a descoberta da verdade: todo
argumento é necessariamente conjuntural. Não é possível descobrir a
verdade; apenas o erro.” (Lisboa, 1998, p.122)

A metodologia popperiana é, então, assim resumida: “Uma teoria científica


somente é testada quando um cientista especifica com antecedência as condições
observáveis que poderiam falsear a teoria. Quanto mais exatas as especificações das
condições falseadoras e mais provável sua ocorrência, maiores serão os riscos
enfrentados pela teoria.” (Blaug, 1993, p.62) Uma teoria é provisoriamente aceita
quando suas conclusões estão de acordo com os fatos, porém, quando suas conclusões
não são corroboradas pelos fatos, ela é refutada. Uma teoria é vencedora frente às
explicações concorrentes por ter sido corroborada pelos testes, isto é, resistido ao
falseamento.

A lista popperiana de critérios a ser satisfeita pelas teorias científicas é composta


dos seguintes itens: 1) a consistência lógica (explicação não contraditória); 2) maior
generalidade possível, pois assim é mais fácil falsear a teoria; 3) simplicidade teórica
(ou elevado grau de falseabilidade), ou seja, quanto mais simples a teoria, mais exatas
são suas implicações observáveis e maior é o seu grau de testabilidade; 4) as melhores
teorias são as que estabelecem muitas proibições, pois, assim, elas podem ser testadas
mais severamente; 5) os melhores testes são intersubjetivos e reproduzíveis; 6)
refutações devem ser levadas a sério; 7) mesmo em situações onde testes isentos são
difíceis, cientistas devem especificar antes quais os tipos de resultados que os levariam a
abandonar suas teorias; 8) hipóteses auxiliares devem ser adicionadas em menor número
possível e somente quando elevam o grau de falseabilidade da teoria; 10) cientistas
devem adotar uma atitude crítica, isto é, devem buscar refutações em vez de
confirmações inclusive de suas próprias teorias.10[10]

Na obra The Poverty of Historicism Popper defende o monismo metodológico,


isto é, “todas as ciências teóricas ou gerais devem usar o mesmo método, sejam ciências
naturais ou ciências sociais”. O monismo metodológico, por conseguinte, nega
categoricamente o dualismo metodológico: “... idéia segundo a qual as ciências sociais
devem empregar uma metodologia distinta das ciências naturais ...” (Blaug, 1993, p.86)
Segundo esta idéia, teorias ou hipóteses sobre questões sociais devem ser validadas de
forma diferente da utilizada quando se trata de fenômenos naturais.11[11]

O princípio do individualismo metodológico para as ciências sociais afirma: “...


as explanações sobre os fenômenos sociais, políticos ou econômicos somente devem ser
consideradas adequadas se colocadas em termos das crenças, atitudes e decisões de
indivíduos.” (Blaug, 1993, p.88)

                                                            
10[10] Os itens de 4 a 10 foram obtidos da sistematização proposta por Caldwell e que é
citada por Lisboa (1998, p.124-25).

11[11]Blaug (1993, p.86-91) trata das objeções ao monismo metodológico.


O papel da comunidade científica na visão popperiana é o de convencionar um
conjunto de regras metodológicas a ser seguido por todos os membros, porém, é
fundamental manter o diálogo e uma postura crítica sobre a prática dos cientistas.

2.3 A visão de Friedman (1954) e Machlup (1978)

Esses autores, como David Hume, mostram-se bastante céticos quanto a possibilidade
de se conseguir chegar à compreensão exata e completa dos fenômenos econômicos
típicos. Nesse sentido, assumem como inviável o desafio de se construir uma teoria que
reproduza integralmente a realidade. Friedman (1954) postula que o papel da teoria é
definir leis de movimento gerais e fazer previsões universais, enquanto o real é único,
especifico e complexo e, portanto, indecifrável em sua essência. Desta forma toda
formulação teórica necessariamente apóia-se em hipóteses irrealistas e em
simplificações que buscam captar apenas os elementos fundamentais de cada processo
ou fenômeno econômico que está sendo analisado e/ou estudado. Assim, toda teoria
seria uma construção simplificada e idealizada da realidade e, necessariamente, falsa.

Assim sendo, seria um equivoco de análise tentar discutir o realismo das hipóteses, ou
tentar comparar a qualidade de teorias distintas com base na analise da exatidão de suas
hipóteses, pois todos os modelos teóricos usam hipóteses irreais. Para contornar esse
problema, Friedman (1954) e Machulup (1978) propõem dois critérios para avaliar ou
comparar teorias econômicas. O primeiro critério seria o de avaliar a capacidade
explicativa da teoria em relação a eventos que estão acontecendo no tempo. Segundo
Lisboa (1998) esse critério apresenta uma inconsistência lógica, “pois é sempre possível
construir diversos argumentos alternativos para explicar a mesma seqüência de eventos
observados sem que seja possível, a priori, demonstrar que algumas destas explicações
sejam equivocadas.” (Lisboa, 1998, p. 118).

O segundo critério analisa a capacidade preditiva da teoria, assim, seria considerada


uma melhor teoria aquela que consegue fazer boas previsões sobre eventos futuros.
Aqui tem-se a presença de um problema grave que leva a uma circularidade lógica, para
avaliar uma teoria é necessário um novo critério que defina um teste empírico
apropriado e definitivo que sirva para corroborar os resultados teóricos com as
observações empíricas. Ou seja, continua-se com a mesma dificuldade como avaliar se
um determinado teste empírico é apropriado para corroborar uma determinada teoria?

Na prática essa visão dita instrumentalista avalia teoria apenas por sua capacidade de
previsão da realidade. Cabem nesse perfil, em economia, as escolas de Chicago e
Minnesota que têm como fio condutor a elaboração de modelos capazes de fazer boas
previsões econômicas que podem, dessa forma, ser expostos aos testes empíricos. Essa
visão pragmática é semelhante, em algum sentido, à visão de Popper, pois para essa
linha de pensamento a boa teoria é a que faz previsões que são corroboradas ou que não
são derrubadas pelas observações e que, portanto, não são falseadas pelos dados da
realidade.
2.4 Os Programas de Pesquisa Científica de Lakatos12[12]

Para Lakatos, “... uma teoria [T] é falsificada apenas quando uma teoria
alternativa [T’] com maior grau de falseabilidade é desenvolvida.” (Lisboa, 1998,
p.126) A teoria alternativa (T’) deve possuir as seguintes características: 1) ter mais
conteúdo empírico que a teoria T, isto é, prever fatos novos; fatos estes improváveis ou
proibidos à luz de T; 2) T’ explica o sucesso anterior de T, isto é, todo o conteúdo não
refutado de T é incluído no conteúdo de T’; 3) algum excesso de conteúdo de T’ é
corroborado.

O programa de pesquisa científica (PPC) fornece um referencial conceitual e


uma linguagem que devem ser observados na construção de teorias. Um PPC se
caracteriza por ter um núcleo duro cercado por hipóteses auxiliares que protegem o
programa do impacto de testes. Para os cientistas que fazem parte de um PPC, o núcleo
duro é constituído por regras metodológicas que orientam a construção de novas teorias.
Além disso, é a parte irrefutável do programa, isto porque contém um conjunto de
hipóteses metafísicas, logicamente não são falseáveis. As hipóteses auxiliares compõem
o cinto protetor cuja função é a de suportar os impactos dos testes empíricos. Tanto o
núcleo central quanto o cinto protetor evoluem, porém, o primeiro evolui de forma mais
lenta do que o segundo.

Os programas de pesquisa coexistem simultaneamente. Um PPC é teoricamente


progressivo se “... ampliar constantemente o seu campo empírico, articulando uma série
de novas teorias que obedecem, todas elas, a mesma visão proporcionada pelo núcleo
metafísico do programa.” (Feijó, 1994, p.35) Em outras palavras, é progressivo “... se as
novas teorias que a ele vão sendo incorporadas dão conta de novos fatos, além de
explicarem fatos já conhecidos.” (Feijó, 1994, p.35) Um PPC degenerativo se
caracteriza pela edição de ajustes ad hoc a fim de acomodar fatos novos ao conjunto das
teorias. A distinção entre um PPC degenerativo e um progressivo é relativa, ou seja, não
sem tem um critério definitivo para afirmar o que é e o que não é progressivo ou
degenerativo.

Um PPC é superior a um outro se “... cobrir todos os fatos previstos por um PPC
rival, e, além disso, fazem-se também previsões extras, algumas das quais sendo
empiricamente confirmadas.” (Blaug, 1993, p. 76) Exemplo de PPC bem sucedido é a
teoria da atração de Newton.

Lisboa (1998) apresenta uma situação na qual o novo modelo não falsifica, ou
substitui, o modelo antigo dentro de um mesmo programa de pesquisa científica.
Suponha que um determinado programa de pesquisa adote um modelo rejeitado por
alguns testes empíricos e proponha um modelo alternativo capaz de explicar um
conjunto maior de casos que o modelo antigo. Entretanto, suponha que o novo modelo
apresenta um grau menor de falseabilidade, ou seja, “... o conjunto de observações
                                                            
12[12]Análise com base em Blaug (1993) e Lisboa (1998). As idéias centrais podem ser
encontrados no artigo de Lakatos: “O Falseamento e a Metodologia dos Programas de
Pesquisa Científica”Lakatos e Musgrave, (1979)
empíricas que levariam à rejeição do novo modelo é menor do que o conjunto associado
ao modelo existente.” (Lisboa, 1998, p.127) Neste caso, o modelo que reduziu o grau de
falseabilidade não deve ser aceito. Além disso, na hipótese de um modelo ser
falsificado, abre-se um campo de pesquisa no qual são construídos modelos alternativos,
compatíveis com os fatos aceitos e progressivos.

Para Lakatos, a história da ciência pode ser descrita como a preferência racional
de cientistas por PPCs progressivos em vez de degenerativos, ou seja, por programas de
pesquisa com conteúdo empírico cada vez maior. Lisboa (1998) resume do seguinte
modo o critério de progresso da ciência proposto por Lakatos: “Não basta apontar as
limitações com os modelos existentes; é necessário propor um modelo alternativo que
corrobore os sucessos do modelo anterior, não reduza o grau de falseabilidade da
teoria e explique algum fato novo.” (Lisboa, 1998, p.131)

3. Como os economistas neoclássicos explicam? A economia neoclássica é uma


teoria refutável? A economia neoclássica é um programa de pesquisa
científica?13[13]

A economia neoclássica tem como um dos seus pilares o individualismo


metodológico que pode ser assim definido: “... a tentativa de derivar todo o
comportamento econômico a partir da ação de indivíduos em busca da maximização de
suas vantagens...” (Blaug, 1993, p.315) Supondo informação completa, o agente
econômico maximiza suas preferências, sujeita às restrições de tecnologia e das
dotações iniciais. Quando há incerteza “... a racionalidade significa a maximização da
vantagem de um resultado multiplicada pela probabilidade de sua ocorrência.” (Blaug,
1993, p.315)14[14]

Esta concepção de racionalidade ocupou o lugar do postulado dos economistas


clássicos, para os quais a racionalidade “... significava preferir mais a menos, escolher a
mais alta taxa de retorno, minimizar custos unitários e, acima de tudo, buscar seu
próprio interesse ...” (Blaug, 1993, p.316)

Os economistas Lionel Robbins e Ludwig Von Mises consideram o postulado da


racionalidade uma proposição verdadeira a priori, necessitando apenas ser enunciada
para ser imediatamente aceita. Pode-se afirmar que a hipótese de racionalidade constitui
o núcleo central do programa de pesquisa científica neoclássico. Porém, tal hipótese
necessita de hipóteses auxiliares, tais como a de concorrência perfeita e conhecimento

                                                            
13[13]Análise com base em Blaug (1993).

14[14]Exemplos de correntes de pensamento que não adotam este postulado: a


macroeconomia keynesiana e pós-keynesiana, a economia marxista, a economia radical
e o institucionalismo norte-americano.
completo15[15]. Isso posto, discute-se a partir de agora as teorias do consumidor, da
firma, do equilíbrio geral e da produtividade marginal.

A teoria do consumidor tem uma longa e complexa história, que pode ser assim
resumida:

“... iniciando-se a partir do cardinalismo introspectivo de Jevons, Menger,


Walras e Marshall ao ordinalismo introspectivo de Slutsky, Allen e Hicks,
ao ordinalismo comportamental da teoria da preferência revelada de
Samuelson, ao cardinalismo comportamental da teoria da utilidade
esperada de Neumann-Morgenstern, passando pela teoria de características
das mercadorias de Lancaster, sem falar das teorias mais recentes do
comportamento dos consumidores.” (Blaug, 1993, p.200)

Até a época de Marshall, a lei da demanda era considerada uma lei determinista,
ou seja, uma regularidade empírica que não admitia exceções. De Marshall em diante, a
referida lei passou a ser considerada como uma lei estatística de comportamento do
mercado, admitindo exceções, caso do paradoxo de Giffen. Como lei estatística, a lei da
demanda, que se apóia fundamentalmente na hipótese de racionalidade e no
individualismo metodológico, é uma das mais corroboradas em economia. As
contribuições de Slutsky, Allen e Hicks consolidaram a teoria do consumidor, pois a
partir de então a curva de demanda passou a ser deduzida de axiomas fundamentais. A
contribuição de Samuelson, a teoria da preferência revelada, propunha,
fundamentalmente, inferir as preferências do consumidor a partir do comportamento
revelado e não o contrário. Esta teoria passou por um processo de axiomatização a tal
ponto que se tornou logicamente equivalente à teoria da utilidade16[16].

Blaug (1993) afirma que é difícil negar à lei da demanda o status de uma lei
científica, ou seja, relação universal e bem corroborada entre eventos ou classes de
                                                            
15[15] O acúmulo de observações empíricas sobre o comportamento individual e sobre
os mercados financeiros - mercados mais próximos da concorrência perfeita - aponta
diversas anomalias que colocam em questão a hipótese de racionalidade, a tal ponto que
a hipótese pode ser considerada falsa. Todavia, como não existem testes empíricos
definitivos e aceitos inequivocamente por todos e como as hipóteses de racionalidade e
de informação completa funcionam bem em várias circunstâncias, e, além disso, vários
resultados da hipótese da racionalidade restringida não diferem em muito dos resultados
da teoria convencional. Os economistas tendem, nessas circunstâncias, a não
abandonarem a teoria microeconômica padrão em favor de alternativas dissidentes que
dispensam o individualismo metodológico.

16[16] Lancaster propõe uma nova teoria do consumidor ao descrever os consumidores


como maximizadores de uma função de transformação (que relaciona características dos
bens e utilidade derivada) e não de uma função utilidade. Esta teoria é mais geral
porque inclui a teoria antiga do consumidor como um caso especial.
eventos deduzida a partir de condições iniciais testadas de forma independente. Porém,
à luz das metodologias de Popper e Lakatos, levanta os seguintes pontos de falhas ou
imperfeições da teoria do consumidor: explica de maneira insatisfatória ou desconsidera
a decisão dos consumidores em comprar bens duráveis, poupar e manter riqueza de uma
forma ou de outra; baseia-se em enunciados universais irrestritos. Daí a afirmação de
que não é empiricamente refutável. De fato, há um grande distanciamento entre a teoria
do consumidor individual e os trabalhos empíricos sobre a demanda. Quanto à teoria de
Lancaster, embora seja mais geral do que a teoria do consumidor tradicional, ela não é
acompanhada de resultados significativos no campo empírico. O que coloca em dúvida
o progresso deste programa de pesquisa. Porém, pode-se aceitar com tranqüilidade que a
relação negativa entre preços e quantidades consumidas é um fato empírico observável.

Enquanto a teoria do consumidor visa justificar a curva de demanda


negativamente inclinada, a teoria da firma visa justificar a inclinação positiva da curva
de oferta da firma. Esta teoria foi criada por Cournot em 1838 e tem como hipótese
central: firmas visam maximizar lucros sujeitas às limitações de tecnologia e aos
padrões prevalecentes da demanda.

Os argumentos a favor da teoria da firma, e que valem para a teoria do


consumidor, são os de que a teoria é simples, elegante, internamente consistente e
produz previsões definidas corroboradas. Entretanto, é necessário testar as previsões da
teoria num mundo onde raramente estão satisfeitas as condições necessárias para a sua
aplicação – exceção são a agricultura e a bolsa de valores.

Ao se considerar que boa parte das empresas ofertam produtos diferenciados,


chega-se à conclusão que a teoria da firma não se aplica à maioria das empresas que
produzem bens finais e bens intermediários. Ademais, é difícil aceitar a previsão de, no
curto prazo, um aumento de salários implica queda do nível de emprego e, no longo
prazo, observa-se a Curva de Phillips, relacionando a taxa de desemprego à taxa de
aumento dos salários. Outras implicações questionáveis da teoria são a de que um
imposto de renda sobre as firmas reduz apenas os lucros e que os salários reais variam
de forma contracíclica (crescem quando o emprego se reduz e vice-versa).

À luz de Lakatos, Blaug (1993) propõe que a razão da sobrevivência e


longevidade da teoria da firma é a de que

“... a teoria da empresa é um simples ramo daquilo que é de fato um


programa de pesquisa científica abrangente dentro da microeconomia. Ao
elogiar ou condenar a teoria convencional da empresa, necessariamente
condenamos a capacidade do programa de pesquisa mais amplo do qual
forma uma parte integral.” (Blaug, 1993, p.217)

Quanto ao grau de corroboração, Blaug afirma: “... necessitamos de um relatório


sobre o desempenho passado da teoria em termos da severidade dos testes aos quais foi
submetida e de que forma se saiu nesses testes, se foi aprovada ou reprovada.” (Blaug,
1993, p.219) Na falta deste relatório, ele conclui que a teoria da firma é um exemplo de
programa degenerativo, pois, falha em ser empiricamente corroborada.17[17]

Apesar de não ser plenamente corroborada, a teoria da firma é aceita


universalmente pelos economistas por ser rigorosa sob condições de concorrência
perfeita e por ser um instrumento fundamental para análise de estruturas de mercado
reais. Blaug (1993) não é contra as teorias de desequilíbrio da empresa e outras
contribuições críticas, todavia, repudia todas as propostas teóricas que advogam que o
objetivo da ciência econômica não é o de prever, mas simplesmente o de classificar ou
simular resultados possíveis. Em suas próprias palavras: “Não apenas a total
incapacidade de prever eventos econômicos iria acabar com a teoria econômica
tradicional: iria acabar com todos os outros tipos de economia, como também com a
pretensão de oferecer aconselhamento a governos e a empresas privadas.” (Blaug, 1993,
p.224)

Paralelamente, à teoria da oferta do produto, a teoria da firma propõe, a partir de


uma função de produção contínua e diferenciável, uma teoria da demanda de fatores,
segundo a qual se “... os fatores e produtos do mercado forem competitivos, as empresas
irão contratar trabalhadores, máquinas e espaço, até que as taxas de salários, aluguéis de
máquinas e de terra sejam iguais a seus respectivos valores marginais ...” (Blaug, 1993,
p. 239)

Na obra Theory of Wages de 1932, Hicks defendeu a idéia de que a teoria da


distribuição funcional da renda pode ser explicada com base nos princípios da
produtividade marginal. Nos anos 50 foi Samuelson que deu a denominação de teoria
neoclássica da produção e da distribuição, segundo a qual salários e lucros são
determinados através da tecnologia, preferência dos consumidores e oferta de fatores
dada.18[18] Resumidamente, esta teoria propõe que a distribuição funcional da renda é
determinada “... pela distribuição inicial de recursos entre lares [famílias], suas
preferências, a função de produção das empresas, e as razões comportamentais tantos
dos lares [famílias] quanto das empresas” (Blaug, 1993, p.244). Ela não se propõe a dar
uma explicação convincente para a distribuição funcional da renda.

Ao final dos anos 50, Solow apresentou a sua teoria do crescimento econômico,
na qual utiliza-se de uma função de produção agregada e supõe-se o progresso técnico
exógeno.19[19] O progresso técnico pode ser do tipo Harrod-neutro e Hicks-neutro: no
primeiro caso, o conhecimento, representado por A, entra na função de produção

                                                            
17[17]Blaug (1993) chega a esta conclusão a partir da análise de Latsis (1972), segundo
a qual o programa neoclássico é degenerativo porque é estéril e, apenas
secundariamente, por não ser empiricamente corroborado.

18[18]Esta teoria aparece em qualquer manual de macroeconomia contemporânea.

19[19]Esta teoria também aparece em qualquer manual de macroeconomia


contemporânea. Para uma crítica da falta de conteúdo empírico da teoria do
crescimento, veja Blaug (1993, p.325-27)
multiplicando o fator trabalho, L, daí a expressão labor-augmenting; no segundo caso, o
conhecimento multiplica toda a função de produção.20[20]

Por definição, a participação do trabalho na renda total é igual ao salário médio


dividido pelo produto médio do trabalho, analogamente, a participação do lucro na
renda total é igual ao lucro médio dividido pelo produto médio do capital. Contudo, os
produtos médios do trabalho e do capital não são as variáveis relevantes no processo
econômico, isto é, “... os agentes econômicos não as maximizam ou minimizam;
nenhum produtor ou consumidor, nenhum trabalhador ou capitalista reage a elas; são
apenas magnitudes ex post que podem ser, e o foram, medidas, porém, que não têm
status teórico definido.” (Blaug, 1993, p.244) Então, conclui-se que uma teoria dos
salários e da taxa de lucro independe de uma teoria da repartição da renda entre lucros e
salários. O que importa considerar é que as participações dos lucros e salários na renda
são “... o resultado de uma ampla variedade de forças, e qualquer teoria que tente
resolvê-las de forma direta terminará por se encontrar fazendo tantas hipóteses heróicas
e simplificadoras que os resultados serão simplesmente curiosidades analíticas.”
(Blaug, 1993, p.244)

Essa teoria do crescimento de Solow pode servir como um exemplo da


exposição rigorosa ao teste que é comum aos neoclássicos. O conhecido debate sobre a
dinâmica relativa de padrão de vida dos países e regiões que ficou conhecido como
“controvérsia da convergência” ilustra bem esse aspecto. Diversos autores
desenvolveram testes econométricos para testar a hipótese de Solow de convergência
absoluta e condicional de rendas per capita regionais sem se chegar a um veredito,
contudo, abrindo espaço para introdução de novos modelos de crescimento exógeno
com capital humano e para modelos de crescimento endógeno com retornos crescentes e
com progresso tecnológico endógeno.

A teoria da produtividade marginal é geral e não tem conteúdo específico,


portanto, os testes da teoria são raros o que torna incerto o seu status empírico.
Contudo, se pode dizer que a teoria é bem sucedida ao prever mudanças de longo prazo
nos diferenciais de salários interindustriais e interocupacionais; por outro lado, não
obtém o mesmo êxito na previsão de movimentos nos diferenciais de salário no curto
prazo.

O equilíbrio walrasiano se caracteriza pelo equilíbrio entre as quantidades


ofertadas e demandadas de todas as mercadorias e fatores, resultante do comportamento
maximizador de consumidores e firmas.

A prova rigorosa do equilíbrio geral foi obra dos autores Arrow, Debreu e
Mckenzie nos anos 30. Supondo conjuntos de possibilidades de consumo e de produção
convexos, além disso, utilizando a hipótese de racionalidade,21[21] eles propuseram os
                                                            
20[20]Em termos formais. Seja a função de produção dada por: Y=f(K,AL), neste caso
o progresso técnico é Harrod-neutro. Se a função de produção é Y=Af(K,L), então, se
diz que o progresso técnico é Hicks-neutro.

21[21] Para o caso de um número de opções infinito, a hipótese de racionalidade afirma


que o agente é capaz de comparar qualquer par de opções e, ao mesmo tempo, estas
comparações sejam consistentes. Em termos mais formais: “... dadas duas opções
teoremas que enunciam as condições para uma solução única e as condições de
estabilidade do equilíbrio de um sistema econômico.

Dado que as condições iniciais da teoria do equilíbrio geral não são satisfeitas
nas modernas economias, isto implica que a teoria é “inaplicável”. Todavia, a teoria do
equilíbrio geral não faz previsões, portanto, não pode ser falseada por evidência
empírica. O conteúdo empírico da teoria é nulo porque “... nenhum sistema teórico
concebido em tais termos completamente gerais poderia prever qualquer evento
econômico ou (...) proibir a ocorrência de qualquer evento econômico que pudesse
eventualmente emergir.” (Blaug, 1993, p.233) Por não ter conteúdo empírico, segundo a
metodologia popperiana, é difícil justificar o termo teoria. Pode-se analisar a
consistência lógica da teoria do equilíbrio geral, mas é inútil fazer uma ponte entre a
teoria e o mundo dos fatos. De fato, a teoria não tem a pretensão de descrever o mundo
real, bem como avaliá-lo ou prescrever algo em termos de política econômica.

O modelo de equilíbrio geral, diferentemente da teoria do equilíbrio geral, tem


conteúdo empírico, pois o mesmo é empregado para se simular o impacto de mudanças
de política econômica. “Porém, os valores indubitáveis dos modelos de EG de forma
alguma justificam a teoria do EG.” (Blaug, 1993, p.235)

Uma defesa da teoria do equilíbrio geral é a de que serve como alicerce para se
analisar, entre outros fenômenos, os retornos crescentes de escala, a concorrência
imperfeita, etc.22[22] A crítica a esta defesa é a de que independentemente da tradição
walrasiana os fenômenos mencionados já haviam sido descobertos e investigados. Outra
defesa afirma que, do ponto de vista da metodologia de Lakatos, a teoria do equilíbrio
geral constitui o núcleo central do programa de pesquisa científico neoclássico,
portanto, não é passível de comprovação empírica. Blaug (1993) critica esta defesa ao
lembrar que a economia marshalliana deu pouca atenção para a teoria do equilíbrio
geral. Ele manifesta um certo descontentamento com a teoria em questão ao afirmar: “O
que parece ter ocorrido historicamente é a teoria do EG invadiu a economia neoclássica
e no processo transformou-a em um aparato altamente técnico e formal para falar acerca
de uma economia como se toda aquela conversa correspondesse a uma economia real.”
(Blaug, 1993, p.236) Finalmente, a característica principal da teoria do equilíbrio geral
“... tem sido a formalização sem fim de problemas puramente lógicos sem a mínima
consideração com a produção de teoremas falsificáveis acerca do comportamento
econômico real, o qual, insistimos, permanece sento a tarefa fundamental da economia.”
(Blaug, 1993, p.237)

O que se conclui é que os economistas neoclássicos dão mais importância à


simplicidade, à elegância e à generalidade do que à análise empírica. Conforme Blaug
(1993), a fraqueza central da economia neoclássica é “... a relutância em produzir as
teorias que rendem implicações refutáveis de forma não ambígua, seguida de uma
                                                                                                                                                                              
quaisquer A e B em F, o agente prefere A a B, ou prefere B a A, ou o agente está
indiferente entre A e B; se o agente prefere A a B e B a C, então o agente prefere A a C.
Toda a relação de preferência que satisfaz estas duas restrições é dita racional.” (Lisboa,
1997, p.14)

22[22] Blaug (1993) critica esta defesa.


disposição de não confrontar aquelas implicações com os fatos.” (Blaug, 1993, p.326)
Portanto, a teoria neoclássica, aqui representada pelas teorias do consumidor, equilíbrio
geral, da produtividade marginal e da firma, não aplica in totum a metodologia
popperiana e corresponde a um programa de pesquisa científica descrito pela
metodologia lakatosiana.

De fato, segundo Lisboa (1998), a economia neoclássica segue diversas regras


metodológicas propostas por Lakatos, instrumentalistas e Popper. Isto é, o processo de
construção teórica, dentro do programa de pesquisa neoclássico, é um processo de
conjectura, demonstração e refutação, no qual

“... a análise teórica propõe conjecturas estabelecendo alguma relação de


causalidade ou proposição que procura organizar e sistematizar uma questão
conceitual que a antecede. Procura-se, então, verificar a veracidade dessa
conjectura através de uma demonstração de contra-exemplos. O eventual
fracasso de conjectura pode revelar a necessidade de uma hipótese
inesperada, de redefinição dos conceitos envolvidos, ou ainda sugerir uma
nova linha de pesquisa.” (Lisboa, 1998, p.137)

Já os elementos instrumentalistas encontram-se na utilização de hipóteses


contrafactuais em modelos aplicados. Ademais, na aceitação da idéia de que toda teoria
é uma simplificação da realidade, portanto, não é possível uma construção teórica
realista. Assim sendo, os modelos devem ser avaliados segundo a sua capacidade de
previsão e não segundo o seu realismo.

Os elementos popperianos são encontrados na recusa de adotar estratégias


convencionalistas, ou seja, se há inconsistências entre os resultados dos modelos e os
fatos empíricos, isto leva à construção de novas teorias e, por conseguinte, à abertura de
diversas fronteiras de pesquisa e não à adoção de hipóteses ad hoc, ou seja, “... utilizar a
inadequação das hipóteses auxiliares para justificar o fracasso do modelo ou adicionar
argumentos não falseáveis.” (Lisboa, 1998, p.128)

4. Considerações finais

A prática dos economistas neoclássicos privilegia a elegância analítica, a


simplificação e a generalidade em detrimento do realismo de algumas de suas hipóteses,
contudo, não abandonam a necessidade continuada de exposição de suas construções
teóricas a rigorosos testes empíricos.

Porém, não se pode afirmar que os economistas neoclássicos seguem


integralmente a metodologia popperiana, pois não adotam o falseamento como método
de estabelecer a validade de suas conclusões. Isto é, não respondem a seguinte questão:
que eventos nos levariam a rejeitar a teoria neoclássica caso eles fossem verificados na
experiência?

Ademais, a economia neoclássica (teorias do consumidor, teoria da firma, teoria


do equilíbrio geral e teoria da produtividade marginal) também corresponde a um
programa de pesquisa científica no sentido de Lakatos porque fornece um referencial
conceitual e uma linguagem que são observados na construção de novas teorias. Além
disso, “... demonstrou capacidade de ser julgada em termos de suas previsões. A
economia ortodoxa pode realmente se gabar de que aumentou a capacidade do
economista de fazer previsões.” (Blaug, 1993, p.336)

Parece que o apego dos economistas à teoria neoclássica se explica, primeiro,


porque oferece uma teoria logicamente consistente e um referencial para a análise de
diversos fenômenos econômicos e, em segundo lugar, porque se espera que a
econometria teórica e a aplicada avancem de tal modo a se eliminar conclusões
conflitantes obtidas por diferentes modelos econométricos.

5. Referências bibliográficas

BLAUG, Mark. Metodologia da Economia. São Paulo: Edusp, 1993.

CALDWELL, Bruce J. Beyond Positivism: Economic Methodology in the twentieth


century. London: Georg Allen Unwin, 1982.

CARVALHO, Maria Cecília M. de. (Org.) Construindo o Saber: técnicas de


Metodologia Científica. Campinas: Papirus, 1988.

COMTE, Auguste. Os Pensadores. São Paulo: Nova Cultural, 1988.

DEMO, Pedro. Metodologia Científica em Ciências Sociais. São Paulo, 2a Edição, Ed.
Atlas, 1989.

FEIJÓ, Ricardo Luís C. A Racionalidade das Teorias Econômicas: uma investigação


à luz das idéias de Popper, Kuhn e Laudan. Dissertação de Mestrado. São Paulo, set.
1994.

FRIEDMAN, Milton. Essays in Positive Economics. Chicago, Illinois: University of


Chicago Press, 1954.
HABERMAS, Jürgen. Conhecimento e Interesse. Rio de Janeiro: Zahar, 1982.

HUME, George. Investigação acerca do conhecimento humano. In. Os Pensadores.


São Paulo: Nova Cultural, 1989.

LAKATOS, Imre & MUSGRAVE, Alan (Orgs.). A crítica e o desenvolvimento do


conhecimento: quarto volume das atas do Colóquio Internacional sobre Filosofia
da Ciência, realizado em Londres, 1965. São Paulo: Cutrix, Editora da Universidade
de São Paulo, 1979.

LISBOA, Marcos de Barros. A Miséria da Crítica Heterodoxa. Primeira parte: sobre as


críticas. Revista de Economia Contemporânea, n° 2, jul.-dez. 1997.

LISBOA, Marcos de Barros. A Miséria da Crítica Heterodoxa. Segunda parte: método e


equilíbrio na tradição neoclássica. Revista de Economia Contemporânea, n° 3, jan.-
jun. 1998.

MACHULUP, F. Methodology of Economics and other Social Sciences. Nova York:


Academic Press, 1978.

MALTHUS, Thomas Robert. Princípios de Economia Política e Consideração sobre sua


aplicação prática. In: Os Economistas. São Paulo: Abril Cultural, 1983.

POPPER, Karl. Autobiografia Intelectual. São Paulo: Cultrix, Editora da Universidade


de São Paulo, 1977.

________. Conjectura e Refutação. Brasília: Editora da Universidade de Brasília, 29ª


edição, 1982.

RAMOS, José Maria R. Lionel Robbins: Contribuição para a Metodologia da


Economia. São Paulo: Edusp, 1993.

Você também pode gostar