Escolar Documentos
Profissional Documentos
Cultura Documentos
O poder da reflexão é tão antigo quanto o pensamento humano. Mas a reflexão dessa reflexão
só iria descortinar novo campo nas ciências cognitivas a partir de 1965. De fato, a conscientização
dessa competência recursiva ainda não havia sido explorada nas extensas vertentes de suas aplicações,
como compreensão da hierarquia de níveis à disposição do pensamento.
Desde o aparecimento da linguagem o uso de regras para manejá-la sempre existiu. No entanto,
a primeira reflexão sistematizada dessas regras, organizadas em termos de gramática só iria aparecer no
IV séc. a.C., graças ao agudo estudo de Panini1 sobre língua sânscrita ( Nadou, 1954).
Da mesma forma, as análises sintáticas e gramaticais que se seguiram, no âmbito da filosofia da
eloqüência, da retórica e da filologia, principalmente na Grécia 2 e em Roma3”e na Idade Média e
Moderna, prolongam esse nível de investigação, desaguando no advento da lingüística contemporânea
cuja emergência costuma ser fixada em 1916 (com a publicação, por dois discípulos 4, da Lingüística
Geral de Saussure).
A partir desse marco mais um nível de reflexão permitiria a Russell, na Introdução do
“Tractatus” de L. Wittgenstein (1922) , entender e discutir a existência de uma hierarquia de níveis de
linguagens – naturais e artificiais – necessárias à compreensão dos “paradoxos semânticos”. Surgia
assim a metalinguagem – um campo e um conceito que iria se ampliar graças às contribuições de
Tarski (1936) e Carnap (1942/1975), estendendo-se à intuição de uma metamatemática e uma
metalógica5 .
Não se tratava mais de catalogar descritivamente regras necessárias ao manejo da língua. O que
se buscava compreender era a possibilidade de produzir novas linguagens e novas regras.
Mesmo neste caso, a reflexão ainda não atingira o processo mental responsável por essa forma
de construção: regras ou linguagens eram avaliadas e estudadas como produtos, fora e
independentemente de qualquer atividade psicológica. No fundo ainda pesava o veto psicologista, que
alcançou o seu auge na Glossemática6 de Hjelmslev (1971). Não se tratava portanto de estudar o
processo cognitivo, mas apenas a rede e o conjunto de regras que retiradas da mente humana poderiam
gerar uma rica infra-estrutura de implicações – como num computador. Um passo significativo rumo à
compreensão do valor e do sentido do processo metacognitivo, deve-se a Bruner (1976), para o qual a
metalinguagem é a que permite “aprender a aprender”.
Foi a tese de doutoramento de Hart, em 1965 (orientada por Flavell), que deveria permitir o
passo realmente revolucionário, rumo à metacognição: a descoberta da dublagem do reconhecimento
pelo sujeito do processo e do ato de conhecer. Inicialmente, tal descoberta fora entendida como o
“sentimento” de conhecer, ou seja, uma percepção de saber, acompanhada de um sentimento (“feeling
of knowledge”, mais tarde designada FOK), distinto da motivação epistêmica (que precede e antecipa o
conhecimento). Ou seja, um sentimento e uma certeza de saber – que se segue ao ato de conhecer como
um julgamento, notando-se que também pode ser negativo, como dúvida ou ansiedade de
desconhecimento.
Professor Emérito da UFRJ
** Mestranda em psicologia pela UFRJ - Bolsista CAPES
*** Mestre em psicologia pela UFRJ
2
À medida que os nossos recursos cognitivos são responsáveis – ao estabelecer uma relação
indefinível com a “coisa em si” pela construção da realidade, tal como nos aparece organizada em
termos de fenômeno, entendia Kant que o essencial seria descortinar a natureza desses recursos de
modo “transcendental”, isto é, prescindindo da experiência: esta, sendo produto – como soma de
acidentes –nada poderia informar sobre o processo de produção. A análise, através da especulação
racional desses recursos, deveria ser conduzida só nesse plano como avaliação crítica. É uma proposta
que – se analisada com cuidado – já envolvia um projeto metacognitivo.
É óbvio que a tentativa de analisar os recursos cognitivos do sujeito transcendental é uma
proposta claramente metacognitiva à medida que se trata de uma análise dos recursos e dos processos
responsáveis pela cognição. Entendia Kant que os determinismos básicos dessa construção não
poderiam ser captados de fora: empiricamente tempo, espaço e ainda percepção de substância e
causalidade seriam inerentes ao conhecedor, o qual, dispondo desses nexos iria construir e organizar a
experiência projetando-os sobre tudo o que constrói. E tudo que constrói é fenômeno. Seria portanto
insustentável e até contraditória a tentativa de remontar do fenômeno ao númeno.
Em 1797, todavia Jacobi (apud Hume, 1812) avançou a “objeção fundamental”: havia um ponto
vulnerável na proposta de Kant. Se tudo que for externo à consciência não pode engendrar causalidade
e consequentemente, não pode provocar efeitos, como explicar a participação ainda que indireta da
“coisa em si”- que ao estabelecer contato com as nossas “formas” e “categorias” a priori deflagra a
nossa percepção sensorial? A causalidade não poderia mais ser apenas um apanágio do “sujeito
transcendental”: atuaria a partir de uma realidade externa ainda que incognoscível – númeno – sobre o
sujeito.
Esta “objeção” merece ser aprofundada. Não cabe necessariamente atribuir um determinismo
causal à “coisa em si”, ao “númeno”. Seria um retorno ao velho realismo aristotélico. Esta realidade,
em si incognoscível, poderia todavia funcionar como uma macrogramática à disposição de qualquer
conhecedor que, a partir de seus próprios códigos, fosse capaz de decodificá-la e traduzi-la. Ou seja, a
experiência do real poderia ser uma leitura da mesma forma que, perante uma partitura qualquer
orquestra torna-se capaz de ler e executar uma sinfonia. Tal é a nossa proposta inspirada em Frege
(1974).
Entendemos que cabe avançar mais no caminho desvendado por Kant: a crítica da razão pura
deveria ultrapassar o processo de construção do conhecimento, rumo à análise dos instrumentos
responsáveis pelo processo que não são meros acidentes, ou seja, os códigos , as linguagens de que o
ser humano é dotado – contrapartidas e complemento empírico das “formas a priori”- intuições puras
de espaço e de tempo – e das categorias fundamentais.
É o caminho da investigação que vem sendo por nós desenvolvido há mais de três décadas. A
busca dessas linguagens geradoras da nossa cognição representa em nosso entender uma pesquisa
abertamente metacognitiva.
Além de tentarmos identificar as diferentes linguagens de que o ser humano é dotado, para
construir e apreender o real, tentamos, paralelamente, identificar um fio condutor de todo o processo
em sua complexidade. Nesse último aspecto, afastando-nos do mecânico e inexpressivo conceito de
associação, tentamos aprofundar o sentido e os rumos da significação como princípio apto a
direcionar todos os níveis de conduta, humanos e infra-humanos.
Nosso objetivo, visando reconstituir os diferentes planos de linguagens, corresponde
essencialmente à tentativa de desdobrar, analiticamente, o estágio inicial (So) de Chomsky (1979/
1981), o núcleo inato da cognição humana.
Neste caminho – kantianamente herético - tentamos ultrapassar os registros psicofisiológicos de
J.Müller e seus seguidores, reatando o pensamento de Kant às contribuições da atual etologia. Lorenz
(1977) aponta claramente a perspectiva de se considerarem os recursos cognitivos das espécies como
“formas a priori” aptas a criar e conhecer uma realidade, ou seja o nicho ecológico de cada ser vivo.
5
de sentido a tais formas, graças a uma segunda linguagem-código inata capaz de dar sentido à figura e
significado – convencional ou não – ao fonema isoladamente ou ao seu composto, a palavra.
Passamos a definir esta segunda linguagem-código como “designação” após avaliar o
“problema da referência”, tal como é discutido por Linsky (1974) e principalmente por Frege (1971) e
Strawson (apud Linsky, op. cit.).
O experimento já mencionado, do fonema A, e a análise das réplicas de G. Müller (1954) sobre
as pesquisas de Ebbinghaus (1954), evidenciaram-nos que não é possível captar qualquer item da
experiência totalmente destituído de significação. Ou seja, a qualquer “forma” é acoplado
imediatamente um sentido. Designação é portanto a atribuição de alguma significação a cada forma ou
objeto percebido.
Torna-se evidente até mesmo na conduta dos animais. O inseto, por exemplo, percebe uma
forma como alimento, como sexo ou como perigo. Acopla uma significação a cada forma.
Aparentemente é audacioso supor uma atribuição de significação – o núcleo da fenomenologia
– onde sequer é possível admitir um vislumbre de consciência. Entendemos, sempre na linha da
Etologia, que a significação tal como a concebe Husserl (1913/1950) deveria ser o pináculo de um
processo em ascensão, ou seja a tomada de consciência da significação – um primeiro nível de
metacognição espontânea.
Decorrem duas conseqüências: a significação assim concebida poderia representar um conceito
alternativo frente ao de associação (conceito mais descritivo e mecânico do que explicativo). A gênese
da hipótese de Claparede (1933) e o conceito pouco anterior de “sign-gestalt” de Tolman (1932),
permitiriam supor a atribuição de um sentido propositivo aos animais em suas escolhas. E, ainda mais,
o conceito de intencionalidade propositiva que Fodor (1987) atribui a todos os seres vivos, em
contraposição às máquinas artificiais.
É obvio que em cada “linguagem-código” é possível discernir sintagmas, responsáveis pela
agregação e combinação dos componentes e paradigmas, ou seja, conteúdos passíveis de serem
selecionados.
No caso desta segunda linguagem, a regra inata a nível humano deveria ser apenas a sintaxe
capaz de conectar formas e significações. Os paradigmas ou conteúdos seriam inatos somente nos
animais gerando as condutas etológicas de “padrão fixo”. Não excluímos todavia no homem a
existência residual de paradigmas inatos ligados à mímica – quer emitida, quer percebida.
Ao longo da evolução, num ponto bem próximo da hominização, a percepção de causalidade
vinculada à eficácia (piagetiana) dos próprios atos – específica da segunda linguagem - poderia ter se
expandido tornando-se fenomenística (no sentido de Piaget), ou seja capaz de ser projetada e de
conectar, o que transcende os próprios atos. Entendemos que ao se estabelecer inatamente o nexo da
causalidade propriamente dita estaríamos perante a fixação de uma terceira linguagem-código capaz de
dublar dinamicamente a percepção criando o fluxo do imaginário. No canal visomotor é a construção
do episódio; no audiofonético, da frase.
Admitimos ainda que este processo, parcialmente descurado por Piaget que só considera a
imaginação como plataforma de desenvolvimento da lógica – o processo cognitivo por excelência,
possa ser entendido por uma ótica distinta, como a essência real do pensamento humano.
Nossa hipótese de trabalho é que a nossa existência se desenvolva nesse registro e não sobre
algum tipo de realidade. Isto é, a partir de alguma superestrutura construída e imposta ao real.
Enquanto o imaginário tem sido objeto privilegiado de estudo na psicanálise e na filosofia, ainda é
modesta a pesquisa realizada em termos de psicologia cognitiva.
Um objetivo de nossas pesquisas nos levou a submeter este processo e seu desenvolvimento a
sucessivas verificações experimentais. A primeira conclusão corrobora nossa hipótese preliminar: a
maior parte de nossa vida psiquica flui nesse registro. Ao pensar, imaginamos episódios ou discursos.
Aparentemente uma dublagem dos fatos percebidos. No entanto nossas investigações nos levaram
num sentido oposto. Projetamos nos fatos os elos de nossa causalidade imaginária.
7
o que depende do salto de estrutura, antes que este se verifique, é inócua: a criança poderá até
memorizar mecanicamente o resultado de uma conservação ou de uma inclusão de classes, mas de
modo lábil e passageiro, por não entender o fundamento da lógica e conseqüentemente das implicações
envolvidas.
O que nós desde cedo suspeitamos é que isto possa efetivamente ocorrer, caso se tente ensinar
pelo arcaico método tradicional da repetição associativa. Mas a metacognição traz realmente uma
revolução: é possível ensinar não mais o resultado e sim regras implícitas no processo. Nosso primeiro
teste, neste sentido, foi uma situação de seriação corretamente provocada e realizada por uma criança
pré-operatória, no dia em que completava cinco anos.
O êxito decorreu de uma demonstração objetiva. Mostraram-se dez hastes de madeira de
tamanhos diferentes, apresentando à criança uma diferença sistemática de três centímetros. Colocando-
se as hastes duas a duas ao lado uma da outra, foi possível mostrar que ao acrescentar a pequena haste
de três centímetros acima da menor, a diferença desaparecia e vice-versa, tirando-a. Repetindo essa
demonstração com todas as hastes dava-se à criança a “ regra generativa” – como costumamos defini-la
num sentido diferente de Chomsky - da série; transmitia-se o modelo lógico – ou talvez o metamodelo-
e em seguida elaborava-se com a criança o raciocínio decorrente.
Nesse primeiro experimento, filmado, a criança tornou-se capaz de seriar corretamente em vinte
minutos.
Essa técnica metacognitiva, a “elaboração dirigida”, envolve mais uma implicação
epistemológica: é o papel do “outro” no processo de aprendizagem, um papel pouco valorizado por
Piaget e pela Escola Nova, para os quais o outro é apenas um facilitador, semelhante à “mãe
suficientemente boa” de Winnicott.
Entendemos que o engajamento do outro no processo, numa relação dual, é fundamental,
devendo ter um papel estruturador. Sob este ângulo inspiramo-nos na técnica psicanalítica, transferindo
da área emocional para a área cognitiva um processo de relação apto a instigar a compreensão de uma
significação subjacente.
È importante que para Habermas (1982) a relação dual é a que determina o caminho rumo à
captação de uma verdade interior. Representa portanto, uma das mais importantes contribuições de
Freud.
Nesse contexto é preciso ainda destacar a importância da transmissão de conhecimento. Por
mais válida que possa parecer a “descoberta”, o “Einsicht”, como processo de aquisição de qualquer
saber, é obvio que não convém esperar uma generalização radical. Isto é, não cabe esperar que todos os
passos do desenvolvimento cognitivo possam e devam ser alcançados por esse caminho. No mínimo
isso exigiria um esforço e uma sobrecarga injustificada. A nível da educação formal, o ensino é
transmitido, sistematicamente, veiculando regras e conteúdos.
No entanto, segundo Piaget, os raciocínios envolvidos na reversibilidade deveriam ser
descobertos. Cremos que também neste caso, se trate de captar e entender corretamente um conjunto de
regras. É o que deve ocorrer em relação às operações concretas, como também, mais tarde, frente às
“operações formais” . Essa tese já vem sendo reiteradamente contestada. Kesselring (1993),
reportando-se às investigações de Ch Brainerd, mostra que este
“ tem às máximas didáticas de Piaget, como falhas, já por não aprenderem as crianças
menos bem, através da instrução do que pelo método de fazê-lo por si mesmo e da auto
descoberta. Em numerosos casos tem sido alcançados até melhores resultados mediante o ensino
direto. A vantagem da instrução residiria, segundo Brainerd, sobretudo em que possibilitaria o
exercício de conceitos e de operações em idade menor do que uma didática que aguarda a
iniciativa do próprio aluno” (p.208).
9
Até certo ponto, esta perspectiva rompe a rigidez logicista dos “agrupamentos” piagetianos. Mais
do que estruturas generativas de um amplo feixe de conhecimento, somos levados a supor regras
generativas, como já foi mostrado, aptas a serem transmitidas e elaboradas separadamente. Cremos
ainda que os “ agrupamentos”, tal como concebidos por Piaget, não esgotam a ampla gama de regras
lógicas já formalizadas até nossos dias.
Em nossas investigações, em consonância com a infra-estrutura teórica elaborada destacamos
três conjuntos de regras a serem vinculadas e fixadas metacognitivamente através da “elaboração
dirigida”.
Em primeiro lugar, o acoplamento de significação de qualquer dado ou objeto da experiência.
Ao desenvolvermos uma atitude investigativa nas crianças frente aos usos, esquemas e propriedades
possíveis de tudo o que é percebido, conseguimos ampliar o vocabulário de modo significativo através
da ampliação do acervo de significações. À medida que a criança seja levada a entender que qualquer
dado de sua experiência é dotado de uma significação e que passe a valorizar a busca deste sentido
através da compreensão do que é uma propriedade e um esquema de ação decorrentes da percepção
de qualquer forma, afina-se sua sensibilidade rumo à estocagem de significações e de ações potenciais.
Este acervo é a modalidade primordial de vocabulário.
É importante promover sua construção inicialmente através do canal visomotor para em seguida
levar a criança a adquirir termos ou palavras aptas a codificá-los em linguagem discursiva, no
audiofonético.
Em segundo lugar, ao conscientizarmos os nexos de causalidade episódica (e paralelamente
frasal) no imaginário, estende-se o sentido temporal de existência – o que no entender de Husserl
(1950) representaria o próprio fluxo da consciência imanente. O trabalho metacognitivo, na área do
imaginário, foi por nós planejado em termos de promover o desenvolvimento dos eixos sintagmático e
paradigmático .
Quanto ao encadeamento sintagmático – que entendemos corresponder ao nexo da causalidade
responsável pela combinação dos conteúdos, procuramos ampliar essencialmente a consciência
temporal, capaz de reatar causas remotas ao aqui e agora – única causalidade inicialmente presente na
criança pequena – na imaginação infantil e a projetar prospectivamente no futuro o mais diversificado
leque de efeitos prováveis .
Os paradigmas concebidos como os conteúdos – aspecto seletivo da linguagem imaginária
deveriam evoluir, seguindo essa suposição, desde um nível de egocentrismo (piagetiano) rumo a uma
crescente socialização.
Finalmente o manejo consciente e deliberado dos processos recursivos e metacognitivos frente a
qualquer tipo de regras tem propiciado a obtenção de um salto de escala na lógica e no raciocínio da
criança.
O uso da metacognição direcionada para a aquisição de conhecimentos ou regras “generativas” 9
desempenha essa importante função social do qual o aspecto educacional é apenas um instrumento.
Se rejeitarmos o inatismo das diferenças interindividuais (Eysenck,1982, Herrnstein e Jensen)
para privilegiarmos o determinismo ambientalista (Kamin, 1982) sempre mais condizente com a visão
atual, chegaremos à tese de Levy (1992) para o qual a inteligência não pode ser mais considerada como
um processo individual-social, pois que tudo indica tratar-se de um processo coletivo. Nossa
inteligência, nesta perspectiva, é o produto de grupos humanos com os quais interagimos e
principalmente, dos ensinamentos formais que nos foram transmitidos.
A imagem de pobreza econômica do terceiro mundo poderia ser a face exterior de uma carência
mais profunda: o escasso desenvolvimento cognitivo de uma imensa camada da população. Neste caso,
mais grave do que a má distribuição de renda é sem dúvida a má distribuição de inteligência,
responsável efetivamente pela ascensão social de todas as classes.
Entendemos que o mundo marcha inexoravelmente para um autêntico socialismo, fundado na
emancipação plena de todas as minorias, alicerçado num princípio amplo e autêntico de liberdade.
10
Nossa tentativa de contribuição para êxito desta marcha funda-se na convicção do sentido e do
valor educacional e social de nosso programa.
1
Notas
No séc. IV a.C. na Índia as pessoas cultas falavam uma variante da língua sânscrita, a língua dos
quatro Vedas, textos sagrados daquela civilização. Essa variante – a bhâshâ- vinha progressivamente se
deteriorando, devido à contaminação com a língua prakrita (vulgar) falada pelo povo (e pelas
mulheres). Era uma situação que ameaçava o uso correto em obras literárias, da língua sânscrita-
padrão de excelência sintático – gramatical, ainda hoje considerada o paradigma mais puro das línguas
indo-européias. Para sustar esse processo, Panini promoveu um agudo estudo da línguas sânscrita
(nobre) criando a primeira gramática de que se tem notícia. Formulou 3996 regras classificando as
letras do alfabeto e identificando as consoantes surdas e sonoras, bem como labiais, dentais, guturais e
cacuminais palatais, nasais e ainda vogais, ditongos e outras categorias.
Detectou também a apofonia (nível de sonoridade de uma vogal desde o nível mudo, passando
progressivamente à níveis de abertura crescente). Suas contribuições, conhecidas a partir do começo do
séc. XIX, influenciaram estudos recentes sobre gramática.
2
As primeiras escolas de eloqüência, como prática da retórica, surgiram em Siracusa (Sicília ou
“Magna Grécia”). Destaca-se a de Corace, cujo continuador foi Tísias. Este foi por sua vez, o mestre de
Georgias de Leontine (490/380 a.C), o sofista ridicularizado por Platão no diálogo desse nome.
Segundo Platão, teria defendido a possibilidade de, através da eloqüência, adulterar a verdade e
manipular as massas. Também pareceu ter desenvolvido a demonstração de paradoxos, como recurso
de linguagem. Enviado a Atenas para solicitar apoio na guerra de Peloponeso, teria aberto, nessa
cidade, uma escola de eloquência, ao lado da que já havia sido fundada por outro “sofista”, Trasímaco
de Calcedânia.
Na filosofia e na gramática, emergem no II e II séc. Ac, as escolas de Alexandria e de Pérgamo.
3
A eloqüência, em Roma, surgiu com as guerras civis (a partir de 183 a.C. com Tibério e Caio Graco) e
com o compêndio da “Rhetorica ad Herennium”. A filologia surge nesse século com Elio Stilone, o
mestre de Cícero. A este último se deve o “De oratore”, a mais importante obra retórica da literatura
latina. (séc. I a.C.) No século seguinte Marco Fábio Quintiliano escreveu a “Institutio Oratoria” (12
livros), um tratado completo de eloqüência e pedagogia.
4
Bem pouco havia publicado Saussure (1857/1913), antes de falecer. Principalmente as bases de sua
Lingüística ficariam para sempre desconhecidas se dois discípulos- Charles Bally e A. Séchehaye – que
reuniram as notas de seus cursos - não tivessem tomado a iniciativa de as publicar sob o título de
“Cours de Linguistique Générale”, em 1916, assinalando deste modo o início da lingüística moderna.
5
A metamatemática e a metalógica representam um campo específico da semiótica, ou ciência dos
sinais. Envolve a análise de funções – ou functores, valores, linguagens (lógicas), cálculos e outros
componentes do processo. Trata-se de disciplinas voltadas a analisar a infra-estrutura da lógica e da
matemática. Por se tratar de um segmento da semiótica, cabe considerar – dentro da categorização de
Morris e Carnap – uma vertente essencialmente sintática (fundamental), uma semântica e uma
pragmática.
6
O projeto da Glossemática era o de estudar a linguagem fora e além de qualquer atividade psicológica
que lhe correspondesse. Levando ao extremo o veto psicologista, pretendia fundar um campo da
lingüística tão neutro e impessoal como o da matemática. Além disso, destaca que a linguagem
discursiva possui “multifuncionalidade” – conceito de Tarski. Qualquer linguagem pode ser retraduzida
na linguagem discursiva, mas não vice-versa.
7
Bühler ao criar, em 1907, a Denkpsychologie partiu da suposição de existirem dados empíricos não
sensoriais: os do pensamento. Para estudá-los criou um método introspectivo que se baseava em propor
um problema ao sujeito e solicitar, após 15/20 segundos, que reconstituísse todos os passos efetuados
para resolvê-lo. Este método foi muito criticado como “não-experimental” e não-científico,
principalmente por W. Wundt, que definiu a introspecção como a tentativa de pular sobre a própria
sombra.
8
Um detalhamento da trajetória desta construção teórica pode ser encontrado em um nosso artigo
anterior (Seminerio, 1995). As principais contribuições antropológicas que nos cabe aqui sumariamente
mencionar são Kiparski (1976), Nottembohm (1976) e Prini (1979)
9
O termo generativo não deve ser entendido no sentido de Chomsky (1981). Não se trata pois de
informações “cognized” dentro do neologismo criado por esse autor para designar conhecimentos
inatos. Trata-se de reconhecimento de elevada generalidade e principalmente de regras lógicas das
quais torna-se possível deduzir regras específicas. No caso do processo de classificação trata-se de
esclarecer o papel da propriedade apta a reunir numa classe os elementos. No caso da série é importante
transmitir a função da diferença – constante ou variável – para ordenar. No caso da inclusão de classes,
mostrar a proporcionalidade inversa entre conotação (ou intensão) ou denotação (extensão) e a razão
específica da origem do “todo” e “alguns’”
Referências Bibliograficas