Escolar Documentos
Profissional Documentos
Cultura Documentos
Michael K. Tanenhaus
1.0. Introdução
Tentar escrever uma visão geral coerente da psicolinguística é um pouco como tentar montar
um rosto a partir de um kit de identidade policial. Você não pode usar todas as peças e não
importa quais você escolha, não parece certo. Parte da dificuldade é que a psicolinguística está
preocupada com três questões um tanto distintas: (1) como a linguagem é adquirida durante o
desenvolvimento; (2) como as pessoas compreendem a linguagem; e (3) como as pessoas
produzem a linguagem. O estudo da compreensão e produção da linguagem forma um campo,
a *psicolinguística experimental, e o estudo da aquisição da linguagem forma um campo
separado, a 'psicolinguística do desenvolvimento'. Em teoria, muitas das questões da
psicolinguística experimental e do desenvolvimento estão inter-relacionadas, mas na prática há
pouca sobreposição entre as duas áreas. Como resultado, é difícil fazer justiça a ambos na
mesma breve revisão.
Os psicolinguistas que trabalham no quadro da autonomia linguística são guiados por vários
pressupostos. Uma suposição é que a estrutura da linguagem pode ser estudada
independentemente de como essa estrutura é usada para comunicação. Uma segunda
suposição é que a estrutura sintática no nível da sentença forma o núcleo do sistema
linguístico. Como consequência, esses psicolinguistas tendem a se concentrar em uma gama
estreita de fenômenos principalmente sintáticos, que são explicados em termos de princípios
especializados de gramática. Eles argumentam que são apenas esses fenômenos que formam o
núcleo da linguagem e os princípios que os explicam formarão a base para modelos bem-
sucedidos de processamento e aquisição de linguagem.
A visão contrastante, que a maioria dos psicólogos endossa, atribui um papel muito menos
central à gramática. O processamento da linguagem e a aquisição da linguagem podem ser
melhor compreendidos dentro da mesma estrutura de outros processos cognitivos. A forma
mais radical dessa posição 'cognitivista' ou 'minimalista linguística' é que as regras e
representações propostas pelas gramáticas linguísticas são epifenômenos de processos
cognitivos mais gerais e básicos (por exemplo, Bates & MacWhinney 1982). Os minimalistas
linguísticos geralmente rejeitam a suposição de que os processos no nível da frase,
especialmente a sintaxe, formam o núcleo da psicolinguística e não traçam uma fronteira nítida
entre as explicações do uso da linguagem e da estrutura da linguagem. Como consequência,
eles estão frequentemente preocupados com uma gama mais ampla de fenômenos do que os
pesquisadores que trabalham dentro da estrutura da autonomia.
Dentro da psicologia, havia um consenso geral de que o comportamento poderia ser explicado
por associações aprendidas entre estímulos e respostas, com o reforço fornecendo a cola para
cimentar as associações. “Behavioristas radicais”, como B. F. Skinner, argumentavam que a
explicação psicológica deveria ser formulada apenas em termos de estímulos e respostas
observáveis, enquanto “neobehavioristas”, como Clark Hull, defendiam a utilidade de variáveis
mediadoras derivadas de variáveis observáveis. estímulos e respostas. A maioria das pesquisas
dentro da tradição da teoria da aprendizagem examinou o comportamento animal, na
suposição de que as leis básicas da aprendizagem forneceriam os blocos de construção para
explicações de comportamentos mais complexos. No entanto, durante a década de 1950,
vários teóricos proeminentes da aprendizagem voltaram sua atenção para comportamentos
mais complexos, com a linguagem, ou "comportamento verbal", como era mais comumente
chamado, sendo um dos principais alvos de explicação. Em 1957, Skinner publicou
Comportamento verbal, que forneceu uma análise aprofundada da linguagem dentro de uma
estrutura comportamentalista radical. Os tratamentos neobehavioristas do significado foram
desenvolvidos por Osgood, Suci & Tannenbaun (1957) e Mowrer (1960).
Em 1951, o Social Science Research Council patrocinou uma conferência que reuniu vários
psicólogos e linguistas importantes. Um dos participantes, Roger Brown, credita a esta
conferência o fato de ter levado diretamente ao nascimento da psicolinguística (Brown 1970).
Os procedimentos da conferência delinearam uma agenda de pesquisa psicolinguística que
refletiu um consenso entre os participantes de que as ferramentas metodológicas e teóricas
desenvolvidas por psicólogos poderiam ser usadas para explorar e explicar as estruturas
linguísticas que estavam sendo descobertas por linguistas.
O argumento de Bever et al. ilustra o sabor desses ataques ao behaviorismo. Eles apontaram
que todos os modelos behavioristas aceitam a restrição metodológica de que todos os
elementos explicativos em uma teoria psicológica devem ser derivados de estímulos e
respostas potencialmente observáveis. Eles apelidaram essa restrição de 'metapostulado
terminal' (TMP). No entanto, nenhum modelo que adere ao TMP pode gerar todos e apenas os
strings produzida por uma linguagem espelhada, isto é, a linguagem produzida pelas regras em
1):
(1) a. X-aXa
b. X-bXb
c. X-O
O problema é que a produção de strings de uma linguagem espelhada (por exemplo, abba, aa,
bb, aabbaa) - que as pessoas podem aprender rapidamente após a exposição a algumas
instâncias de strings gramaticais e agramaticais - requer um dispositivo que possa rastrear qual
sequência de símbolos foi usado no início da string, para que a sequência possa ser
reproduzida para completar a imagem espelhada. O símbolo X em (1) serve para esta função.
Existem vários dispositivos que farão o trabalho (por exemplo, uma pilha push-down), mas
postular tais dispositivos que claramente não têm contrapartes em estímulos ou respostas
viola o TMP (Anderson & Bower 1973).
Embora Chomsky nunca tenha apresentado um modelo sério para a aquisição da linguagem,
sua análise lógica do problema forneceu uma estrutura para o campo (ver Gleitman & Wanner
1982). Chomsky argumentou que o input linguístico ao qual a criança foi exposta era muito
pobre para que ele induzisse o mapeamento entre significados e formas lingüísticas. Assim, a
criança deve iniciar o processo de aquisição com algum conhecimento linguístico inato que
constrange o conjunto de gramáticas candidatas. Chomsky propôs que certos "universais
linguísticos" restringiam as "hipóteses" que a criança precisava considerar e restringiu a noção
de "adequação explicativa" a teorias lingüísticas que forneciam uma explicação desses
universais. A ênfase de Chomsky na importância teórica da aquisição da linguagem, sua
apresentação do simples fato de que as crianças adquirem a linguagem como um quebra-
cabeça intelectual e suas fortes reivindicações nativistas ajudaram a criar uma atmosfera de
excitação intelectual que levou a uma explosão de interesse em como as crianças aprendem.
linguagem.
Miller e seus alunos também exploraram uma proposta específica sobre como
A estrutura da linguagem foi usada no processamento da linguagem que mais tarde foi
apelidada de'teoria derivacional da complexidade' (DTC) porque assumiu que as sentenças
com uma história derivacional mais complexa deve ser mais difícil de processar.
A ideia básica era que os ouvintes primeiro calculassem a estrutura da superfície de um
sentença e, em seguida, usar transformações para mapear a estrutura da superfície para o
estrutura profunda. A representação na memória era a sentença do núcleo mais
suas marcas transformacionais. Embora o DTC tenha sido apoiado por um projeto inicial
série de experimentos, foi rapidamente abandonado. Muitos dos resultados que
apoiou a teoria tornou-se difícil de interpretar como a gramática transformacional mudou.
Mais importante ainda, as previsões empíricas geradas pelo DTC foram claramente
desconfirmados por pares de sentenças em que o membro transformacionalmente mais
complexo do par era mais fácil de processar (Fodor &
Garrett 1966; Bever 1970).
Trabalhe na análise usando regras gramaticais com uma abordagem mais computacional
sabor também começou a aparecer. Os linguistas computacionais rejeitaram rapidamente
gramáticas transformacionais como computacionalmente intratáveis; isso levou a uma divisão
entre linguística teórica e linguística computacional que só recentemente
começou a fechar. Em contraste com as gramáticas transformacionais, a estrutura frasal
gramáticas podem ser traduzidas naturalmente em um conjunto de instruções de análise que
pode operar em strings de entrada palavra por palavra (da esquerda para a direita). O
casos problemáticos que levaram Chomsky a adotar uma abordagem transformacional
envolvem constituintes descontínuos e dependências ilimitadas. Uma alternativa, amplamente
explorada por Woods (1970), era aumentar uma frase
analisador de estrutura para permitir que ele acompanhe as dependências de longa distância.
Em
Na abordagem ATN, as regras gramaticais são usadas diretamente para recuperar o
estrutura temática de uma frase. Kaplan (1972) demonstrou como essa rede de transição
aumentada (ATN) poderia ser usada para fornecer uma
modelo computacional para as estratégias de Bever. Em colaboração com Waner,
Kaplan desenvolveu um modelo de análise ATN que fazia previsões explícitas
sobre como as pessoas processam cláusulas relativas. Algumas dessas previsões foram
confirmada experimentalmente por Wanner e Maratsos (1978).
O fracasso das gramáticas transformacionais como modelos de processamento
influenciou alguns linguistas a reduzir ou eliminar as transformações da gramática gerativa a
fim de torná-las candidatas mais plausíveis para
modelos de desempenho. Bresnan (1978) argumentou que as gramáticas de competência
devem ser facilmente mapeados em modelos de processamento e que as transformações
apresentou um grande obstáculo para qualquer mapeamento simples. Em colaboração com
Kaplan, ela desenvolveu uma teoria sintática, gramática funcional lexical
(LFG), que substitui regras transformacionais por regras lexicais. Kaplan tem
desenvolveu um parser que usa a gramática LFG e Ford, Bresnan e
Kaplan (1982) mostram que o parser, quando combinado com um número de
regras de decisão, podem fornecer um relato das preferências do leitor na interpretação de
sentenças com ambiguidades de anexo. Ford e outros. enfatizar o
importância de itens lexicais individuais, especialmente verbos, no controle de decisões sobre
como os anexos sintáticos locais são resolvidos.
Um passo mais radical foi dado por Gazdar e seus colegas (por exemplo, Gazdar,
Klein, Pullum & Sag 1984). Eles desenvolveram uma frase generalizada
gramática estrutural (GPSG) que elimina completamente a estrutura subjacente.
A abordagem GPSG tem sido defendida como uma estrutura para a linguagem
análise sintática e aquisição de linguagem por Crain & Fodor (1985).
Uma das razões pelas quais a questão da modularidade tem atraído tanto
A atenção é que os psicolinguistas que acreditam em um sistema linguístico rico geralmente
propuseram modelos autônomos (por exemplo, Forster 1979; Fodor 1983;
Cairns 1984; Frazier 1985), enquanto os minimalistas linguísticos geralmente
modelos interativos endossados. A atração de sistemas modulares para autonomistas
linguísticos é principalmente metodológica: demonstrar que um suposto
processo opera de forma autônoma fornece fortes evidências para a existência
desse processo. A questão de quais unidades, ou níveis de representação, são
utilizados no processamento, e a questão de saber se eles interagem ou não durante
processamento são logicamente ortogonais, no entanto, como são as questões de
autonomia e autonomia de processamento (ver Tanenhaus & Lucas 1986 e
Garnham 1985 para discussão). O argumento provocativo de Fodor (1983) para a
A natureza modular dos sistemas de entrada também desempenhou um papel importante na
focalização
atenção na questão da modularidade (ver Marshall 1984).
No início da década de 1970, houve uma mudança para uma abordagem mais baseada na
cognição.
explicações de aquisição de linguagem (por exemplo, Bever 1970). Em grande medida,
isso representou um contra-ataque cognitivo às fortes reivindicações nativistas
defendido por Chomsky e seus proponentes (por exemplo, McNeill 1970). Um número de
pesquisadores propuseram que as primeiras declarações da criança eram melhor
caracterizadas por categorias semântico-relacionais básicas ou papéis de caso do que por
categorias sintáticas (Schlessinger 1970; Braine 1971; Bowerman 1973). Bruner
(1975) argumentou que a criança mapeia a linguagem em categorias cognitivas existentes que
crescem a partir da integração sensório-motora que está completa antes
começa a aprendizagem da língua. Praticamente todos os pesquisadores agora assumem que o
categorias lingüísticas iniciais da criança são semânticas ou que a criança entra
o sistema linguístico assumindo que há um mapeamento direto
entre categorias sintáticas e categorias semânticas. A questão de
se a criança começa ou não com hipóteses inatas sobre
categorias continua a ser uma das controvérsias em curso na aquisição da linguagem.
Os minimalistas linguísticos assumem que existe um mapeamento relativamente transparente
entre noções semânticas ou conceituais e estrutura gramatical e, assim,
pouca ou nenhuma estrutura lingüística inata é necessária. Para os autonomistas linguísticos, o
mapeamento é muito complexo para a criança realizar sem algum
conhecimento linguístico inato ou habilidades especializadas para extrair informações
sintáticas
regularidades (Maratsos & Chalkley 1980). Gleitman (1981), usando uma analogia do sapo
girino, propõe que a criança comece com uma
gramática e então muda em algum ponto para categorias sintáticas.
Uma abordagem alternativa foi sugerida por Keil (1981), que propõe uma teoria "ontológica"
dos conceitos, na qual as palavras são classificadas em
termos dos tipos de predicados com os quais eles podem ser usados (por exemplo, animação
as coisas podem morrer, mas não podem ser quebradas). A teoria de Keil fornece uma
descrição baseada em princípios de como as hipóteses da criança sobre os significados das
palavras podem ser restringidas. Mais recentemente, Keil e Batterman (1984) sugeriram que
os conceitos lexicais iniciais das crianças são definidos em termos de prototípicos
características (por exemplo, o conceito de cão é um animal que tem certas características
físicas
características), e então eles subsequentemente mudam para uma definição ou
significado 'baseado em teoria'. Essas mudanças não parecem estar ligadas a um
estágio de desenvolvimento geral, mas sim para a quantidade de conhecimento que o
criança tem sobre o domínio do conceito. Carey (1982) e Pinker (1984)
sugerem que a criança pode explorar correlações entre os significados das palavras
e estrutura sintática na aprendizagem de conceitos lexicais (por exemplo, verbos de
transferência
normalmente ocorrem com três argumentos e sofrem deslocamento dativo). Clark (1986)
propôs recentemente que as crianças usem o princípio de que todas as formas contrastam
no significado para restringir suas hipóteses sobre os significados das palavras.
1.4.4. Aprendizagem
Em meados da década de 1970, Wexler e colegas (ver Wexler & Cullicover
1980) introduziu o estudo matemático de aprendizagem em desenvolvimento
psicolinguística. Em contraste com o desenvolvimento psicolinguístico dominante
pesquisa, que se concentrou em estudos empíricos sobre o que as crianças dizem, esta
O trabalho começou com alguns pressupostos básicos, nomeadamente que as crianças
aprendem um
gramática transformacional baseada apenas em evidências positivas, e procurou
determinar sob quais condições, se houver, uma gramática transformacional poderia
ser aprendido. Seu trabalho demonstrou que uma gramática transformacional
poderiam ser aprendidas apenas se certas restrições de 'localidade' ou 'delimitação' fossem
colocados em regras transformacionais. O estudo formal de aprendizagem agora
forma uma subárea importante dentro da psicolinguística do desenvolvimento.
Garrett (1975) usou uma análise de um grande corpus de erros de fala para delinear uma
estrutura para uma teoria da produção de sentenças que tem sido
extremamente influente. Garrett propôs essa produção de frase, que ele
definido como a tradução de uma mensagem pretendida em uma forma linguística, foi
realizado em um número de estágios independentes ordenados em série. No modelo de Gar re
tt, o processamento sintático ocorre em dois estágios, um 'funcional'
estágio de nível durante o qual as representações lexicais e suas relações gramaticais
subjacentes são construídas, e um estágio 'posicional' durante o qual um
representação consistindo de morfemas fonologicamente especificados no
a ordem em que eles devem ser falados é construída. A suposição de dois estágios explica uma
série de regularidades nos erros de fala, incluindo o fato
que as trocas de palavras e trocas de sons têm características diferentes.
As trocas de palavras normalmente ocorrem com palavras da mesma classe sintática, elas
pode ocorrer em um intervalo de várias palavras, e as palavras participantes precisam
não sejam fonologicamente semelhantes. Em contraste, as trocas de som podem envolver
sons de palavras que diferem na classe sintática, os sons participantes são
geralmente próximos um do outro, e geralmente são fonologicamente semelhantes.
Garrett explica essas diferenças assumindo que as trocas de palavras
ocorrem no nível funcional e as trocas sonoras no posicional
nível. A suposição de que as formas fonéticas não são inseridas até o nível posicional também
explica por que as formas flexionais tipicamente 'acomodam'
o ambiente fonético criado pelo erro. Por exemplo, o plural s é
sonoro ou surdo, dependendo do som anterior. quando o plural
muda durante um erro de fala, ele assume as características de sonorização do novo
ambiente. Garrett também sugeriu que as palavras funcionais tendem a não participar das
trocas sonoras porque são inseridas no nível funcional.8
Lapointe (1985) ampliou recentemente a abordagem de Garrett, fornecendo uma
modelo detalhado de como os afixos flexionais e derivacionais são acessados em
para explicar o padrão de erros flexionais produzidos por
agrammatics.