Escolar Documentos
Profissional Documentos
Cultura Documentos
2, 157-173
Edmund Fantino
UNIVERSIDADE DA CALIFORNIA, SAN DIEGO, USA
RESUMO
As racionais subjacentes as nossas decisões tem há muito tempo intrigado os psicólogos. De forma similar,
o conceito de reforçamento condicionado tem uma história respeitável, particularmente na explicação de com-
portamentos que não são claramente mantidos por reforços primários. Os estudos sobre escolha e reforçamento
condicionado geralmente têm sido desenvolvidos como campos independentes. Várias abordagens contemporâ-
neas a respeito desses tópicos fundamentais compartilham uma ênfase no contexto e no valor relativo. Rastreamos
a evolução do pensamento sobre o poder dos reforçadores condicionados que começava por considerar que os
estímulos adquiriam seu valor por meio do pareamento com reforçadores mais fundamentais e passa a considerar
que os estímulos adquirem seu valor por serem diferencialmente correlacionados com esses reforçadores mais
fundamentais. Discutiremos alguns experimentos seminais (incluindo vários que foram pouco valorizados)
e alguns dados recentemente coletados que nos levaram a concluir que a força dos reforços condicionados é
determinada pelo seu papel de sinalizar uma melhora relativa na relação do organismo com o reforço.
Palavras chave: escolha, reforçamento condicionado, teoria de redução do atraso, observação, Lei da Igua-
lação, esquemas encadeados, contexto.
ABSTRACT
Psychologists have long been intrigued with the rationales underlying our decisions. Similarly, the concept
of conditioned reinforcement has a venerable history, particularly in accounting for behavior not obviously
maintained by primary reinforcers. The studies of choice and of conditioned reinforcement have often developed
in lockstep. Many contemporary approaches to these fundamental topics share an emphasis on context and on
relative value. We trace the evolution of thinking about the potency of conditioned reinforcers from stimuli that
were thought to acquire their value from pairings with more fundamental reinforcers to stimuli that acquire
their value by being differentially correlated with these more fundamental reinforcers. We discuss some seminal
experiments (including several that have been underappreciated) and some ongoing data all of which have
propelled us to the conclusion that the strength of conditioned reinforcers is determined by their signaling a
relative improvement in the organism’s relation to reinforcement.
Key words: choice, conditioned reinforcement, delay-reduction theory, observing, matching law, chain
schedules, context
157
E. FANTINO
dois livros influentes sobre o assunto foram de resposta é o mesmo nos dois esquemas. No
publicados na década de 60 (Hendry, 1969; esquema encadeado, no entanto, cada um dos
Wike, 1966). Pensava-se que pelo pareamento dois ou mais elos está associado com um
de um estímulo com um reforço primário, o único estímulo discriminativo (geralmente a luz
primeiro adquiriria poder reforçador e assim, de uma chave), enquanto que o mesmo estímulo
ele próprio poderia manter o comportamento. discriminativo está presente ao longo de todo o
Uma vez que a maioria dos comportamentos esquema tandem. Assim, qualquer propriedade
não era claramente mantida por reforçadores reforçadora condicionada dos estímulos presentes
primários estabelecidos, parecia haver uma no esquema encadeado pode ser avaliada pela
grande lacuna na manutenção de comporta- comparação das taxas e os padrões de respostas
mentos (especialmente humanos) por refor- nos esquemas encadeado e tandem. A Figura 1
çadores condicionados. representa uma das comparações do estudo de
Ao mesmo tempo, tornava-se mais claro Gollub, ou seja, os esquemas encadeado e tandem,
que nossa compreensão a respeito do reforça- ambos compostos por cinco elos, em cada um
mento condicionado era no mínimo incompleta. dos quais vigorava um componente de intervalo
No presente artigo vou revisar alguns trabalhos fixo (FI) um minuto. Para produzir comida como
que são referências cruciais para auxiliar a de- reforço, o pombo deveria emitir uma resposta ao
marcar o histórico da área de reforçamento con- final do primeiro FI para que se iniciasse o segun-
dicionado. Uma evidência de que os resultados do FI e daí por diante; a primeira bicada ao final
contrários ao Zeitgeist não costumam ser poupados do quinto FI 1 min produzia comida.
foi que vários destes estudos foram ignorados e/
ou não foram publicados. Dito de outra forma,
esses estudos são considerados “marcos” apenas
de forma retrospectiva. Juntamente com outros
estudos mais contemporâneos, esses trabalhos
ajudam a clarificar o estado vigente do reforça-
mento condicionado e, especialmente, sua relação
Figura 1. Procedimento do estudo clássico de Gollub (1958).
com escolha. Na comparação mostrada acima, o comportamento dos
pombos foi comparado em esquemas encadeado e tandem
A tese de Lew Gollub sobre Esquemas de estendidos (com cinco elos). No esquema encadeado, uma
luz diferente está associada com cada elo da cadeia. No
Cadeias Estendidas esquema tandem, no entanto, os requisitos de resposta são
idênticos aos do esquema encadeado, mas o mesmo estímulo
está presente durante todo o esquema.
O primeiro estudo, meu favorito, é a tese de
doutorado de Lewis Gollub em Harvard (Gollub,
1958). Ele investigou a manutenção de respostas Todos os anos, dedico uma disciplina
de bicar de pombos em esquemas de cadeias es- inteira neste estudo, mais especificamente a
tendidas e em esquemas tandem. Nos dois tipos disciplina Aprendizagem e Motivação, na Uni-
de esquema o requisito específico de cada elo do versidade da Califórnia, em San Diego (UCSD).
esquema deve ser satisfeito antes que o pombo Após apresentar os esquemas da Figura 1,
possa avançar para o próximo elo. O esquema pergunto aos estudantes qual dos esquemas
tandem funciona como um controle para o es- – encadeado ou tandem – seria melhor para
quema encadeado na medida em que o requisito manter o comportamento em termos de taxas
158
ESCOLHA E REFORÇAMENTO CONDICIONADO
mais altas de respostas e obtenção mais rápida iniciais do esquema de cadeias estendidas são
de reforço primário. Mais de 90% de meus correlacionados com (são pistas de) não re-
estudantes escolhem o esquema encadeado. forçamento. Em outras palavras, os estímulos
Eles argumentam de forma persuasiva que o iniciais da cadeia dizem ao organismo que ele
encadeado é cheio de reforços condicionados está longe do reforço. Assim, estes estímulos não
(obtidos cada vez que um novo elo é iniciado), apenas não são reforçadores, condicionados
de informação e de estímulos discriminativos, como também funcionam como pistas para
levando o pombo a progredir no esquema. não reforçamento e, consequentemente, para
Raramente um estudante percebe que o estí- não responder.
mulo presente ao longo do esquema tandem Eu vou discorrer agora sobre um inte-
é o único diretamente pareado com comida. ressante corolário do tratado de Gollub. Em
Assim, os resultados dos pombos de Gollub seus esquemas encadeados estendidos havia
surpreende os estudantes. O esquema tandem um estímulo que funciona como um estímulo
não apenas mantém melhor o responder do que para responder em sua presença (estímulo
o esquema encadeado, mas também os pombos discriminativo) que, porém, falha em funciona
tipicamente começam a parar de responder como um reforço condicionado para mantém
completamente no primeiro elo do encadeado. o responder no elo precedente. O inverso pode
Os animais também não melhoraram o desem- também ser demonstrado, como em Fantino
penho no esquema. De fato, à medida que o (1965). Este foi um estudo de escolha a respeito
controle de estímulos era fortalecido, a taxa da preferência de pombos por esquemas de
de respostas no esquema encadeado eventu- reforçamento variáveis versus esquemas fixos
almente cessava (mais detalhes disponíveis em comparáveis. Os pombos demonstraram uma
Fantino & Logan, 1979, p. 183, e, é claro, em preferência robusta pelas recompensas mais
Gollub, 1958). Fantino (1969b) obteve resul- variáveis. A preferência foi investigada em um
tados similares com ratos. Neste estudo, Kurt esquema concorrente encadeado padrão, como
Fischer (na época um estudante de graduação representado na Figura 2 (para um caso mais
da Universidade de Yale) e eu tentamos o que típico com esquemas de intervalo variável nos
nós pensávamos ser uma variedade de inova- elos terminais). Os pombos escolhiam entre
ções para facilitar o responder nos elos iniciais esquemas de intervalo variável (VI) idênticos
do esquema encadeado. As inovações funcio- nos elos iniciais (etapa de escolha); atender
navam por algum tempo até que as pressões a aos requisitos desses esquemas VI produzia
barra dos ratos ficavam sob controle de estímu- o início do elo terminal correspondente (eta-
los e o responder cessava completamente. Uma pa terminal) associada com um esquema de
de nossas inovações envolvia reduzir tanto o razão fixa (e.g., FR 50) ou com um esquema
tamanho da caixa experimental que pressionar de razão mista (e.g., FR 1 ou FR 99, cada um
à barra parecia ser a única resposta conveniente com probabilidade de 0,5 de ocorrência). Para
disponível para nossos ratos. No entanto, em nosso objetivo neste trabalho, os resultados
vez disso, os ratos conseguiram adotar uma mais interessantes emergiram quando o res-
postura de virarem-se de costas para a barra. ponder para produzir comida foi colocado sob
Dessa forma, parece que o organismo fica extinção. Neste momento, quando o pombo
sob controle de estímulos e pára de responder entrava no elo terminal, atender aos requisitos
porque os estímulos presentes durante os elos do esquema de razão levava apenas ao retor-
159
E. FANTINO
160
ESCOLHA E REFORÇAMENTO CONDICIONADO
161
E. FANTINO
As dissertações de Richard Schuster mais altas que as taxas de respostas no outro elo
e Nancy Squires terminal equivalente sem os estímulos breves?
162
ESCOLHA E REFORÇAMENTO CONDICIONADO
163
E. FANTINO
164
ESCOLHA E REFORÇAMENTO CONDICIONADO
165
E. FANTINO
ferida. Para testar mais diretamente essa noção, a Esse resultado é importante porque
duração dos esquemas VI iguais foi manipulada (de mostra que o contexto temporal afeta a
VI 40 s até VI 600 s) com esquemas VI 30 s e VI preferência por reforços condicionados.
90 s na fase terminal (Figura 7). Como previsto, a Em outros termos, a força de um estímulo
escolha diminuiu dramaticamente com aumentos como um reforçador condicionado só pode
na duração da fase de escolha (de preferência ser verificada levando em consideração o
exclusiva pelo VI 30 s no elo terminal reduzindo contexto temporal relevante. Nos termos
até as preferências se aproximarem da indiferen- da DRT, a força de um estímulo como um
ça). Esse resultado (Fantino, 1969ª), replicado em reforçador condicionado é melhor predita
vários laboratórios, tem sido chamado de “efeito pela redução no tempo até o reforçamento
do elo inicial” e é previsto não apenas pela teoria primário correlacionada com o início do
de redução do atraso (“DRT” – Delay Reduction estímulo em relação ao tempo médio até
Theory) como também por modelos quantitativos o reforço na situação de condicionamento.
mais recentes de escolha (incluindo o modelo Um corolário desse achado é outro golpe na
contextual de escolha de Grace, 1994, o modelo de tradicional hipótese do reforçamento con-
incentivo de Kileen, 1982, e de Killeen & Fantino, dicionado por pareamento. Por exemplo, os
1990, e o modelo de valor aditivo hiperbólico de resultados de Fantino (1969ª) mostram que
Mazur, 2001; ver Luco, 1990, e Preston & Fantino, o mesmo estímulo (neste caso associado a
1991, para revisões). um esquema VI 90 s) pode ser um poderoso
reforçador condicionado em um contexto
temporal, quando ele é correlacionado com
uma redução no tempo até o reforçamento,
e não ser de maneira alguma um reforçador
condicionado em outro contexto temporal,
quando ele é correlacionado com um aumen-
to no tempo até o reforçamento.
Casualmente, o fato de que aumentos
na duração da fase de escolha diminuem
a preferência expressa pela consequência
de maior valor é consistente com uma rica
literatura sobre autocontrole (por exemplo,
Rachlin & Green, 1972; Navarick & Fanti-
Figura 7. A parte superior da figura mostra a forma original da no, 1976): quanto mais curta a duração da
fórmula de redução do atraso, onde T é igual ao tempo até a fase de escolha mais impulsivo o organismo
comida a partir do início da tentativa, e tL e tR denotam o tempo
remanescente até a comida, quando os elos terminais da esquer- que escolhe. Assim, se queremos reduzir
da ou da direita são iniciados, respectivamente. Por conseguinte, o consumo de combustíveis por meio do
T-tL representa a redução no tempo até a recompensa associada
com o início do elo terminal da esquerda e T-tR representa o aumento nos impostos de combustíveis
termo correspondente à redução do atraso a partir do início devemos anunciar a proposta bem antes da
do elo terminal direito. A parte inferior da figura mostra que,
de acordo com a lei da igualação, formulação (1) na figura, a data de efetivação da mesma e ainda fazê-lo
preferência não deve variar quando o valor do elo inicial varia. de alguma forma incerta (digo tornando o
No entanto, de acordo com as equações da redução do atraso, a
preferência variaria dramaticamente com variações na duração imposto contingente a 10% de redução no
do elo inicial (a duração da fase de escolha). consumo de combustível). A maioria das pes-
166
ESCOLHA E REFORÇAMENTO CONDICIONADO
167
E. FANTINO
Case, 1983). Esse resultado faz sentido intuiti- Essa figura mostra a preferência por
vamente: estímulos pareados com uma maior nenhuma notícia (estímulos não correlaciona-
probabilidade de recompensa (uma redução dos com os esquemas em efeito, e assim, sem
no tempo até a recompensa, nos termos da valor informativo) em relação a más notícias
DRT, ou um aumento no valor, nos termos de (o estímulo correlacionado com extinção, e
Jim Mazur) são prováveis de serem reforços assim, um estímulo com valor informativo,
condicionados, enquanto estímulos pareados porém valor reforçador condicionado nega-
com uma menor probabilidade de recompensa tivo) no painel superior, e taxas absolutas de
(ou um aumento no tempo até a recompensa observação (painel inferior) para duas crianças
ou uma redução no valor) tem menor pro- (9 a 10 anos de idade). Embora essas crianças
babilidade de funcionarem como reforços tenham observado em taxas significativamente
condicionados. Coloquialmente, apenas “boas altas (acima de 100 respostas por minuto), não
notícias” manteriam a observação. De fato, ocorreram indícios de preferência por boas
numerosos estudos de nosso laboratório em notícias em relação a nenhuma notícia, mas a
UCSD têm mostrado que, para humanos, forte preferência por nenhuma notícia sobre
comparado com “más notícias”, “nenhuma más notícias (painel superior) parece não ter
notícia é boa notícia”. Os resultados de um diminuído ao longo das dez sessões estudadas.
dentre diversos estudos que apoiam essa O trabalho discutido demonstra até o
conclusão são apresentados na Figura 9 de momento que um estímulo correlacionado
Fantino, Case e Altus (1983). com extinção, apesar de informativo, não fun-
cionará como um reforçador condicionado e
não manterá respostas de observação. Uma
questão mais interessante para determinar a
natureza do reforçamento condicionado (isto
é, quais as condições necessárias e suficientes
para o reforçamento condicionado) é esta: o
menos positivo de dois estímulos funcionará
como um reforçador? Por exemplo, considere
o esquema de reforçamento empregado por
R. Auge em sua dissertação no laboratório
de Peter Killeen na Universidade do Estado
do Arizona. Auge (1974) estudou esquemas
alternados de reforçamento positivo. Pombos
poderiam observar qual de dois esquemas es-
tava em efeito (ver Figura 10, painel superior).
Ambos
os estímulos eram informativos e pare-
Figura 9. Proporções de escolha (painel superior) e taxa abso- ados com reforçamento primário. Dessa forma,
luta total de observação (painel inferior) de duas crianças em de acordo tanto com a posição tradicional do
cada uma de dez sessões. As proporções de escolha foram
calculadas com relação ao estímulo não correlacionado com reforçamento condicionado por pareamento
reforçamento (“nenhuma notícia”). As crianças escolheram quanto com a visão da informação, mesmo o
entre produzir este estímulo versus um estímulo correlacio-
nado com extinção (“más notícias”). (Figura adaptada de estímulo associado com o menos positivo dos
Fantino, Case, & Altus, 1983). esquemas alternados deveria funcionar como
168
ESCOLHA E REFORÇAMENTO CONDICIONADO
um reforçador condicionado e manter a obser- redução no tempo até o reforçamento (ou com
vação. De acordo com a DRT, porém, apenas um aumento no tempo até um evento aversivo).
o estímulo associado com o esquema mais Estensa pesquisa sobre análogos experimentais
positivo representa uma redução no tempo até do comportamento de forragear (e.g., Fantino &
o reforçamento. Assim, apenas este estímulo Abarca, 1985; Fantino & Preston, 1988), assim
deveria funcionar como um reforçador condi- como outras áreas, apoiam esta conclusão e a
cionado e manter observação. Observando a noção mais geral de que para apreciar o valor de
Figura 10, podemos ver que para esses esque- uma alternativa devemos considerar o contexto
mas, o estímulo correlacionado com o esquema em que a alternativa se encontra inserida (Fantino,
FI 1 min deveria manter observação de acordo 2001). Apoio empírico para essa conclusão bas-
com as três posições teóricas, mas apenas tante geral deriva também de extensiva pesquisa
as posições do pareamento e da informação sobre supressão condicionada, incluindo a de Bob
predizem que o estímulo correlacionado com Rescorla, e sobre automodelagem, incluindo a
o esquema FI 5 min manteria a observação. pesquisa de Elkan Gamzu e Barry Schwartz e a
De acordo com a DRT, o esquema FI 5 min de Bruce Brown e Nancy Hemmes. É tentador
representa um aumento, não uma redução no finalizar nossa história por aqui (com a palavra
tempo até o reforçamento e, assim, não deveria CONTEXTO!). No entanto, temos assuntos ain-
funcionar como um reforçador condicionado. da não resolvidos incluindo alguns dados novos.
De fato, apenas o estímulo correlacionado com
o esquema FI 1 min manteve observação. O Efeito de Prius
169
E. FANTINO
produzidas por minhas respostas de observação nos fazem “pensar novamente”. Então, Paul
parecem influenciar meu comportamento de Romanowich, Patty Quan, Joshua Zhang, e eu
dirigir. Um exemplo mais adequado envolveria decidimos verificar se pombos prefeririam um
respostas de observação que não influenciassem elo terminal que programasse taxas mais altas
as mpg com que eu dirijo. O exemplo correspon- de observação (o equivalente ao visor do Prius).
deria a observar o visor do Prius enquanto minha Nosso procedimento está esquematizado na
esposa estivesse dirigindo (uma vez que eu não Figura 12 e nossos dados iniciais sumarizados
me arrisco a oferecer sugestões a Stephanie sobre na Figura 13. A preferência não foi afetada quer
como ela deve dirigir). Em qualquer caso, é claro os esquemas de observação fossem FI ou VI.
que o visor do Prius mantém uma alta taxa de Mais uma vez, a escolha não foi afetada pela
observação, pelo menos para alguns indivíduos. taxa de reforçamento condicionado.
Isso significa que, mantidos constantes todos
os outros fatores, o visor do Prius aumentaria a
probabilidade desses indivíduos optarem por esse
equipamento? Essa questão nos leva de volta à
relação entre taxas de reforçamento condicionado
e escolha: escolheríamos um resultado no qual
emitimos altas taxas de observação, isto é, no
qual estaremos presumivelmente recebendo altas
taxas de reforçamento condicionado? Dispomos
de uma resposta provisória baseada em alguns da-
dos recentemente coletados. Nosso experimento
foi inspirado em um estudo recente de Shahan,
Podlesnik e Jimenez-Gomez (2006).
Como mostra a Figura 11, Shahan e
seus colaboradores forneceram aos pombos a
escolha entre responder em esquemas concor-
rentes que diferiam entre si apenas pelo fato
de que cada um disponibilizava um esquema
diferente de observação. O delineamento era
elegante e os resultados foram inequívocos: as
escolhas igualaram as taxas de observação dos
estímulos produzidos. Esses resultados levan-
taram novamente a questão teórica: modelos de
escolha em esquemas concorrentes encadeados
(como na DRT e em outros modelos citados Figura 11. Uma versão esquemática do procedimento
anteriormente) requerem um termo para a utilizado por Shahan, Podlesnik e Jimenez-Gomez (2006).
taxa de reforçamento condicionado? Temos Quando o esquema VI 90 s para comida estava em efeito
(painel superior), respostas nas duas chaves de observação
argumentado que não, com base em pesquisas ocasionalmente produziam o estímulo correlacionado com
prévias, incluindo os experimentos discutidos o esquema VI 90 s. Mas a taxa na qual as respostas de obser-
vação eram efetivas variava nas duas chaves de observação.
neste artigo (ver Fantino & Romanowich, 2007, Quando Extinção estava em vigor no elo terminal (painel
para uma revisão). Mas os resultados de Shahan inferior), respostas de observação não tinham efeito.
170
ESCOLHA E REFORÇAMENTO CONDICIONADO
CONCLUSÃO
Referências
Figura 13. Nossos resultados iniciais sugerem que taxas mais Auge, R. J. (1974). Context, observing behavior,
altas de observação nos elos terminais de um esquema con-
corrente encadeado não influenciam a preferência por esses and conditioned reinforcement. Journal of the
elos terminais. Este parece ser o caso quer os esquemas no Experimental Analysis of Behavior, 22, 525-533.
elo terminal (comida) sejam FI (painel superior) ou VI (painel
inferior). Os dados apresentados referem-se a cada pombo e à Autor, S.M. (1960). The strength of conditioned reinforcers as
média dos quatro pombos em cada condição. a function of frequency and probability of reinforcement.
171
E. FANTINO
Unpublished doctoral dissertation, Harvard and information. In W.K. Honig and J.E.R. Staddon
University. (Eds.), Handbook of operant behavior (pp. 313-339).
Autor, S.M. (1969). The strength of conditioned Englewood Cliffs, N.J.: Prentice Hall.
reinforcers as a function of frequency and Fantino, E. (2001). Context: A central concept.
probability of reinforcement. In D.P. Hendry Behavioural Processes, 54, 95-110.
(Ed.), Conditioned reinforcement (pp. 127-162). Fantino, E., & Abarca, N. (1985). Choice, optimal
Homewood, IL: Dorsey Press. foraging, and the delay-reduction hypothesis. The
Baum, W. M. (1974). On two types of deviation from Behavioral and Brain Sciences, 8, 315-362 (includes
the matching law: Bias and undermatching. Journal commentary).
of the Experimental Analysis of Behavior, 22, 231-242. Fantino, E., & Case, D. A. (1983). Human
Case, D. A., Fantino, E., & Wixted, J. (1985). Human observing: Maintained by stimuli correlated with
observing: Maintained by negative informative reinforcement but not extinction. Journal of the
stimuli only if correlated with improvement in Experimental Analysis of Behavior, 40, 193-210.
response efficiency. Journal of the Experimental Fantino, E., Case, D. A., & Altus, D. (1983). Observing
Analysis of Behavior, 43, 289-300. reward-informative and –uninformative stimuli
Case, D. A., Ploog, B. O., & Fantino, E. (1990). by normal children of different ages. Journal of
Observing behavior in a computer game. Journal Experimental Child Psychology, 36, 437-452.
of the Experimental Analysis of Behavior, 54, 185-199. Fantino, E., Freed, D., Preston, R. A., & Williams, W.
Catania, A. C. (1963). Concurrent performances: A. (1991). Choice and conditioned reinforcement.
Reinforcement interaction and response Journal of the Experimental Analysis of Behavior, 55,
independence. Journal of the Experimental Analysis 177-188.
of Behavior, 6, 253-263. Fantino, E., & Logan, C. A. (1979). The experimental
Dinsmoor, J. A. (1983). Observing behavior and analysis of behavior: A biological perspective. San
conditioned reinforcement. Behavioral and Brain Francisco: Freeman.
Sciences, 6, 693-704. Fantino, E., & Preston, R. A. (1988) Choice and
Duncan, B., & Fantino, E. (1972). The psychological foraging: The effects of accessibility on
distance to reward. Journal of the Experimental acceptability. Journal of the Experimental Analysis
Analysis of Behavior,18, 23-34. of Behavior,50, 395-403.
Fantino, E. (1965). Some data on the discriminative Fantino, E., & Romanowich, P. (2007). The effect
stimulus hypothesis of conditioned reinforcement. of conditioned reinforcement rate on choice:
Psychological Record, 15, 409-415. A review. Journal of the Experimental Analysis of
Fantino, E. (1968). Effects of required rates of Behavior 87, 409-421.
responding on choice. Journal of the Experimental Grace, R. C. (1994) A contextual model of concurrent-
Analysis of Behavior, 11, 15-22. chains choice. Journal of the Experimental Analysis
Fantino, E. (1969a). Choice and rate of reinforcement. of Behavior, 61, 113-129.
Journal of the Experimental Analysis of Behavior, 12, Gollub, L. R. (1958). The chaining of fixed-interval
723-730. schedules. Unpublished doctoral dissertation,
Fantino, E. (1969b). Conditioned reinforcement, Harvard University.
choice, and the psychological distance to reward. Hendry, D. P. (1969). Conditioned reinforcement.
In D.P. Hendry (Ed.), Conditioned reinforcement (pp. Homewood, IL: Dorsey Press.
163-191). Homewood, IL: Dorsey Press. Herrnstein, R. J. (1961) Relative and absolute strength
Fantino, E. (1977). Conditioned reinforcement: Choice of response as a function of frequency of
172
ESCOLHA E REFORÇAMENTO CONDICIONADO
reinforcement. Journal of the Experimental Analysis Navarick, D.J., & Fantino, E. (1976). Self-control and
of Behavior, 4, 267-272. general models of choice. Journal of Experimental
Herrnstein, R. J. (1964). Secondary reinforcement Psychology: Animal Behavior Processes, 2, 75-87.
and rate of primary reinforcement. Journal of the Preston, R.A., & Fantino, E. (1991). Conditioned
Experimental Analysis of Behavior, 7, 27-36. reinforcement value and choice. Journal of the
Kelleher, R. T. (1966). Conditioned reinforcement in Experimental Analysis of Behavior, 55, 155-175.
second-order schedules. Journal of the Experimental Rachlin, H., & Green, L. (1972). Commitment, choice,
Analysis of Behavior, 9, 475-486. and self-control. Journal of the Experimental Analysis
Keller, F. S., & Schoenfeld, W. N. (1950). Principles of of Behavior, 17, 15-22.
psychology. New York: Appleton-Century-Crofts. Schuster, R.H. (1969). A functional analysis of
Killeen, P. (1972). The matching law. Journal of the conditioned reinforcement. In D.P. Hendry
Experimental Analysis of Behavior, 17, 489-495. (Ed.), Conditioned reinforcement (pp. 192-234).
Killeen, P.R. (1982). Incentive theory: II. Models Homewood, IL: Dorsey Press.
for choice. Journal of the Experimental Analysis of Shahan, T. A., Podlesnik, C. A., & Jimenez-Gomez, C.
Behavior, 38, 217-232. (2006). Matching and conditioned reinforcement
Killeen, P. R., & Fantino, E. (1990). Unification of models rate. Journal of the Experimental Analysis of Behavior,
for choice between delayed reinforcers. Journal of the 85, 167-180.
Experimental Analysis of Behavior, 53, 189-200. Skinner, B.F. (1938). The behavior of organisms: An
Luco, J. E. (1990). Matching, delay-reduction, and experimental analysis. New York: Appleton-
maximizing models for choice in concurrent- Century-Crofts.
chains schedules. Journal of the Experimental Squires, N. (1972). Preference for conjoint schedules of
Analysis of Behavior,54, 53-67. primary reinforcement and brief-stimulus presentation.
Mazur, J.E. (2001) Hyperbolic value addition and Unpublished doctoral dissertation, University of
general models of choice. Psychological Review, California, San Diego.
198, 96-112. Wike, E. L. (1966). Secondary reinforcement: Selected
Moore, J., & Fantino, E. (1975). Choice and response experiments. New York: Harper & Row.
contingencies. Journal of the Experimental Analysis Wyckoff, L.B., Jr. (1952). The role of observing
of Behavior, 23, 339-347. responses in discrimination learning: Part I.
Mulvaney, D. E., Dinsmoor, J.A., Jwaideh, A. R., & Psychological Review, 59, 431-442.
Hughes, L.H. (1974). Punishment of observing Wyckoff, L.B., Jr. (1969). The role of observing
by the negative discriminative stimulus. Journal responses in discrimination learning. In D.P.
of the Experimental Analysis of Behavior, 21, 37-44. Hendry (Ed.), Conditioned reinforcement (pp. 237-
Myers, D.L., & Myers, L.E. (1977). Undermatching: A 260). Homewood, IL: Dorsey Press.
reappraisal of performance on concurrent variable-
interval schedules of reinforcement. Journal of the Artigo convidado
Experimental Analysis of Behavior, 27, 203-214. Recebido em 8 de julho de 2008
173