Você está na página 1de 37

Nome: Lucas Matos de Souza

RA: F343405
Campus: Tatuapé – Noturno

SÉRIE 21 - Parte VI. Controle de Estímulos DISCRIMINACAO DE ESTIMULOS

21.11 Na Fase 2, depois que uma resposta tiver sido reforçada, (2) reforçada o disco fica
verde e NENHUMA resposta é reforçada.

21.22 Figura 3. Depois dos três primeiros períodos de SA (seis minutos de SA), o
responder torna-se mais irregular e lá pelo oitavo período de SÁ, a frequência torna-se
muito INFERIOR ao que era antes.

21.33 Um operante condicionado pode continuar a ser reforçado na presença de um


certo som. O responder na presença deste som SERÁ mantido por reforço contínuo.

21.44 O comportamento fica submetido ao CONTROLE DE ESTÍMULOS em um


esquema múltiplo.

21.55 No condicionamento de um reflexo (ou respondente), a resposta ocorre e nada é


contingente à sua ocorrência. Necessita-se apenas ASSOCIAR um estímulo neutro com
um estímulo incondicionado.

21.66 Quando um empregado deseja deixar o trabalho mais cedo, é provável que o
empregador, se estiver sorrindo, diga “sim”. O sorriso funciona como (1) Sd pois é
então que o pedir para sair cedo pode ser (2) REFORÇADA (tt)

21.1 Durante a fase 1, o comportamento foi mantido por um esquema de reforço em


RAZÃO FIXA.

21.12 Quando um certo estímulo é a ocasião na qual as respostas são seguidas de


reforço, o estímulo é chamado estímulo discriminativo (SD). Na Fase 2, a luz vermelha
é um Sd para bicar o disco.

21.23 As respostas nunca são reforçadas na presença de SA. Suspender o reforço resulta
na EXTINÇÃO da resposta.

21.34 Se a resposta for reforçada quando o som tiver muita intensidade, mas não quando
tiver pouca, a intensidade elevada torna-se um (1) Sd e a baixa um (2) Sdelta.

21.45 Em um “esquema de extinção a intervalo múltiplo variável” as respostas são


reforçadas em intervalo variável durante um estímulo e são EXTINTAS durante outro
estímulo.

21.56 Ao contrário do desenvolvimento do controle de estímulos no comportamento


reflexo, uma discriminação operante requer uma contingência de TRÊS TERMOS.

21.67 Ê mais provável que uma moça cuja expressão do rosto parece mais “atraente seja
mais pretendida do que uma cuja expressão parece “orgulhosa” . Uma moça pode
assumir uma expressão “atraente” para exercer CONTROLE (tt) de estímulos sobre o
comportamento de um jovem.

21.2 Figura 1. Vinte e cinco respostas por reforço ê uma razão relativamente pequena. A
Figura 1 mostra uma frequência de resposta (1) ALTA (e relativamente constante) e
poucas, se algumas, (2) PAUSAS depois do reforço.

21.13 Um SÁ (S-delta) é um estímulo que está consistentemente presente quando a


resposta não é reforçada. Na Fase 2, a luz (1) VERDE é o SA e a luz (2) VERMELHA é
o S&.

21.24 Na Figura 3, o responder na presença de (1) S-delta sofre uma quase completa (2)
EXTINÇÃO antes do fim da sessão em que se procede a discriminação.

21.35 Se uma resposta for frequentemente reforçada quando um som de alta intensidade
estiver presente, mas não quando um som de baixa intensidade estiver presente, uma
DISCRIMINAÇÃO se desenvolve (em um organismo capaz de distinguir intensidades
de som).

21.46 A discriminação é um caso especial de controle de estímulos. Quando a resposta


foi extinta na presença de um estímulo e mantida na presença de outro, desenvolve-se
uma DISCRIMINAÇÃO.

21.57 Na discriminação operante, uma resposta (1) EMITIDA na presença de um (2) Sd


será provavelmente reforçada, enquanto que uma resposta (3) EMITIDA na presença de
um (4) Sdelta não será reforçada.

21.68 Quando um bebê diz “pa-pa”, a resposta pode ser especialmente reforçada quando
o pai está presente. 0 padrão visual provido pela presença do pai torna-se (1) Sd ; todos
os outros padrões visuais tornam-se (2) Sdeltas para a emissão de “pa-pa”.

21.3 As condições experimentais existentes quando os dados da Figura 1 foram colhidos


diferem dos esquemas comuns em razão fixa em um ponto, a cor do disco (1)
MUDAVA depois de (2) CADA reforço.

21.14 Na Fase 2 foram usados dois registradores. 0 registrador que produziu a Figura 2
funcionava só sob SD e o outro (produzindo a Figura 3) só sob SA. Enquanto um
registrador funcionava, o outro estava PARADO.

21.25 Fase 2. Depois de cada período de 2 minutos de SA há um período de (1) Sd


durante o qual o pombo emite 25 respostas e a 25.fl resposta é (2) REFORÇADA.

21.36 Quando uma resposta operante é emitida na presença de um S1» e não na


presença de um SA, desenvolveu-se DISCRIMINAÇÃO.

21.47 Quando as respostas ocorrem na presença de um estímulo e não na presença de


outro, formou-se uma (1) DISCRIMINAÇÃO ; a resposta está sob (2) CONTROLE DE
ESTÍMULOS.
21.58 0 controle de estímulos de um operante difere do de um reflexo. A ação de um
estímulo produzindo uma resposta só é chamada “aliciação”, no caso do comportamento
RESPONDENTE.

21.69 Em uma discriminação operante, o SD dá ocasião a que uma resposta seja


REFORÇADA se for emitida.

21.4 Na Fase 1 do experimento, a cor do disco alternava entre (1) VERMELHO e


VERDE mudando depois de (2) CADA REFORÇO.

21.15 Na Fase 2, a Figura 2 mostra respostas que ocorreram nas partes da sessão em que
a razão fixa estava em vigor. Respostas na presença de S° foram registradas na Figura 2.

21.26 Fase 2. Lá pelo fim da sessão já se estabeleceu o controle de estímulos pois o


responder durante SA ocorre com uma frequência (1) BAIXA enquanto que em S» o
responder ocorre com frequência (2) ELEVADA.

21.37 Discriminação é um caso especial de controle de estímulos. Quando ocorrerem


duas frequências diferentes de resposta na presença de diferentes estímulos, a resposta
está sob CONTROLE DE ESTÍMULOS.

21.48 Desenvolve-se controle de estímulos quando está em vigor um esquema


MULTIPLO.

21.59 Um respondente é (1) ELICIADO pelo seu estimulo, mas na discriminação


operante o S° é simplesmente a ocasião em que a resposta será reforçada se for (2)
EMITIDA.

21.70 A presença do pai, como estimulo discriminativo ou S°, é (1) OCASIÃO em que
o dizer “pa-pa” do bebê será (2) REFORÇADO, se emitido.

21.5 Na Figura 1 as marcas transversais indicam respostas que foram REFORÇADAS.

21.16 A frequência de respostas é aproximadamente a mesma na Figura 1 e na Figura 2.


As respostas continuam a ser mantidas em plena força na presença do estímulo
DISCRIMINATIVO (tt).

21.27 Pelo fim da primeira sessão na Fase 2, o bicar o disco está sob controle de
estímulos pois a mudança da cor de verde (SA) para vermelho (S°), imediatamente
AUMENTA a frequência de respostas.

21.38 0 disco é iluminado por uma luz amarela durante o reforço em intervalo fixo e por
uma luz azul durante o reforço em intervalo variável e o pombo comporta-se
adequadamente em cada um dos esquemas. Isto é um exemplo de CONTROLE DE
ESTIMULOS.

21.49 0 processo de discriminação é essencialmente ESQUEMA MULTIPLO em que


um dos esquemas é extinção.
21.60 Um SD é a ocasião na qual um dado operante pode ser reforçado. 0 gongo que
chama para o jantar, como um S», é OCASIÃO em que ir para a mesa será reforçado.

21.71 Quando lemos em voz alta, as nossas vocalizações estão sob o controle de uma
série de estímulos visuais da página. As letras impressas são (1) ESTIMULOS
discriminativos; as vocalizações são respostas (2) RESPOSTAS.

21.6 Se as luzes vermelha e verde do disco tivessem influências diferentes sobre a


frequência das respostas, INCLINAÇÃO do registro deveria modificar-se depois de
cada reforço.

21.17 Fase 2, Figura 3, mostra respostas que ocorreram enquanto o disco estava verde e
nenhuma resposta foi reforçada. As respostas na presença de Sdelta estão registradas na
Figura 3.

21.28 No fim do período que aparece nas Figuras 2 e 3, a frequência de respostas é


bastante diferente para SD e SA. Esta é uma forma de CONTROLE de estímulos
denominada discriminação.

21.39 Imediatamente depois do reforço, liga-se a luz amarela do disco durante 10


minutos e então vigora um esquema de intervalo fixo de 10 minutos. O pombo assim
reforçado fará primeiro uma (1) PAUSA e depois emitirá respostas com uma
frequência (2) POSITIVAMENTE ACELERADA.

21.50 Um caso bastante comum de discriminação é reforçamento contínuo na presença


de um estímulo e não reforçamento na presença de outro. Este esquema múltiplo
compõe-se de reforço (1) CONTÍNUO e (2) EXTINÇÃO.

21.61 Uma palavra sussurrada de aviso pode ser a ocasião em que um homem correrá
vigorosamente. N a discriminação operante, a magnitude de resposta não é
necessariamente dependente da INTENSIDADE do SD.

21.72 Diz-se a uma criança que está aprendendo a ler que está “certa” quando os
padrões vocais corretos ocorrem na presença de determinados padrões visuais. Ao
descrever o desenvolvimento desse comportamento (1) DISCRIMINATIVO, devemos
especificar (2) TRÊS termos (quantos?).

21.7 Quando a frequência ou a forma da resposta é diferente sob estímulos diferentes, se


diz que o comportamento está sob o controle de estímulos. A Figura 1 não apresenta
sinais de que haja CONTROLE de ESTÍMULOS nem para o verde nem para o
vermelho.

21.18 As marcas transversais da Figura 3 indicam o momento em que termina Sdelta e o


registrador para de funcionar.

21.29 Diz-se que um organismo desenvolveu uma discriminação quando o responder se


mantém na presença de (1) Sd (tt) e sofreu certo grau de extinção na presença de (2)
Sdelta (tt).
21.40 Imediatamente depois do reforço, a luz do disco muda para azul e então vigora
uma razão fixa pequena. 0 pombo treinado responderá com uma frequência ELEVADA
(talvez sem nenhuma pausa inicial).

21.51 Uma discriminação operante se estabelece com uma contingência de três termos.
Dispõe-se o reforço na seguinte ordem: (a) presença de. Sd; (b) esperar que a resposta
seja emitida; e (c) prover o REFOORÇO.

21.62 A magnitude da resposta depende da intensidade do estímulo no caso do


comportamento (1) REFLEXO mas muito menos no caso do comportamento (2)
OPERANTE.

21.73 Em uma discriminação operante, a resposta será provavelmente reforçada quando


(1) Sd estiver presente, mas não quando (2) Sdelta estiver presente.

21.8 Na Fase 1, Figura 1, não há sinais de controle de estímulos porque a frequência de


respostas é a A MESMA tanto na cor vermelha como verde do disco.

21.19 As respostas na presença de SA nunca são (1) REFORÇADAS. As respostas


registradas na Figura 3 (2) NÃO FORAM reforçadas.

21.30 0 experimento narrado no painel demonstra o processo para se estabelecer uma


forma de controle de estímulos denominada DISCRIMINAÇÃO.

21,41 Quando a luz do disco é algumas vezes amarela e algumas vezes azul (e o
esquema é algumas vezes de intervalo fixo e outras de intervalo variável
respectivamente) o responder de um pombo treinado SERÁ apropriado ao esquema em
vigor em determinado momento.

21.52 0 Sd é a ocasião na qual uma resposta, se EMITIDA será provavelmente


reforçada.

21.63 Um aviso sussurrado pode ser imediatamente seguido de uma corrida. Na


discriminação operante, o tempo entre estímulo e resposta não é necessariamente
dependente da INTENSIDADE do So.

21.74 Colocar um operante sob o controle de estímulo exige três eventos: um (1) Sd que
é a ocasião, na qual uma (2) RESPOSTA será seguida por (3) REFORÇO.

21.9 Na Fase 2, a resposta já não é reforçada quando a cor do disco é (1) VERDE, mas
continua a ser reforçada em uma razão fixa de 25 quando a cor do disco é (2)
VERMELHA.

21.20 Na Figura 3, as marcas transversais aparecem em intervalos de 2 minutos.

21.31 Ao se estabelecer uma discriminação, a resposta é (1) EXTINTA na presença de


um dos estímulos e (2) REFORÇADA na presença do outro.
21.42 Quando o desempenho do pombo é apropriado a um esquema durante um
estímulo e a outro durante outro estímulo, trata-se de um exemplo de CONTROLE DE
ESTÍMULOS.

21.53 Em uma discriminação operante um estímulo (1) DISCRIMINATIVO deve


preceder a resposta e um estímulo (2) REFORÇADOR deve segui-la pelo menos
ocasionalmente.

21.64 A latência varia em função da intensidade do estímulo no comportamento (1)


RESPONDENTE mas apenas ligeiramente, se depender, no comportamento (2)
OPERANTE.

21.75 No comportamento reflexo, se diz que o estímulo condicionado (1) ELICIA


resposta condicionada. Mas na discriminação operante, o SD é apenas (2) OCASIÃO
em que a resposta poderá ser reforçada.

21.10 Na Fase 2, as luzes verde e vermelha continuam a ser alternadas; quando o disco
fica (1) VERMELHO a 25a. resposta será portanto (2) REFORÇADA.

21.21 Figura 3. Durante os primeiros seis minutos da Fase 2, as respostas durante as


OCORRERAM (ocorreram ou não Ocorreram ?) com uma frequência próxima à do dia
anterior e que aparece na Figura 1.

21.32 Se respostas na presença de um som de certa intensidade não forem reforçadas, o


responder na presença do som se EXTINGUE.

21.43 Em um esquema múltiplo, dois ou mais esquemas estão em vigor e um estímulo


diferente está presente durante cada um. Um intervalo fixo durante uma luz amarela e
uma razão fixa durante uma luz azul é um exemplo de esquema MÚTIPLO de intervalo
fixo à razão fixa.

21.54 As condições necessárias para o estabelecimento de uma discriminação operante


são: um estímulo discriminativo, uma resposta e um estímulo reforçador. A
contingência contém TRÊS (quantos?) termos.

21.65 A natureza provê muitos SDs. Em um pomar onde apenas as maçãs vermelhas são
doces, o “vermelho” da maçã madura é um (1) Sd a cor das maçãs verdes é um (2)
Sdelta para a resposta de apanhá-las e comê-las. 21.65

SÉRIE 22 - Parte VI Controle de Estímulos GENERALIZACAO DE


ESTIMULOS

22.11 Se todos os comprimentos de onda tivessem adquirido igual controle como


resultado da Fase 1, então na Fase 2 cada nova cor deveria ter produzido
aproximadamente O MESMO número de respostas que 550 milimícrons.

22.22 À medida que o comprimento de onda se afasta em qualquer das duas direções do
comprimento de onda presente durante o reforço, o número de respostas DIMINUI.
22.33 Os sinais no código Morse para a letra C ( - . - • ) e para a letra Y ( - • — ) são
frequentemente confundidos pelo aprendiz. Os dois padrões de estímulos (1) CONTÉM
elementos comuns e portanto mostram (2) GENERALIZAÇÃO.

22.44 No desenvolvimento do comportamento de uma criança, os sorrisos marcam


ocasiões para reforços. A extensão da GENERALIZAÇÃO (tt) entre o sorrir e outras
expressões faciais diminui à medida que as discriminações se desenvolvem.

22.55 Estímulos discriminativos verbais são frequentemente estabelecidos na educação


institucional. “Pedro Alvares Cabral descobriu o Brasil em...” é o S» depois do qual a
resposta “ 1500” será REFORÇADA se emitida.

22.66 Ao desenvolver uma abstração, precisamos usar muitos objetos de diferentes


estímulos como “ Sds” ; cada qual deve possuir a propriedade em questão, mas entre
eles deve haver uma variedade de outras PROPRIEDADES.

22.1 Fase 1. O pombo está em um esquema de (1) INTERVALO VÁRIAVEL (tt) com
um intervalo médio de 1 minuto. O responder mantido neste esquema extinguir-se-á
bem (2) DEVAGAR quando o reforço for suspenso.

22.12 Se (odos os comprimentos de onda tivessem adquirido igual controle enquanto a


luz de 550 milimícrons estava sendo projetada na Fase 1, os dados da Fase 2 teriam de
ser representados por uma linha HORIZONTAL (diagonal, horizontal ou vertical ?)

22.23 Não se pode dizer que a generalização de estímulos foi completa porque em
comprimentos de onda diferentes de 550 milimícrons o máximo de respostas emitidas
foi MENOR.

22.34 Um homem que tenha medo de xingar o patrão pode, em vez disso, xingar a
mulher. Algumas vezes se diz que isso é uma “agressão deslocada”. Poderia ser
interpretada como GENERALIZAÇÃO.

22.45 O provador de vinhos profissional revelaria um GRADIENTE de generalização


muito íngreme para cada uma das dimensões de estímulos ao longo dos quais os vinhos
variam.

22.56 Quando defrontamos um novo problema que tem elementos comuns com um
antigo, experimentamos primeiro a solução antiga. Este processo é
GENERALIZAÇÃO.

22.67 Uma vez que propriedades isoladas dos objetos não ocorrem na natureza, uma
abstração NÃO PODE se desenvolver se apenas um objeto for usado para prover o Sd.

22.2 Fase 1. A luz que tem um comprimento de onda de 550 milimícrons é de cor (1)
VERDE-AMARELADO. Durante a Fase 1 esta luz projeta-se sobre o disco (2) TODO
tempo.
22.13 O comprimento de onda presente durante o condicionamento foi o de (1) 550
milimícrons. Na Fase 2, o maior número de respostas foi emitido quando a luz tinha um
comprimento de onda de (2) 550 milimícrons.

22.24 O declínio gradual do número de respostas em função do afastamento do estímulo


presente por ocasião do reforço denomina-se gradiente de generalização de estímulos. A
figura mostra o GRADIENTE de GENERALIZAÇÃO de estímulos como função do
comprimento de onda.

22.35 Generalização e discriminação são processos recíprocos. O provador profissional


de vinhos pode fazer (1) DISCRIMINAÇÕES delicadas. Ele exibe pouca (2)
GENERALIZAÇÃO entre os vários vinhos.

22.46 Quando o sargento diz “pelotão alto!” todos os homens fazem alto (param). O
comportamento deles está sob o CONTROLE de um estímulo verbal.

22.57 A criança reforçada por dizer “vermelho” quando olhando para um livro
vermelho pode vir a chamar todos os livros de “vermelho”. Isto é um exemplo da (1)
GENERALIZAÇÃO. Em parte deve-se ao (2) ELEMENTO comum formato que têm os
livros diferentes na cor.

22.63 Adquire-se uma resposta abstrata quando uma propriedade particular de estímulos
que não pode “subsistir sozinha” vem a controlar a resposta e os outros ELEMENTOS
do estímulo que normalmente acompanha a propriedade particular não têm nenhum
controle. 22 63

22.3 Na Fase 2, a luz com um comprimento de onda de 550 milimícrons não se projeta
no disco TODO tempo.

22.14 Fase 2. Na figura, o comprimento de onda no qual mais respostas foram emitidas
foi o que estava presente quando a resposta foi REFORÇADA.

22.25 Um gradiente mais íngreme indicaria uma (1) GENERALIZAÇÃO DE


ESTÍMULOS menos extensa, enquanto que um gradiente relativamente chato indicaria
uma (2) MAIS extensa generalização de estímulos.

22.36 Quando uma criança chama todos os animais de pelo de,4au-au”, 6 um caso de
GENERALIZAÇÃO.

22.47 0 sargento diz “pelotão alto!” e todos os homens param. Este estímulo verbal é
um Sd para parar.

22.58 Uma criança reforçada por dizer “vermelho” quando olhando para um livro
vermelho poderá vir a dizer “vermelho” quando olhando para um livro preto. Isto se
deve em parte ao controle adquirido pelo ELEMENTO COMUM formato.

22.69 A natureza raramente faz com que uma única propriedade do estímulo seja a
ocasião para o reforço de uma resposta; por isso raramente desenvolve-se
ABSTRAÇÃO a menos que um segundo organismo disponha as contingências
necessárias para o reforço.
22.4 Na Fase 2, o reforço NUNCA ocorre.

22.15 Nos comprimentos de onda diferente de 550 milimícrons, o número de respostas


em um período de tempo constante é MENOR que em 550 milimícrons.

22.26 O controle exercido por uma série contínua de estímulos similares sob alguma
forma ao estímulo presente durante o reforço mostra-se por um GRADIENTE DE
GENERALIZAÇÃO de estímulo como o da figura.

22.37 Quando a criança emite o som “au-au” apenas na presença de cachorros, já se


formou DISCRIMINAÇÃO.

22.48 O estímulo verbal “9 vezes 9” é Sd que controla a resposta verbal “81” .

22.59 A criança que antes chamava todos os livros “vermelho” logo passa a chamar
“vermelho” apenas os livros vermelhos. Quando não for reforçada por dizer “vermelho”
a livros de cores diferentes os livros de outras cores virão a ser um S deltas para a
resposta dizer “vermelho”.

22.70 É a comunidade verbal que DETERMINA qual a propriedade particular de


estímulo que será ocasião para o reforço da resposta verbal abstrata da criança.

22.5 Na Fase 2, desde que o reforço não mais ocorre, se a cor do disco não mudasse,
respostas seriam emitidas por muitas horas com frequência gradualmente
DECRESCENTE pois a resposta foi mantida em um esquema de intervalo variável.

22.16 O experimento demonstra que cores que não estavam efetivamente presentes
quando a resposta foi reforçada adquirem não obstante algum CONTROLE sobre a
resposta.

22.27 Se um som muito alto estiver frequentemente presente quando uma resposta for
reforçada, um som de altura média deverá exercer algum CONTROLE sobre a resposta.

22.38 Uma criança pequena pode ser reforçada quando se aproxima da mãe ou do pai se
eles estiverem sorrindo, mas não quando estiverem carrancudos. Sob estas condições
uma DISCRIMINAÇÃO se desenvolverá.

22.49 0 paciente pode vir a amar ou a odiar o seu psicanalista de maneira que se
assemelha a suas reações emocionais a um de seus pais. O analista pode chamar isto de
“transferência”. Isto envolve GENERALIZAÇÃO.

22.60 Uma criança que chama “vermelho” apenas aos livros vermelhos, pode mostrar
certa probabilidade de dizer “vermelho” ao ver um automóvel vermelho. Isto é (1)
GENERALIZAÇÃO (tt); mas a probabilidade pode ser (2) PEQUENA, porque livros
vermelhos e automóveis vermelhos são muito diferentes.

22.71 No laboratório, quando o experimentador dispõe as contingências nas quais uma


propriedade particular de estímulo é ocasião em que a resposta será reforçada, até os
animais desenvolvem ABSTRAÇÃO.
22.6 Na Fase 2, a intervalos regulares a cor ou comprimento de onda da luz projetada no
disco MODIFICA-SE.

22.17 Estímulos que não estavam presentes na ocasião do reforço podem adquirir
controle sobre uma resposta devido ao REFORÇO da resposta na presença de um
estímulo similar.

22.28 Se um som muito alto esteve frequentemente presente quando a resposta foi
reforçada, um som de altura média deverá produzir uma frequência de respostas (1)
MENOR que a do som muito alto e (2) MAIOR que a de um som muito baixo.

22.39 Uma criança bem pequena poderá aproximar-se dos pais mais ou menos da
mesma forma, quer eles estejam sorrindo, quer estejam carrancudos. 0 sorriso ainda não
se tornou um (1) Sd nem a carranca um (2) Sdelta.

22.50 Uma criança pequena pode apanhar o telefone e ficar ouvindo a qualquer hora,
mas eventualmente o tocar do telefone torna-se (1) Sd (tt) para esta resposta e o não
estar tocando (2) Sdelta (tt).

22.61 Para colocar a resposta “vermelho” sob o controle da cor vermelha, uma
propriedade particular, reforçamos respostas na presença de objetos vermelhos de
diferentes tamanhos, formas, etc. A propriedade particular vermelho adquire
CONTROLE sobre a resposta.

22.7 Fase 2. Luzes de muitas (1) CORES diferentes são projetadas sobre o (2) DISCO.

22.18 Na generalização de estímulos, um estímulo adquire controle sobre uma resposta


devido ao reforço na presença de um estímulo similar mas diferente. 0 controle exercido
na Fase 2 pela luz de 570 milimícrons demonstra a de GENERALIZAÇÃO DE
ESTÍMULOS (tt).

22.29 0 número das respostas a duas luzes monocromáticas separadas por apenas 10
milimícrons mostra-se quase o mesmo no GRADIENTE DE GENERALIZAÇÃO.

22.40 0 viajante que diz “todos os habitantes deste país se parecem uns com os outros”
está essencialmente revelando o nível do seu próprio GRADIENTE DE
GENERALIZAÇÃO.

22.51 0 linguista é capaz de distinguir entre dois- sons de ala que parecem idênticos a
muitas pessoas. Os dois sons normalmente controlam uma única resposta no que é
chamado (1) GENERALIZAÇÃO mas o linguista já adquiriu (2) DISCRIMINAÇÃO.

22.62 Quando uma propriedade particular de um objeto controla uma resposta,


chamamos a relação de abstração. À cor vermelha é uma destas propriedades. Esta
propriedade nunca ocorre sozinha, quando uma resposta é controlada pela propriedade
particular “vermelho” isoladamente, chamamos isto de ABSTRAÇÃO.

22.8 Marcou-se na figura (1) NÚMERO médio de RESPOSTAS durante períodos


comparáveis de tempo em cada (2) COMPRIMENTO de ONDA usado.
22.19 Com pequenas exceções, quanto maior a diferença no comprimento de onda,
MAIOR a diferença no número de respostas emitidas em iguais intervalos de tempo.

22.30 Dois estímulos que descrevemos como ’’similares” mostram provavelmente certa
GENERALIZAÇÃO (tt) no seu controle sobre o comportamento.

22.41 0 viajante que diz “todos os habitantes se parecem” teve muito pouco contato para
poder desenvolver uma DISCRIMINAÇÃO adequada entre os habitantes.

22.52 Quando uma distante campainha da porta toca, você pode “cometer um engano” e
ir atender o telefone. A campainha da porta exerce certo (1) CONTROLE sobre atender
o telefone. Este fenômeno denomina-se (2) GENERALIZAÇÃO.

22.63 Quando uma resposta está sob o controle de propriedade particular de estímulo
que não pode ocorrer ou existir sozinha, dizemos que é uma ABSTRAÇÃO.

22.9 O único comprimento de onda que estava sempre presente quando a resposta foi
reforçada, era o de 550 milimícrons.

22.20 Fase 2. O controle de estímulos exercido por uma dada cor se mede pelo***
NÚMERO de RESPOSTAS que ocorre quando esta cor é projetada no disco.

22.31 Quando uma escultura abstrata gera respostas emocionais parecidas com aquelas
geradas pelo corpo humano, se atribui algumas vezes o efeito ao “simbolismo”. E um
exemplo de GENERALIZAÇÃO de ESTÍMULOS.

22.42 Um organismo pode emitir a mesma resposta a dois estímulos similares apenas
quando um deles esteve presente durante o reforçamento. 0 termo para este fenômeno é
GENERALIZAÇÃO de ESTÍMULOS.

22.53 Campainhas, apitos e sinais de trânsito, como Sos, são ocasiões nas quais as
respostas apropriadas serão REFORÇADAS se emitidas.

22.64 Na abstração, a resposta está sob o controle de uma propriedade PARTICULAR


de estímulo (ou de um conjunto de estímulos).

22.10 Se o comprimento de onda de 550 milimícrons tivesse sido o único a adquirir


controle como resultado da Fase 1, então NENHUMA resposta teria sido emitida às
outras luzes apresentadas.

22.21 A luz de 560 milimícrons (1) NÃO ESTAVA presente quando a resposta era
reforçada; mas a figura revela que a luz deste comprimento (2) PODE exercer
considerável controle sobre a frequência de respostas.

22.33 Frequentemente a generalização depende dos elementos comuns a dois ou mais


estímulos. O controle exercido por uma forma triangular preta generaliza para uma
forma triangular branca, porque eles têm uma mesma forma em COMUM.
22.43 Um estímulo que precede de perto ou que acompanha uma resposta reforçada
adquire controle sobre a resposta. O estímulo torna-se um Sd para a resposta.

22.54 “Verde, amarelo, azul e . . . ” Se você tende a dizer “branco” você mostra o
CONTROLE que esta cadeia de estímulos verbais exerce sobre a resposta verbal
“branco”.

22.65 Todo objeto vermelho tem uma certa forma, um certo tamanho, etc. As
propriedades isoladas dos estímulos NUNCA OCORREM isoladas na natureza.

SÉRIE 23 - Parte VI. Controle de Estímulos ENCADEAMENTO

23.6 Ao mesmo tempo que é um S» para apanhar o alimento, a visão do alimento é


REFORÇO para inclinar-se e olhar para dentro do alimentador.

23.12 Um estímulo reforçador vem (1) DEPOIS da resposta reforçada por ele. Um
estímulo discriminativo vem (2) ANTES da resposta controlada por ele.

23.18 Cada estímulo na cadeia tem a dupla função de reforçar a resposta que vem (1)
ANTES e ser um S° para a que vem (2) DEPOIS.

23.24 Quando a luz vermelha do disco, como SD , tem o controle das respostas de bicar,
qualquer resposta que “produza” a luz vermelha do disco será REFORÇADA.

23.30 Só Quando o pombo “olha” o disco, que algumas vezes fica vermelho (Só para
bicar), o comportamento de dirigir os olhos para o disco será (1) REFORÇADO pela luz
vermelha do disco e o comportamento de olhar terá sido adicionado ao começo da (2)
CADEIA.

23.36 Um cartaz que “prenda nossa atenção” é um cartaz que provavelmente olharemos.
Olharemos outros cartazes se os anteriores contiverem estímulos que REFORÇARAM
o comportamento “olhar” .

23.1 No experimento típico com o pombo, a visão do alimento é a ocasião na qual


apanhar o alimento é REFORÇADO (tt) pelo alimento na boca.

23.7 Esta sequência constitui uma cadeia, inclinar-se, ver o alimento. Ver o alimento é
(1) REFORÇO para inclinar-se para o alimentador e (2) Sd para apanhar o alimento.

23.13 Nas condições experimentais comuns, quando o bicar o disco fecha o circuito que
faz funcionar o mecanismo alimentador, o ruído do alimentador vem depois e
REFORÇA (tt) a resposta de bicar o disco.

23.19 Diz-se que a sequência de estímulos e respostas entre bicar o disco e apanhar a
comida na boca é CADEIA.

23.25 Se o aparelho for construído de modo que a luz vermelha do disco se acenda
automaticamente quando o pombo esticar o pescoço, será (1) REFORÇADO pela luz
vermelha (que é S» para bicar) e esticar o pescoço será adicionado à (2) CADEIA.
23.31 É mais provável que o pombo “veja” quando a luz fica vermelha se tiver os olhos
voltados para o disco (“se olhar”). Este comportamento de voltar os olhos é.
Intermitentemente reforçado pela visão d e Sd (tt).

23.37 O operador de radar procura no mostrador (na tela) do radar pequeno sinais
luminosos. Se não aparece nenhum, o comportamento de percorrer o mostrador com os
olhos e movimentos de cabeça se EXTINGUE.

23.2 A visão do alimento é um estímulo DISCRIMINATIVO para apanhar o alimento.

23.8 Nesta simples cadeia (inclinar-se, ver e apanhar o alimento), as duas respostas
estão “ligadas” a este inclinar- se que produz (e é reforçado) um estímulo que é o Sd
para APANHAR o alimento.

23.14 No experimento usual, quando o bicar o disco faz funcionar o mecanismo


alimentador que faz um ruído, o pombo inclina-se para o alimentador. 0 ruído ê um Sd
para inclinar-se.

23.20 Se a cadeia de comportamento é raramente interrompida, pode ela ser tratada


como uma unidade. A frase “o comportamento operante de bicar um disco por
alimento” descreve uma cadeia bem integrada como se fosse uma única UNIDADE de
comportamento.

23.26 0 disco foi levantado e parcialmente ocultado de modo que o pombo tinha de
levantar a cabeça para vê-lo. Levantar a cabeça foi (1) REFORÇADO por qualquer cor
do disco que servisse como (2) Sd para bicar o disco.

23.32 Respostas descritas como “olhar” , “procurar”, “atentar”, etc. que em geral
produzem estímulos, ocorrem com frequência no começo da CADEIA.

23.3 Inclinar-se para o alimentador permite a visão do alimento. A visão do alimento


(um reforço condicionado) REFORÇA o inclinar-se para o alimentador.

23.9 Em uma cadeia de comportamentos, o mesmo estímulo é, ao mesmo tempo, um Sd


e um REFORÇO.

23.15 0 ruído do funcionamento do mecanismo alimentador é um estímulo (1)


REFORÇADOR para bicar o disco e um estímulo (2) DISCRIMINATIVO para
inclinar-se para o alimentador.

23.21 Designa-se um operante de maneira bastante arbitrária como “bicar o disco”,


“andar”, etc. Está implícito que uma cadeia bem integrada está funcionando como
UNIDADE de comportamento operante.

23.27 0 pombo levanta a cabeça ao nível do disco semioculto e “olha a cor” . Como a
cor é Sd para bicar, o pombo bica e é reforçado com alimento.
23.33 Quando o pombo levanta a cabeça e “olha” ou“ atenta” para o disco semioculto,
este comportamento produz ou clarifica o S», pois traz uma visão clara do SD. 0 que no
falar coloquial chamamos de “atentar” é uma resposta que PRODUZ um Sd.

23.4 Temos vindo usando o têrmo “reforço” em lugar de “estímulo reforçador”. Desde
que os reforços são certos estímulos que seguem as respostas, um sinônimo de reforço é
ESTÍMULO REFORÇADOR.

23.10 Um estímulo torna-se um S» quando (1) RESPOSTA que o segue regularmente


for reforçada. Um S*> tornar-se-á um reforçador condicionado quando (2) REFORÇO
o acompanhar regularmente e sem demora.

23.16 Inclinar-se para o alimentador torna o alimento visível e o pombo apanha-o com o
bico. Em relação ao apanhar o alimento, a visão do alimento é ( 1 ) Sd Em relação ao
inclinar-se, a visão da comida é (2) REFORÇO.

23.22 Se o bicar for reforçado quando estiver acesa uma luz vermelha, mas não quando
outras luzes estiverem acesas, a luz vermelha torna-se um Sd para “bicar o disco”.

23.28 0 pombo levanta a cabeça e olha a cor do disco semioculto. Se a cor do disco for
um SD, olhar o disco será REFORÇADOR.

23.34 Poderíamos dizer que um SD só é eficaz se o organismo “atentar” nele. “Atentar”


não é um evento mental; é o nome genérico para os comportamentos que produzem ou
clarificam um Sd.

23.5 O mesmo estímulo pode ser ao mesmo tempo um estímulo reforçador e um S°. A
visão do alimento é um Sd para apanhar o alimento, mas é um estímulo reforçador (isto
é, um reforço) para inclinar-se e olhar o alimentador.

23.11 Quando um estímulo se tornou um SD para uma resposta ter-se-á tornado também
um reforçador para qualquer outra resposta que o ANTECEDA.

23.17 Quando uma resposta produz um S» para outra resposta, as duas formam uma
cadeia. A sequência de eventos que começa com o bicar o disco e termina com o
apanhar a comida na boca constitui um a CADEIA de respostas.

23.23 Quando a luz vermelha já se tornou um Sd para bicar, a luz vermelha foi
adicionada ao começo de uma CADEIA de respostas.

23.29 Nos experimentos com pombo, olhar para o disco é reforçado pelo Sd para bicar o
disco.

23.35 “Atentar” NÃO implica um evento mental, mas antes uma espécie de
comportamento.

SÉRIE 26 - Parte VII Privação CONCEITOS BASICOS


26.10 Quando um animal esteve sem comida, o seu comportamento de ingerir
condicionado ou incondicionado torna-se MAIS provável quando o alimento for outra
vez acessível.

26.20 Privação e um procedimento que em geral (1) AUMENTA a probabilidade de um


grupo de respostas. A probabilidade de ocorrência de comportamentos relacionados
com alimento pode ser aumentada pela (2) PRIVAÇÃO de alimento.

26.30 Quando um cavalo conduzido até a agua não bebe, podemos inferir uma história
recente de SACIEDADE.

26.40 Uma vez que a frequência de respostas esta declinando, a curva e


NEGATIVAMENTE (positivamente ou negativamente ?) acelerada.

26.50 A privação de alimento aumenta a probabilidade de toda uma classe de respostas


que foram anteriormente (1) REFORÇADAS com alimento. A privação de agua
aumenta a probabilidade da (2) CLASSE de respostas que foi reforçada com agua.

26.60 Respostas reforçadas por um dado reforçador aumentarão de probabilidade


através de toda uma SÉRIE de procedimentos do tipo privação.

26.1 0 comportamento operante com frequência tem um significado biológico para a


sobrevivência do indivíduo ou da espécie. Respostas reforçadas pelo contato sexual tem
implicações obvias para a sobrevivência da ESPÉCIE.

26.11 Quando um organismo esteve sem agua por um período (altamente) de tempo, o
comportamento anteriormente reforçado pela agua torna-se MAIS PROVÁVEL.

26.21 Um homem faminto e geralmente alguém que foi PRIVADO de comida.

26.31 Em muitos experimentos discutidos anteriormente, os organismos estavam (1)


PRIVADOS de alimento antes de serem colocados na câmara experimental. Assim foi
feito sempre que o alimento deveria ser usado como(2) REFORÇO.

26.41 Se se tivesse dado ao rato algum alimento antes de começar a sessão, a frequência
inicial de respostas teria sido MENOR.

26.51No experimento do painel, depois de cada resposta o rato recebe alimento que (1)
REFORÇA a resposta. O alimento também ocasiona a (2) REDUÇÃO do nível de
privação.

26.61Imediatamente depois do orgasmo, a probabilidade de ulterior comportamento


sexual e (1) REDUZIDA ; à medida que o tempo passa (isto e, aumenta a privação
sexual), a probabilidade desse comportamento (2) AUMENTA.

26.2 Operantes reforçados com alimento tem implicações para a sobrevivência de cada
INDÍVÍDUO da espécie.
26.12 Podemos (1) AUMENTAR a probabilidade de um organismo beber privando-o
de agua. Podemos aumentar a
probabilidade de um organismo comer (2) PRIVANDO-O de alimento.

26.22 De um ponto de vista prático, para fazer um indivíduo comer podemos utilizar a
operação denominada PRIVAÇÃO.

26.32 Leia o painel e consulte-o quando necessário. Antes da sessão experimental


durante a qual foi tomado o registro que aparece no painel, a resposta (comprimir a
barra) já tinha sido CONDICIONADA.

26.42 A figura mostra que a frequência de respostas declina à medida que o grau de
punição DIMINUI.

26.52 A ingestão de comida (1) REFORÇA a resposta precedente; também reduz a (2)
PRIVAÇÃO do alimento.

26.62 Se a probabilidade d o comportamento sexual aumenta com a administração de


certos hormônios ou dos “ afrodisíacos”, o efeito e semelhante ao da PRIVAÇÃO
sexual.

26.3 Os processos biológicos não podem prosseguir em tecidos (organismo,


desidratados. A desidratação de um organismo (tal membro) como o homem) pode ser
prevenida se se emitem respostas que resultam na ingestão de ÁGUA.

26.13 A probabilidade de um animal empenhar-se em comportamento anteriormente


reforçado com alimento DIMINUI à medida que ele ingere grande quantidade de
comida.

26.23 A saciarão e a operação que em geral DIMINUI a probabilidade do responder.

26.33 No experimento do painel e claro que o abaixar a barra já tinha sido


condicionado, pois o rato começa a responder IMEDIATAMENTE.

26.43 Um pombo foi reforçado com alimento por bicar um disco, esticar o pescoço e
andar em círculo. A saciarão do alimento DIMINUIRÁ a frequência de todas estas
respostas.

26.53 Seria ineficiente para treinar um cachorro dar-lhe toda (2) privação a ração do dia
depois de uma única resposta porque o cachorro ficaria (1) SACIADO depois de apenas
(2) UM reforço.

26.63 Privação sexual e o uso de drogas e hormônios que aumentam a frequência do


comportamento sexual pertencem a uma única CLASSE de processos.

26.4 0 comportamento de ingerir (por exemplo, comer) que e importante para a


sobrevivência pode abranger reflexos, condicionados ou incondicionados e operantes.
Engolira agua que já está na boca e principalmente um comportamento
RESPONDENTE INCONDICIONADO.

26.14 Em geral, quanto maior for a quantidade do alimento que o animal tenha comido,
tanto MENOS PROV´VEL será o seu comportamento de ingerir.

26.24 Se a saciedade não torna os comportamentos de procurar alimento e comer menos


frequentes, comportamentos sem valor biológico, iriam OCUPAR muito tempo do
animal.

26.34 O rato não ingeriu alimento durante 24 HORAS antes de ser colocado na câmara.

26.44 Se sete operantes diferentes tivessem sido reforçados com alimento a privacao do
alimento aumentaria a probabilidade dos SETE operantes.

26.54 Através do uso de pequenos bocados de alimento, o experimentador pode reforçar


a resposta muitas vezes sem SACIAR o animal.

26.64 Confinar o animal em um espaço pequeno produz um aumento da atividade acima


do nível normal quando se solta o animal. O confinamento e pois uma forma de
PRIVAÇÃO pois aumenta a atividade subsequente.

26.5 Engolir agua que já está na boca e principalmente um comportamento (1)


RESPONDENTE (tt) incondicionado. Encontrar agua e coloca-la na boca e
principalmente um comportamento (2) OPERANTE CONDICIONADO.

26.15 Quanto mais tempo um organismo ficar sem agua, tanto MAIS PROVÁVEL se
torna qualquer comportamento anteriormente reforçado com agua.

26.25 Animais que não comam ou bebam quantidades suficientes quando severamente
privados de alimento ou agua morrem. O incremento dos comportamentos de ingerir em
animais privados TEM um valor de sobrevivência.

26.35 Neste experimento todas as respostas são reforçadas. Portanto, diz-se que o
abaixar a barra está sob reforço CONTÍNUO.

26.45 Quando muitas respostas diferentes produzirem alimento com sucesso, então a
privação de alimento AUMENTA A PROBABILIDADE de todas estas respostas.

26.55 Em alguns esquemas intermitentes o animal pode receber muito pouco alimento
como reforço. Por isso, o nível de privação não DIMINUI tão rapidamente sob reforço
intermitente como sob reforço continuo.

26.65 Forcar o animal a mover-se continuamente, por exemplo em uma gaiola circular
movida por um motor, produz uma diminuição na atividade quando se solta o animal. A
atividade forcada e uma espécie de SACIEDADE pois reduz a atividade subsequente.

26.6 0 comportamento reforçado pela ingestão de agua é NECESSÁRIO para a


sobrevivência do organismo.
26.16 Fazer com que o animal perca agua através da excreção de suor ou de urina tem o
mesmo efeito sobre o beber
Como PRIVA-LO de agua.

26.26 Aos pais que se queixam de que os filhos são “ difíceis” para comer, se aconselha
proíbam-nos petiscar entre as refeições. A operação para que se apela neste caso e a
PRIVAÇÃO.

26.36 Durante os primeiros 30 minutos, o rato apertou a barra 58 vezes e recebeu e


ingeriu 58 bocados de alimento.

26.46 Na maioria dos animais, muitas respostas diferentes foram reforçadas com
alimento. A privação de alimento aumenta a probabilidade de TODAS estas respostas.

26.56 Tanto ingerir comida demasiado salgada como estar privado de agua, ambos (1)
AUMENTAM a probabilidade de (2) TODAS as respostas que foram anteriormente
reforçadas com (3) ÁGUA.

26.66 Drogas (como a benzedrina) que aumentam a atividade, são semelhantes no seu
efeito a PRIVAÇÃO da atividade.

26.7 0 comportamento de ingerir NÃO É biologicamente útil para um homem com o


estomago cheio.

26.17 Uma excessiva quantidade de sal ingerida na comida deve ser excretada em
solução. A comida salgada, portanto, AUMENTA a frequência do comportamento
operante chamado “ tomar um gole d ’agua” .

26.27 Dizer que “ alguém não está com fome” refere-se ao nível de probabilidade do
seu comportamento de ingerir
que e comumente induzido pelo processo denominado SACIAÇÃO.

26.37 A figura mostra que, a medida que a sessão prossegue, a frequência de respostas
DECRESCE gradualmente.

26.47 Quando uma resposta e reforçada com alimento, torna-se membro da classe de
respostas cuja frequência aumenta com a privação de ALIMENTO.

26.57 Suar muito por causa de trabalho ou de emoção TEM efeito semelhante a
privação de agua sobre a classe de
respostas anteriormente reforçadas com agua.

26.67 Drogas que diminuem a atividade são semelhantes no efeito a SACIAÇÃO de


ATIVIDADE.

26.8 Depois de uma refeição pesada, a probabilidade de se ingerir mais comida e


PEQUENA.
26.18 Um soldado que esta ao mesmo tempo incapacitado por ferimentos e desidratado
pela perda de sangue emite o operante verbal “Agua!” com um a FREQUÊNCIA
MAIOR que o normal.

26.28 A frase comum “o animal vai ficando cada vez com mais sede” descreve grosso
modo um aumento na PROBABILIDADE do comportamento de beber causado pela
privação de agua.

26.38 À medida que a sessão prossegue, a quantidade total. comida aumenta


gradualmente de modo que a privação do rato gradualmente DIMINUI.

26.48 Alcançar um copo d ’agua, pedir um copo d ’agua, andar até um bebedouro, todas
são respostas que pertencem a (1) CLASSE de respostas cuja probabilidade aumenta
com a (2) PRIVAÇÃO de ÁGUA.

26.58 Privação de agua, ingestão de sal e suar são classes de operações ou processos
que aumentam a frequência da emissão de respostas reforçadas com agua. Vários
procedimentos podem ter MESMO efeito sobre o comportamento com agua.

26.68 Para cada estado de privação, existem em geral vários processos alternativos que
têm o mesmo efeito sobre toda CLASSE de respostas.

26.9 Em geral, depois da ingestão de uma considerável quantidade de comida, a


probabilidade de qualquer comportamento operante anteriormente reforçado com
alimento é REDUZIDA.

26.19 Exercício violento em um dia de calor causa sudação. A resultante perda de agua
aumenta a frequência de comportamentos anteriormente reforçados por ÁGUA.

26.29 Quando vemos um indivíduo beber uma grande quantidade de agua, inferimos
usualmente uma história recente de PRIVAÇÃO.

26.39 0 experimento demonstra que, à medida que a privação (1) DIMINUI a


frequência de um operante reforçado com alimento (2) DIMINUI.

26.49 Se vários operantes diferentes foram anteriormente reforçados com agua, então a
saciação de agua (1) DIMINUI a frequência de toda esta (2) CLASSE de resposta.

26.59 Administração de sal, indução de suor e privação de (semelhante) agua são


membros de uma classe de processos. As respostas reforçadas pela agua são aumentadas
por TODAS elas.

SÉRIE 27 - Parte VII. Privação - REFORCADORES GENERALIZADOS

27.50 Um rato completamente saciado de alimento (1) NÃO ingere alimento. A barra
que no passado operava apenas o mecanismo alimentador (2) NÃO e mais pressionada
pelo rato saciado de alimento.
27.10 Embora o reforço imediato por bicar o disco seja um reforço condicionado (o
clique), a frequência do bicar e tanto maior quanto (1) MAIOR for (2) PRIVAÇÃO de
alimento.

27.15 Uma sopa leve ou um leite achocolatado e um reforço INCONDICIONADO


porque sua capacidade de reforçar independe de condicionamento anterior.

27.20 Privar um organismo de alimento ou agua não altera muito a frequência de uma
resposta condicionada por REFORÇO GENERALIZADO.

27.25 Uma elevada frequência de respostas NÃO É (e ou não é ?) condição suficiente


para se supor um alto nível de privação porque a frequência e influenciada por outras
variáveis, tais como o esquema de reforço.

27.30 A legalização da prostituição e algumas vezes defendida com o argumento de que


ela pode (1) DIMINUIR violências sexuais contra mulheres inocentes fornecendo outros
meios de (2) SACIAÇÃO .

27.10 No experimento usual, abaixar a barra é imediatamente reforçado pelo clique do


mecanismo alimentador, que é um reforço (1) CONDICIONADO Abaixar a barra é
parte de uma cadeia de comportamento que termina quando o alimento e comido, um
reforçador (2) INCONDICIONADO.

26.6 Apertar a barra e reforçado imediatamente pelo clique do alimentador, um


reforçador condicionado. 0 comportamento reforçado por um reforço condicionado
varia com a privação apropriada para o REFORÇO INCONDICIONADO usado no
estabelecimento do reforço condicionado.

27.11 Um reforço generalizado NÃO depende de uma condição particular de privação.

27.16 Uma sopa leve ou o leite achocolatado podem reforçar tanto um organismo
privado de alimento como um organismo privado de agua, e isto os torna até certo ponto
reforçadores INCONDICIONADOS GENERALIZADOS.

27.21 Um reforço generalizado pode ser usado para condicionar uma nova resposta
SEM (com ou sem ?) muitas restrições sobre que privação específica deva estar presente
no momento.

27.31 As explicações populares do comportamento' usam muito palavras como


“querer”, “desejo” ou “necessidade”. O referente observável para estas palavras e, em
geral, uma elevada (1) FREQUÊNCIA de respostas. Em tais casos elas (2) NÃO SÃO
(são ou não são ?) as causas reais da frequência de respostas.

27.20 Um estimulo que é frequentemente associado com alimento torna-se reforçador


(1) CONDICIONADO Tal estimulo só será efetivo no condicionamento de uma
resposta se o animal estiver (2) PRIVADO de ALIMENTO.

27.7 Saciar um rato com alimento diminui a probabilidade do apertar a barra se este
comportamento for parte de uma CADEIA de comportamentos que termine com a
ingestão de alimento.
27.12 Um estimulo que tenha estado associado com reforçadores incondicionados
apropriados a muitas diferentes privações torna-se um reforço GENERALIZADO.

27.17 Embora os reforçadores generalizados sejam em geral condicionados, há casos


(por exemplo, uma sopa leve ou leite achocolatado) de reforços incondicionados
apropriados a VÁRIAS condições de privação.

27.22 A probabilidade de uma resposta anteriormente reforçada pela frase “está certo” e
em grande parte INDEPENDENTE da privação de alimento.

27.27 Quando fazemos que uma criança beba mais leite reduzindo o seu consumo de
agua, usamos PRIVAÇÃO no controle do comportamento.

27.32 Nas boites servem-se de graça amendoim ou batatinhas fritas. Como são salgados,
tem um efeito semelhante ao de PRIVAÇÃO de ÁGUA e aumentam a venda de bebidas

27.30 Um rato privado de comida aperta a barra, o mecanismo alimentador faz um


clique, o rato se abaixa, apanha o alimento e come. Esta sequência de estímulos e
respostas forma uma CADEIA do apertar até o comer.

27.8 Quando estivermos estado sem agua durante algum tempo e (1) PROVÁVEL que
se vá beber agua e (2) PROVÁVEL que se ande até o bebedouro.

27.13 Quando associado a vários reforçadores incondicionados apropriados a várias


privações, um reforço condicionado será eficaz sob vários tipos de PRIVAÇÃO.

27.18 Não há muitos casos de reforços primários que sejam eficazes em mais de um
estado de privação. Por isso a maioria dos reforços generalizados SÃO reforços
condicionados.

27.23 Quando uma resposta foi reforçada por um estimulo antes associado apenas a um
único reforçador incondicionado, a resposta e DEPENDENTE de uma determinada
privação.

27.28 Para poder servir pequenas porções sem reclamações, um restaurante a “table
d’hote” pode servir uma farta quantidade de um delicioso pão enquanto a comida está
sendo preparada. 0 restaurante está SACIANDO os fregueses sem muita despesa.

27.33 “Pode-se levar um cavalo até a agua, mas não se pode obriga-lo a bebe-la” . Este
ditado passa por cima da possibilidade de se controlar o comportamento através da
PRIVAÇÃO.

27.40 Apertar a barra e parte de uma (1) CADEIA de comportamento que termina com
a ingestão de alimento. A privação de alimento (2) AUMENTA a frequência de emissão
de toda a cadeia.

27.9 Depois do condicionamento, o pombo bica o disco e o alimentador opera com um


clique audível que é REFORÇO CONDICIONADO para bicar o disco.
27.14 No experimento comum com o pombo, o clique do mecanismo alimentador foi
seguido só pelo alimento. 0 clique do alimentador NÃO É (e ou não e ?) um reforço
generalizado.

27.19 A frequência das respostas reforçadas por um reforço generalizado e


relativamente independente da natureza da privação momentânea. A frequência das
respostas reforçadas pelo dinheiro e em geral INDEPENDENTE de qualquer privação
específica.

27.24 Um esquema de razão variável, como o de uma máquina caça-níqueis, produz


uma frequência de respostas elevada e CONSTANTE. Isto é verdade mesmo quando o
nível de privação e relativamente pequeno.

27.29 A existência generalizada de bordeis na beira do cais para uma frequencia de


marinheiros e resultado da PRIVAÇÃO SEXUAL peculiar a vida no mar.

SÉRIE 28 - Parte VII. Privação - CICLOS ALIMENTARES

28.50 O fato de que os camundongos obesos comem 720 bocados em (1) MENOS.
tempo que os camundongos normais mostra-se pela maior (2) INCLINAÇÃO geral das
curvas para os camundongos obesos.

28.10 As mudanças rítmicas no comportamento de ingestão representadas pelos


registros C e E são chamadas CICLO alimentar.

28.15 Quando se usa um alimento como reforço em um experimento usual, o organismo


deve ser PRIVADO antes de cada sessão experimental.

28.20 Um rato preso numa pequena gaiola mas com acesso permanente a uma roda de
atividade alterna entre fases ativas e inativas com considerável regularidade. A
frequência revela uma atividade CICLÍCA.

28.25 Os camundongos que produziram os registros A e B comiam demais. Embora eles


não comam com uma frequência especialmente alta, eles NAÕ EXIBEM (exibem ou
não exibem?) ciclos de comer rápido e lento como os encontrados no camundongo
normal.

28.30 Os três camundongos obesos tem a mesma aparência e também não podem ser
distintos pelo peso. Se não tivéssemos dados do comportamento, poderíamos ter
concluído (erroneamente) haver aqui apenas ÚNICO tipo de obesidade.

28.1 0 camundongo emite (1) 25 respostas para cada bocado de alimento. Isto e um
esquema de reforço em (2) RAZÃO FIXA.

28.6 Os camundongos de peso normal (C e E) revelam mudanças cíclicas na frequência


do responder por (e do comer) alimento. Nos trechos marcados a e b (em C), a
frequência e ALTA e, durante um certo tempo, relativamente uniforme.
28.11 Em trechos do registro C, como em a e b, 0 camundongo normal obtém muitos
bocados em poucas horas. 0 camundongo fica (1) SACIADO de alimento, e isto explica
os trechos intervenientes da curva que tem uma (2) MENOR inclinação.

28.16 Um animal perde peso quando (1) PRIVADO de alimento. 0 peso resultante do
animal, expresso como uma percentagem de seu peso normal, e uma medida do seu
nível de (2) PRIVAÇÃO ALIMENTAR.

28.21 A frequência de emissão de respostas que produzem alimento em um organismo


que pode sempre obter alimento passa por CICLOS.

28.26 0 aspecto de “escadinha” do registro D representa CICLOS relativamente curtos


de comer e não comer.

28.31 Desde que os camundongos A e B possuem registros semelhantes, podemos dizer


que em termos dos dados de comportamento no painel so DOIS tipos de obesidade são
claramente discerníveis.

28.2 A escala vertical indica o número de bocados (bolinhas) obtidos pelo camundongo.
Se estivermos interessados no número de depressões da barra em um ponto qualquer da
curva, devemos multiplicar por 25.

28.7 O registro C cobre cinco dias e mostra 5 (quantos?) periodos de alta e constante
frequência.

28.12 À medida que o camundongo normal fica saciado com comida, responde com (1)
MENOS frequência e obtém (2) MENOR número de bocados. À medida que passa o
tempo, a privação de comida (3) AUMENTA .Então, repete-se o ciclo.

28.17 Nos experimentos com pombos, se usarmos reforço alimentar, as aves são
alimentadas em uma certa hora do dia e apenas o bastante para manter o peso constante
(por exemplo, a 80 por cento do normal). Desta maneira, conserva-se o nível de
privação aproximadamente CONSTANTE.

28.22 A classe de respostas anteriormente reforçadas com alimento mostra mudanças


periódicas de frequência que se parecem com as mudanças no nível de PRIVAÇÃO.

28.27 Frequências extremamente altas alternadas com pausas breves (1 ou 2 horas)


aparecem no registro (1) D que foi obtido de um camundongo (2) OBESO.

28.3 Os camundongos que demoravam mais tempo para obter 720 bolinhas de alimento
correspondem as curvas C e E.

28.8 Todos os dias os camundongos de peso normal tiveram (1) UM período(s) de


comer continuo e rápido seguido(s) por períodos esporádicos de (2) MENOS comer.

28.13 Concluímos que quando um organismo está sempre' em condições de obter


alimento, a sua frequência do comer passa por CICLOS.
28.18 A passagem do tempo, a contar do último período de sono (1) AUMENTA a
probabilidade de que o organismo venha a dormir. O sono, como a alimentação, passa
por (2) CICLOS.

28.23 Os registros A e C são diferentes. (1) C mostra ciclos em grande escala enquanto
(2) A mostra uma alta frequência, aproximadamente constante, de responder por
alimento.

28.28 Dos três camundongos obesos, os registros (1) A e B são parecidos. Um registro
de tipo diferente para um camundongo obeso aparece em (2) D.

28.4 Os dois camundongo os que demoraram mais tempo para obter 720 bolinhas
FORAM (foram ou não foram P) os de peso normal.

28.9 0 padrão que se repete no camundongo normal de frequências altas e baixas e


denominado ciclo alimentar. Cada CICLO ALIMENTAR dura 21 horas.

28.14 Se um experimentador não for cuidadoso ao controlar a privação, os resultados de


um experimento em condicionamento operante usando um reforçador alimentar
PODEM ser perturbados pelas mudanças cíclicas na frequência como as mostradas em
C.

28.19 Em muitas espécies a Feema exibe um ciclo menstrual que afeta o


comportamento sexual. A probabilidade do comportamento sexual e MAIOR em certas
fases e MENOR noutras fases do ciclo.

28.24 Os registros A e B atingem o nível de 720 bocados em muito (1) MENOS tempo
que os registros C e E embora as frequências em a e b sejam ligeiramente (2)
MAIORES que as encontradas nos registros A e B.

28.29 Dos três camundongos obesos (A,B e D), o registro obtido de (1) A e B mostra
um comer quase continuo, enquanto o registro obtido de (2) D mostra “refeições” muito
frequentes com pequenas pausas entre elas.

SÉRIE 29 - Revisão VERIFICACAO DAS PARTES V - VII

29.5 Independentemente do estado de privação específica presente no momento, um


reforço GENERALIZADO pode ser usado para condicionar uma nova resposta.

29.10 O operante chamado “abaixar a barra por comida” e (2) variável composto de
muitos estágios ou partes integrantes em uma CADEIA de estímulos e respostas.

29.15 As variações de magnitude da resposta acompanhavam de perto as variações na


intensidade do estimulo no caso do comportamento (1) RESPONDENTE , mas muito
menos no caso do comportamento (2) OPERANTE.
29.20 Suar excessivamente devido ao trabalho pesado ou a emoção tem um efeito
similar ao da (1) PRIVAÇÃO de ÁGUA sobre uma classe de respostas que foi (2)
CONDICIONADA pela agua.

29.25 Na discriminação operante falamos de uma contingência f de três termos. Os


eventos são dispostos na seguinte ordem: a) apresentar o (1) Sd , b) esperar pela (2)
RESPOSTA e c) (3) REFORÇAR.

29.1 0 provador profissional de vinhos pode fazer delicadas (1) DISCRIMINAÇÕES.


Mostra muito pouca (2) GENERALIZAÇÃO entre os vários vinhos.

29.6 Para a maioria dos estados de privação, existem alternativas de procedimento que
pertencem a uma mesma (1) CLASSE pois tem o mesmo efeito sobre toda uma (2)
CLASSE de respostas.

29.11 Uma elevada frequência de respostas NÃO É (e ou não é ?) por si só indicação


para se inferir um alto nível de privação sem o conhecimento de outros fatores tais
como o esquema de reforço.

29.16 Um organismo pode emitir a mesma resposta a dois estímulos bastante


semelhantes se um deles esteve presente durante o reforçamento. 0 termo para este
fenômeno e GENERALIZAÇÃO.

29.21 Reforçar intermitentemente birras temperamentais torna-as muito RESISTENTES


a extinção.

29.26 No laboratório, o peso de um animal expresso como uma porcentagem de seu


peso normal e usado como uma medida de sua história de PRIVAÇÃO de ALIMENTO.

29.2 Dirigir corretamente um automóvel exige que o organismo tenha um repertorio


CONTÍNUO.

29.7 Cada estimulo em uma cadeia tem a dupla função de (1) REFORÇAR a resposta
que o precede e ser um (2) Sd para a resposta que o sucede.

29.12 Respostas reforçadas pelos reforçadores generalizados da afeição, aprovação etc.,


em muitos casos extinguem-se muito LENTAMENTE por causa dos reforçamentos que
ocorrem (2) INTERMITENTEMENTE devido a sutileza dos estímulos.

29.17 Quando associado a vários reforçadores incondicionados apropriados a várias


privações, um reforço condicionado será eficaz sob vários tipos de (1) PRIVAÇÕES
Um reforço deste tipo se denomina reforço (2) GENERALIZANDO.

29.22
(1) A intervalo fixo
(2) D intervalo variável
(3) B razão fixa
(4) C razão variável
29.27 Habilidade em “copiar um desenho” continuará a ser modelada sem o auxílio de
outra pessoa uma vez que a “semelhança” tenha-se tornado um reforçador, pois
automaticamente provera o reforço DIFERENCIAL necessário a modelagem.

29.3 A acessibilidade do reforço depende da passagem do tempo em esquemas de (1)


INTERVALO e do número de respostas em esquemas de (2) RAZÃO.

29.8 Se uma forte luz branca estiver frequentemente presente quando a resposta for
reforçada, uma luz de intensidade media produzira uma frequência de respostas (1)
MENOR que a da luz forte e (2) MAIOR que a de uma luz bem fraquinha.

29.13 O comer, o beber, o dormir, o comportamento sexual, e a atividade geral mostram


mudanças CÍCLICAS quando as várias condições de privação não são manipuladas
experimentalmente.

29.18 Ao ensinar uma criança a copiar uma linha, não ficamos esperando por um
desenho perfeito. Nos (1) REFORÇAMOS os movimentos que produziram linhas
razoavelmente parecidas, mas (2) EXTINGUIMOS movimentos que produzem linhas
muito diferentes.

29.23 Quanto mais alimento o animal tiver acabado de comer, tanto MENOS
PROVÁVEL o seu comportamento de ingestão.
29.28 No estabelecimento de uma discriminação, uma resposta e REFORÇADA na
presença de um estimulo e EXTINTA na presença do outro estimulo.

29.4 A frequência com que um organismo normal come, se tiver sempre acesso ao
alimento, modifica-se em CICLOS.

29.9 Uma resposta que ocorra imediatamente depois de um reforço nunca e reforçada
em um esquema de intervalo (1) FIXO. Uma resposta, imediatamente após um reforço,
e algumas vezes reforçada em um esquema de intervalo (2) VÁRIAVEL.

29.14 Objetos em dois pontos adjacentes no espaço comumente controlam respostas de


alcançar de FORMAS apenas ligeiramente diversas.

29.19 Quando uma resposta está sob o controle de uma única propriedade de um
estimulo (que não pode existir sozinha) dizemos que houve ABSTRAÇÃO.

29.24 Ao desenhar uma cópia de um quadro, apenas aqueles movimentos que produzem
semelhança são reforçados; por isso o reforçamento e DIFERENCIAL.

SÉRIE 37 - Parte XI. Punição CONCEITOS BASICOS

37.5 O reforçamento pode ser positivo como em A ou negativo como em D. Em ambos


os casos AUMENTA a freqüência futura da resposta.

37.10 Na punição, uma (1) REPOSTA é seguida pela (2) REMOÇÃO de um reforçador
positivo ou (3) APRESENTAÇÃO de um reforçador negativo.
37.15 Remover um reforçador positivo depois de uma resposta é (1) PUNIÇÃO
Apresentar um reforçador positivo depois de uma resposta é (2) REFORÇAMENTO

37.20 Quando for contingente sobre uma resposta, uma mudança de SΔ para SD é (1)
REFORÇADORA e a mudança de SD para S Δ é (2) PUNITIVA

37.25 Quando o pressionar a barra desliga um choque, pressionar a barra é


REFORÇADO (tt) pela terminação do choque.

37 30 Os estímulos aversivos condicionados gerados pelo comportamento regularmente


punido resultarão em um estado de ansiedade no qual o comportamento positivamente
reforçado (1) DIMINUI de freqüência e o comportamento de esquiva (2) AUMENTA.

37.1 Ura pombo bica um disco e o alimentador automático funciona. Isto é um exemplo
de A no quadro. (use letra).

37.6 Bater numa criança por ter rabiscado a parede ê um exemplo de (1 C (use letra)
porque bater constitui a (2) APRESENTAÇÃO de um reforçador (3) NEGATIVO.

37.11 Um reforçamento se define como um evento que AUMENTA a freqüência da


resposta que o antecede.

37.16 A punição se define como o procedimento que é o OPOSTO do reforçamento.

37.21 Uma criança não tem licença de sair para brincar fora enquanto não arrumar o
quarto. “Dentro de casa” é um (1) SΔ para brincar e “fora de casa” um (2) SD. Arrumar
o quarto será, portanto, (3) REFORÇADO pela apresentação de SD e remoção de SΔ.

37.26 Quando o pressionar a barra liga um choque, pressionar a barra está sendo
PUNIDO

37.31 Uma criança alcança o fogo e toca a chama. O comportamento da criança foi
PUNIDO por uma contingência natural.

37.2 Um rato pressiona a barra e escapa do choque. Isto é um exemplo de D no quadro.


(use letra)

37.7 Um dos procedimentos que chamamos punição é APRESENTAR um reforçador


negativo imediatamente depois de um propósito.

37.12 Ao definir punição como B e C no quadro, não nos referimos a nenhum efeito
sobre o comportamento. A punição refere-se a procedimentos que são o inverso
daqueles que provaram ser REFORÇADORES. (tt)

37.17 Os efeitos da punição só podem ser descobertos pela realização de um


experimento. Diversamente do reforçamento, a punição NÃO FOI definida em termos
de um efeito determinado sobre o comportamento.

37.22 Uma criança não tem permissão para sair porque se portou mal. Se “sair” fôr um
reforçador positivo, isto é, um exemplo de PUNIÇÃO
37.27 Sem considerar a eficácia da punição, um estímulo aversivo empregado como
castigo irá eliciar os reflexos (suar, palpitação, etc.) que constituem o SÍNDROME de
ATIVAÇÃO que ocorre em muitos estados emocionais.

37.32 Um passageiro do “Andrea Doria” ligava um interruptor de luz no momento em


que o navio colidia com o “Estocolmo’'. A resposta foi (I) PUNIDA Esta foi uma
contingência ACIDENT.-al

37.3 O reforçamento pode ser positivo como quando um reforçador positivo é (1)
APRESENTADO ou negativo quando um reforçador negativo é (2) REMOVIDO
(atenção, consulte o painel)

37.8 Deixar a criança sem jantar por ter rabiscado a parede é um exemplo de (1) B (use
letra) pois o alimento é um reforçador (2) POSITIVO

37.13 A punição é a remoção de um reforçador (1) POSITIVO ou a apresentação de um


reforçador (2) NEGATIVO. depois de uma resposta

37.18 Uma resposta pode ser acompanhada de uma mudança de SΔ para SD. A
terminação de SΔ pode ser classificada como (1) D (use letra) e a apresentação de um
SD pode ser classificada como (2) A (use letra). Ambos os casos são (3)
REFORÇAMENTOS

37.23 Um estímulo aversivo tal como o choque elicia um estado EMOCIONAL

37.28 Estímulos que acompanham ou antecedem uma resposta punida tornam-se


ESTÍMULOS AVERSIVOS CONDICIONADOS ao serem associados com o castigo.

37.4 O reforçamento, seja ele a apresentação de um reforçador positivo ou a remoção de


um reforçador negativo, AUMENTA a freqüência da resposta que o precede.

37.9 Um dos procedimentos que chamamos punição é REMOVER um reforçador


positivo imediatamente depois da resposta.

37.14 A remoção de um estímulo aversivo é (1) REFORÇAMENTO A apresentação de


um estímulo aversivo é (2) PUNIÇÃO.

37.19 Uma resposta pode ser acompanhada de uma mudança de SD para SΔ, A
terminação de SD pode ser classificada como (1) B (use letra) e a apresentação de SΔ
pode ser classificada como (2) C (use letra). Ambos os casos são de (3) PUNIÇÃO.

37.24 Se um estado emocional eliciado pela punição for incompatível com o


comportamento operante punido, a freqüência do operante incompatível será
DIMINUÍDA enquanto durar o estado emocional.

37.29 Quando uma cigarra soa por períodos de 3 minutos e é consistentemente seguida
de choque, (1) AUMENTA a freqüência do comportamento com uma história de
esquiva e (2) DIMINUI a freqüência do comportamento reforçado com alimento.
SÉRIE 38 - Parte XI. Punição EFEITOS DA PUNICAO DURANTE A
EXTINCAO DE COMPORTAMENTOS REFORCADOS

38.5 Experimento 1. Enquanto os dados da figura estavam sendo coligidos, as respostas


não foram (1) REFORÇADAS Durante os primeiros 10 minutos cada resposta de um
dos grupos foi (2) PUNIDAS (tt)

38.10 Experimento 1. Durante o segundo dia de extinção, o grupo que tinha sido punido
mostrou um ligeiro ACRÉSCIMO geral da freqüência como se revela pela inclinação
das curvas.

38.15 Experimento 1. Durante a punição, os estímulos providos pela câmara


experimental, o comportamento do rato, a barra, etc., são associados a um estímulo
aversivo. Assim, tornam-se estímulos aversivos (1) CONDICIONADOS e produzem
um estado de (2) ANSIEDADE.

38.20 Experimento 2. Quando a barra foi retirada em (I), outras respostas já não podiam
ser emitidas, e por isso a extinção NÃO PODIA ser completada.

38.25 Experimento 2. Só a barra estava ausente durante o período de 2 horas. Os


estímulos aversivos condicionados das outras partes da câmara (1) TIVERAM uma
oportunidade de ser extintos enquanto que os da barra (2) NÃO TIVERAM
oportunidade de serem extintor

38.30 Deixar a câmara teria diminuído a freqüência de pressionar a barra porque teria
sido incompatível com o pressionar a barra. Também apenas virar de costas para a barra
é reforçado como comportamento de esquiva e é também INCOMPATÍVEL
compressionar a barra.

38.1 Experimento 1. Em (A), o pressionar a barra foi mantido em um esquema de (1)


REFORÇO em intervalo fixo. A apresentação do alimento em seguida à resposta é
definida como reforçamento (2) POSITIVO.

38.6 Experimento 1. Enquanto respostas estavam sendo punidas, a freqüência das


respostas foi MENOR para os ratos punidos do que para os ratos não punidos.

38.11 Experimento 1. Lá pelo fim do segundo dia de extinção, os dois grupos emitiram
aproximadamente O MESMO número total de respostas.

38.16 Experimento 1. Quando a punição é interrompida, esperamos que a freqüência


permaneça baixa até que os estímulos providos pela situação cessem de ser estímulos
aversivos condicionados através da EXTINÇÃO.

38.21 Experimento 2. Durante 2 horas, na ausência da barra, as patas não foram est
apeadas. Isto significa que os estímulos aversivos condicionados na câmara não estavam
sendo associados ao estímulo AVERSIVO INCONDICIONADO o tapa.
38.26 Experimento 2. Os estímulos aversivos condicionados da barra (e do
comportamento de pressioná-la) que não poderiam ter-se (1) EXTINTO sob a condição
(I), provavelmente causaram a ligeira (2) DIMINUIÇÃO na freqüência descrita em (K).
38.2 Experimento 1. Em (B), o reforçamento alimentar foi interrompido; a resultante
modificação no comportamento é denominada EXTINÇÃO

38.7 Experimento 1. Durante a primeira hora de extinção, a inclinação geral do registro


para o grupo PUNIDO foi menor do que para o outro grupo.

38.12 Experimento 1. Conclusão: No caso de um breve período de punição leve, a


freqüência de respostas é (1) MENOR durante e logo depois da punição, mas o (2)
NÚMERO de respostas emitidas até que a extinção se complete não se modifica.

38.17 (Leia o experimento 2 agora e consulte-o quando necessário). De (G) a (H)


sabemos que os novos ratos foram (1) PUNIDOS (tt) por cada resposta durante os
primeiros 10 minutos de (2) EXTINÇÃO tt) da resposta.

38.22 Experimento 2. Durante (H), os vários estímulos providos pela câmara adquiriram
propriedades aversivas. Nas duas horas sem a barra, o estímulo aversivo incondicionado
estava ausente e os estímulos da gaiola podiam perder suas propriedades AVERSIVAS.

38.27 Experimento 2. Os dados descritos em (L) demonstram que embora um operante


possa ser eliminado por (1) EXTINÇÃO não é eliminado por um breve período de (2)
PUNIÇÃO leve.

38.3 Experimento 1. Durante os primeiros 10 minutos de extinção, como descrito em


(C), um grupo de quatro ratos foi PUNIDO (tt) por cada resposta de pressionar a barra.

38.8 Experimento 1. Durante a segunda hora, o registro para o grupo punido mostrou
uma inclinação algo MAIOR do que o registro do grupo não punido.

38.13 Outras coisas permanecendo iguais, o comportamento NÃO PODE SER


permanentemente eliminado pela punição se a punição for descontinuada no futuro
imediato.

38.18 Durante os primeiros 10 minutos de extinção no Experimento 2 (descrito em H),


o procedimento foi o mesmo que para o grupo PUNIDO no Experimento 1.

38.23 Experimento 2. Durante as 2 horas descritas em (I), o estado de ansiedade deveria


ter-se EXTINTO.

38.28 Na ansiedade, o comportamento reforçado com alimento (1) DIMINUI.e o


comportamento de esquiva (2) AUMENTA Assim, as diminuições temporárias nos
Experimentos 1 e 2 parecem ser exemplos do tipo de modificação que chamamos (3)
ANSIEDADE.

38.4 Experimento 1. Um segundo grupo, descrito em (E) (I) NÃO FOI punido. A curva
de extinção obtida com este grupo prevê um controle na determinação dos efeitos da (2)
PUNIÇÃO.
38.9 Experimento 1. A punição resulta em uma freqüência (1) MENOR enquanto a
contingência primitiva está em vigor, e a freqüência continua a ser (2) BAIXA. durante
algum tempo depois de a punição ter cessado.

38.14 Experimento 1. Tapas nas patas dianteiras são estímulos aversivos que eliciam
muitos respondentes do (1) SÍNDROME de EXTINÇÃO. Se estes respondentes (2)
NÃO FOREM compatíveis com pressionar a barra, a diminuição da freqüência durante
a punição fica, pelo menos em parte, explicada.

38.19 Experimento 2. Durante (H), vários estímulos na situação experimental foram (1)
ASSOCIADOS .com um estímulo aversivo, um tapa nas patas. Os estímulos tornaram-
se estímulos (2) AVERSIVOS CONDICIONADOS como no Experimento 1.

38.24 Experimento 2. Durante as 2 horas descritas em (I), o pressionar a barra não


poderia ter-se extinto porque a barra estava AUSENTE.

38.29 Se tivesse havido na câmara experimental uma porta, um rato punido teria sido
reforçado por sair através da porta, pois esta resposta teria REMOVIDO. os estímulos
aversivos condicionados gerados pela câmara.

SÉRIE 39 - Parte XI. Punição OUTROS EFEITOS DA PUNICAO. FUNCOES DO


ESTIMULO AVERSIVO

39.5 A frequência do comportamento positivamente reforçado é diminuída por um


estímulo aversivo seja ele contingente ou não sobre a resposta. Na punição, um estímulo
aversivo é (1) CONTINGENTE (DEPENDENTE) sobre a resposta, mas o efeito
emocional é o mesmo que com (2) ESTÍMULO AVERSIVO não contingente.

39.10 Para diminuir temporariamente a frequência de um acesso de risos impróprios


NÃO É necessário que um beliscão acompanhe imediatamente um risinho (que seja
contingente à resposta).

39.15 Uma situação em que algumas respostas tenham sido punidas freqüentemente ou
severamente provê estímulos AVERSIVOS CONDICIONADOS

39.20 Se a punição é repetidamente evitada pela execução do comportamento


incompatível, o reforçador aversivo condicionado sofre EXTINÇÃO e o
comportamento incompatível não é mais reforçado.

39.25 Uma pessoa pode ser incapaz de falar acerca de uma experiência altamente
aversiva. Diz-se algumas vezes que a experiência foi “forçada no inconsciente” por um
processo chamado ‘’repressão” . Podemos interpretar a repressão como o deslocamento
do comportamento punido pelo comportamento. INCOMPATÍVEL (DE ESQUIVA)

39.30 Quando ridicularizamos alguém por fazer alguma coisa que reputamos
indesejável, nosso comportamento é (1) REFORÇADO por uma imediata (2)
DIMINUIÇÃO, (REDUÇÃO) na frequência do comportamento indesejável.
39.1 Uma punição leve e não continuada não (1) ELIMINA permanentemente um
operante. A freqüência de respostas
(2 ). DIMINUI temporariamente por causa da punição, e os estímulos aversivos
condicionados resultantes geram (3) ANSIEDADE

39.6 Para que um estímulo aversivo abaixe a freqüência de uma resposta positivamente
reforçada, NÃO É necessário que o estímulo seja contingente à resposta.

39.11 Quando uma resposta for seguida imediatamente por um estímulo aversivo, se diz
que a resposta foi (1) PUNIDA Estímulos que acompanham a punição tornam- se (2)
ESTÍMULOS AVERSIVOS CONDICIONADOS

39.16 Ao sair de uma situação em que a punição é comum, um homem pode prevenir a
ocorrência do comportamento punido e dos estímulos aversivos resultantes. Isto é um
caso de esquiva. Este comportamento é INCOMPATÍVEL com o comportamento
punido.

39.21 Embora deslocada por uma resposta de esquiva a resposta punida não está extinta.
Quando o comportamento incompatível fôr extinto, a resposta será PUNIDA emitida
outra vez.

39.26 Quando uma resposta previne a ocorrência do comportamento punido, o clínico


pode dizer que o comportamento punido foi “reprimido”. A repressão pode ser
interpretada como comportamento de esquiva que INCOMPATÍVEL COM o
comportamento punido.

39.31 Desde que o comportamento de punir os outros seja (1) REFORÇADO. pelos
seus rápidos efeitos, será freqüentemente repetido embora seus efeitos (2) POSSAM
NÃO SER (NÃO SEJAM) permanentes.

39.2 Um choque recebido pelo rato nos pés é um (1) ESTÍMULO AVERSIVO
INCONDICIONADO que eliciará reflexos característicos do (2) SÍNDROME (DE)
ATIVAÇÃO

39.7 A criança que leva um beliscão porque está rindo durante uma cerimônia pára de
rir imediatamente. Beliscar é ESTÍMULO AVERSIVO ; as respostas a ele são
incompatíveis com o riso.

39.12 A resposta que põe término a um estímulo aversivo é REFORÇADA

39.17 Qualquer comportamento que “desloque” a resposta freqüentemente punida


previne o aparecimento dos estímulos aversivos incondicionados. A resposta que
substitui a resposta normalmente punida é um exemplo de comportamento de
ESQUIVA

39.22 A punição diminui indiretamente a frequência da resposta


punida ao prover as condições para o REFORÇAMENTO ( CONDICIONAMENTO)
do comportamento de esquiva incompatível. Incompatível

39.27 Uma pessoa “não pode se lembrar” de uma experiência infantil altamente
aversiva. O clínico chama isto de REPRESSÃO É, provavelmente, em parte, o efeito de
outras respostas que são (2 INCOMPATÍVEL COM “pensar a respeito” da experiência
aversiva.

39.3 Dá-se um choque num rato que recebeu alimento por pressionar a barra. Mesmo
que o choque não seja contingente à resposta, a frequência imediatamente (1) DIMINUI
porque as condições emocionais resultantes são (2) INCOMPATÍVEIS COM *
pressionar a barra.

39.8 Os pais que beliscam a criança por estar rindo são (1) REFORÇADOS pela
terminação do riso. Aumenta a (2) PROBABILIDADE de que os pais usem no futuro
punição em situação similar.

39.13 Logo que os primeiros componentes de uma cadeia de respostas freqüentemente


punida são emitidos, geram estímulos (1) AVERSIVOS CONDICIONADOS Qualquer
comportamento de “fazer outra coisa qualquer” será reforçado pela (2). desses
estímulos. EMOÇÃO (ELIMINAÇÃO, REDUÇÃO)

39.18 Ao permanecer ativamente imóvel, pode-se. (EVITAR) ESQUIVAR de fazer um


movimento que se pareça com um que tenha sido punido.

39.23 Quando a punição for descontinuada, o comportamento de esquiva resultante da


punição anterior sofre (1) EXTINÇÃO O comportamento antes punido pode então (2)
SER EMITIDO (OCORRER, APARECER)

39.28 Uma pessoa pode “falar acerca de outras coisas” (ou apenas falar) e por isso (1)
EVITA (ESQUIVA) de falar acerca de situações aversivas. Não é necessário referir-se a
isto como um processo de (2) REPRESSÃO que força respostas
para fora da “consciência”.

39.4 Quer o choque seja aplicado como consequência de uma resposta, quer
independentemente de qualquer resposta, é eficaz na (1) DIMINUIÇÃO (REDUÇÃO)
temporária da freqüência do comportamento mantido com reforço alimentar. Em
qualquer dos casos, o choque produz um estado EMOCIONAL

39.9 A criança que levou o beliscão pode deixar de rir por certo tempo. Mesmo que o
beliscão não tenha acompanhado de perto o riso, o efeito te rá sido O MESMO
(IGUAL)

39.14 Situações em que as respostas tenham sido punidas geram estímulos aversivos
condicionados. Comportamentos que terminam estes estímulos são REFORÇADOS

39.19 A punição eventualmente leva ao reforçamento do “fazer outra coisa qualquer”.


Porque “fazer outra coisa qualquer ” previne a ocorrência de estímulos condicionados
aversivos, é um exemplo de comportamento de ESQUIVA
39.24 Quando se extingue o comportamento incompatível, a resposta punida emerge
com toda sua força. A resposta punida não foi emitida enquanto havia competição com
o comportamento incompatível, e por isso NÃO ocorreu extinção deste comportamento.

39.29 Uma pessoa descrita como “acanhada”, “tímida” ou inibida” está freqüentemente
ativa “não emitindo comportamento” e com isso esquivando-se d a execução de
comportamentos que foram PUNIDOS no passado.

SÉRIE 40 - Parte XI. Punição EFEITOS DA PUNICAO CONTINUA.

40.7 Experimento 1. Em (E), um breve e leve choque acompanhava CADA resposta.

40.14 Figura 1. Durante os primeiros 4 minutos do décimo dia, a freqüência das


respostas mostra ACELERAÇÃO positiva.

40.21 Experimento 2. Lá pelo quinto dia de punição mais forte, a freqüência geral de
respostas é MAIOR que no primeiro dia.

40. 28 Quando se usou um choque maior do que no Experimento 2, a freqüência estável


eventualmente alcançada era inferior à do trigésimo segundo dia no Experimento 2.
Quanto MAIOR a punição, tanto menor a freqüência estável de respostas.

40.35 Figura 3. Como descrito em'(K), entre os pontos indicados pelas flechas.
NENHUMA resposta foi punida.

40.1 (A) descreve o esquema usado através dos três experimentos. Quando não
complicado por outras variáveis. este esquema gera uma freqüência CONSTANTE e
moderada de respostas.

40.8 Experimento 1. Enquanto a punição estava em efeito, todas as respostas foram


seguidas de choque. As respostas também ainda estavam sendo REFORÇADAS em um
esquema de intervalo variável.

40.15 Experimento 1. Lá pelo décimo dia de punição, depois de muitos milhares de


respostas terem recebido uma leve punição, a freqüência geral do responder NÃO
ESTAVA apreciavelmente
diminuída.

40.22 Experimento 2. A maior freqüência geral durante a punição, que aparece na


Figura 2, ocorreu no 32° dia de punição.

40.29 (Leia agora o experimento 3). Bicar o disco foi (1) REFORÇADO em um
esquema de intervalo variável. Exceto pelo período de 10 minutos descrito em (K), cada
resposta foi (2) PUNIDA

40.36 Figura 3. A freqüência de respostas durante os 10 minutos sem punição foi


substancialmente maior do que durante as partes da sessão em que as respostas foram
PUNIDAS
40.2 Como indicado em (B), o esquema de intervalo variável 1 minuto esteve em efeito
durante TODAS AS sessões dos experimentos 1, 2 e 3.

40.9 Figura 1. Durante a primeira meia hora do primeiro dia de punição, a freqüência de
respostas foi consideravelmente (1) MENOR do que no dia anterior quando as respostas
(2) NÃO ESTAVAM sendo punidas.

40.16 (Leia agora o experimento 2.) Em (G), quando a punição foi descontinuada, a
freqüência de respostas AUMENTOU por algum tempo.

40.23 Figura 2. Nos dias 22, 27 e 32 houve muitas irregularidades na freqüência de


respostas, mas as frequências gerais NÃO FORAM muito diferentes.

40.30 Figura 3. Durante os primeiros 15 minutos da sessão, a freqüência de respostas


mostrou uma mudança gradual encontrada na maioria das sessões com esta combinação
de reforço alimentar em intervalo variável e punição contínua (por exemplo, Figuras 1 e
2). Mais especificamente, a freqüência mostrou uma ACELERAÇÃO POSITIVA

40.37 Figura 3. A freqüência de respostas entre as flechas é muito maior que a que este
esquema normalmente gera. Quando a punição contínua é interrompida, a freqüência de
respostas é, por algum tempo, MAIOR do que seria se não tivesse havido punição.

40.3 Os estímulos eliciam muitos respondentes do (1) SÍNDROME de ATIVAÇÃO Um


destes suar, (2) DIMINUI a resistência elétrica da pele.
40.10 Figura 1. Durante o primeiro dia de punição, a inclinação do registro
AUMENTOU-SE gradualmente à medida que a sessão progredia.

40.17 Em (G), o aumento da freqüência de respostas foi (1) MAIOR do que quando a
punição estava em efeito e também (2) MAIOR do que tinha sido na sessão que
precedeu a introdução da punição.

40.24 Figura 2. Quando cada resposta era punida por um choque de intensidade
moderada, a freqüência de respostas depois das sessões diárias de uma hora é
substancialmente MENOR do que era sem punição.

40.31 Figura 3. Durante o segundo período de 15 minutos da sessão, a freqüência de


respostas tornou-se relativamente ESTÁVEL

40.38 A freqüência de respostas mantida por reforço positivo pode (1) NÃO SER
diminuída por uma leve punição contínua, mas (2) SERÁ diminuída por uma punição
forte e contínua enquanto a punição estiver em efeito.

40.4 Colocando elétrodos debaixo da pele, em (C), um choque de intensidade constante


pode ser aplicado porque as variações na resistência da pele NÃO IRÃO influenciar a
voltagem que chega aos receptores da dor.

40.11 Figura 1. Embora cada resposta seja (1) PUNIDA durante o procedimento da
punição, lá pelo fim do primeiro dia a freqüência de respostas é aproximadamente (2) A
MESMA que a freqüência durante o procedimento “sem punição”.
40.18 Em (H), as respostas continuavam a ser reforçadas em um esquema (1) DE
INTERVALO VARIÁVEL sem punição até que o experimentador estivesse certo de
que a freqüência ficou (2) ESTÁVEL no valor que prevalecia antes da introdução do
choque.

40.25 O Experimento 2 indica que se a punição for suficientemente intensa irá


DIMINUIR a freqüência da resposta mantida em um esquema de intervalo variável de
reforço.

40.32 Experimento 3. Como descrito em (K), a punição foi (1) INTERROMPIDA no


ponto indicado pela primeira (2) FLECHA na Figura 3.

40.39 Na punição contínua de uma resposta mantida por reforço positivo, quanto maior
severidade da punição (depois que um mínimo de intensidade for ultrapassado), tanto
MENOR a freqüência de respostas.

40.5 0 esquema de intervalo variável, em (A), fornece uma linha base sobre a qual
podem ser observados os efeitos da punição adicionada. 0 experimentador mantém esta
linha base bastante tempo antes de introduzir o choque para ter certeza de que a
freqüência NÃO ESTÁ mudando

40.12 Experimento 1. A décima sessão de punição foi precedida de nove sessões de uma
hora, durante as quais cada resposta foi PUNIDA

40.19 No Experimento 2, o mesmo procedimento que no Experimento 1 foi seguido,


exceto a intensidade do choque que foi MAIOR no Experimento 2.
40.26 Experimento 2. Quando um choque suficientemente intendo acompanha £ada resposta, a freqüência
das respostas permanece MENOR do que era na ausência da contingência punitiva.

40.33 Figura 3. Muitos poucos segundos depois da interrupção da punição, a freqüência de respostas
AUMENTOU acentuadamente.

40.40 Imediatamente depois que a punição contínua fôr interrompida, a freqüência (1) AUMENTA e é,
durante algum tempo, (2) MAIOR do que a normalmente gerada pelo esquema de reforço.

40.6 Na Figura 1, o registro para o controle ou procedimento “sem punição” apresenta muitas ligeiras
variações na inclinação que indicam variações momentâneas na (1) FREQUÊNCIA de RESPOSTA Tais
variações (2) SÃO comuns no reforçamento em intervalo variável.
40.13 Figura 1. Exceto para os primeiros 4 minutos, a inclinação. da curva na décima sessão de uma hora
de (1) PUNIÇÃO contínua é aproximadamente (2) A MESMA que a inclinação para a última sessão “sem
punição”

40.20 Experimento 2. No primeiro dia de punição mais forte, a freqüência de respostas é


aproximadamente ZERO

40.27 Quando se usa um choque ainda mais intenso, se requer mais tempo para estabilizar a freqüência.
Quanto mais intensa for a punição, tanto mais DEMORADA será a elevação da freqüência a um nível
estável.

40.34 Figura 3. Cada resposta passou a ser punida outra vez, começando da (1) SEGUNDA flecha. A
freqüência de respostas (2) DIMINUIU imediatamente.

FIM DA SÉRIE

Você também pode gostar