Você está na página 1de 12

1.

BEHAVIORISMO RADICAL

A filosofia que fundamenta a análise do comportamento é o behaviorismo. O behaviorismo é uma teoria


psicológica que estuda a psicologia por meio da observação do comportamento, com embasamento em
metodologia objetiva e científica, fundamentada na comprovação experimental. O behaviorismo evita
explicações que se valham de conceitos subjetivos e teóricos da mente, como sensações, percepções,
emoções e sentimentos. Isso não significa dizer que o behaviorismo não trate de sonhos, de emoções etc.

Behaviorismo clássico (metodológico) vs radical: O behaviorista metodológico não nega a existência da


mente, mas nega-lhe status científico ao afirmar que não podemos estudá-la pela sua inacessibilidade.
O behaviorista radical nega a existência da mente e assemelhados, mas aceita estudar eventos internos.

Os estudos do behaviorismo metodológico iniciaram-se no séc. XIX, a partir de um trabalho do psicólogo


John B. Watson. Esse trabalho teve como referências as teorias dos filósofos russos Vladimir Mikhailovich
Bechterev e Ivan Petrovich Pavlov. Baseado nesses pesquisadores, Watson conseguiu desenvolver uma
compreensão sobre o comportamento respondente.

Watson e Pavlov: O condicionamento clássico (ou condicionamento pavloviano respondente) é um


processo que descreve a gênese e a modificação de alguns comportamentos com base nos efeitos do
binômio estímulo-resposta sobre o sistema nervoso central dos seres vivos. 

Reflexo condicionado: concatenado, resposta condicionada ou comportamento


respondente corresponde ao que Lev Vygotsky (1896 - 1934), em sua definição de reflexologia definiu
como a transformação das reações de resposta do organismo (reflexos incondicionados) a estímulos externos
em situação experimental segundo os postulados de Vladimir Bekhterev.

O behaviorismo radical (radical diz respeito à raiz, e não à qualidade do que é extremo) traz uma filosofia
que sustenta a análise do comportamento.

Nessa concepção, entende-se que os comportamentos observáveis são manifestações externas de processos
mentais invisíveis. O autocontrole, o pensamento, os sonhos são passíveis de observação, por exemplo.
Difere-se do behaviorismo tradicional, que priorizava os aspectos fisiológicos.

Retoma-se a ideia de que as emoções não dão origem à nossa conduta, porque também fazem parte do modo
de agir. Ou seja, o comportamento não é uma consequência do livre arbítrio, mas sim uma das
consequências dos seus atos, sejam positivos ou negativos.
A unidade mínima de ação que Skinner encontrou foi o contexto. Isto é, não basta olhar para o sujeito; é
preciso entender a consequência do que o sujeito faz.

Skinner, assim, nos chama a atenção para o seguinte: a fim de entender o desenvolvimento humano, não
basta olhar para o sujeito, sob o aspecto pessoal de desenvolvimento; é necessário ter em mente que, ao
aprender, esse sujeito o faz por meio de relações sociais, de relações com o meio no qual está inserido, e
que tais relações geram consequências que se retroalimentam com o que o sujeito faz.

Determinismo – A análise do comportamento parte de uma concepção determinista, em que as pessoas não
são livres, mas são controladas por forças ambientais. O determinismo confronta o livre arbítrio, e não a
livre gerência, que diz respeito ao ato de escolher tomar ou não uma xícara de café, por exemplo. Para
Skinner, autocontrole é resultado do contato e da aprendizagem que o sujeito constrói com seu meio.

Comportamento – Entende-se que comportamento é o resultado de variáveis ambientais e genéticas.


Observe que Skinner NÃO nega os aspectos filogenéticos. Ele pactua com essas ideias, entendendo que o
ser humano tem predisposição de espécie de aspectos genéticos que precisam ser levados em consideração.
Isso tem a ver com a gênese desse comportamento. No entanto, Skinner acrescenta a existência de variáveis
ambientais que precisam ser estudadas e observadas. Para ele, a principal forma de estudar e de observar a
existência dessas variáveis ambientais é por meio do princípio do reforçamento. A complexidade desses
comportamentos está sempre vinculada ao contexto, o que será apreendido por meio dos princípios de
reforçamento.

Causalidade – Segundo Skinner, causalidade é entender que o comportamento é o resultado dos seguintes
elementos: história de reforçamento, genética e evolução da cultura. Note que Skinner considera os
aspectos filogenéticos, culturais e ontogenéticos, além de considerar a história de reforçamento.

Condicionamento – Está ligado à ideia de compreensão da modelagem do comportamento. O


condicionamento pode ser clássico/respondente ou operante.

Condicionamento clássico/respondente – Seu foco se dá nos estímulos neutros antes de um reflexo. É o


caso dos cães que salivavam (reflexo) ao ouvir o sino (estímulo neutro), no experimento de Pavlov. Tenha
em mente que condicionamento respondente gera comportamento involuntário e automático – é o caso do
salivar dos cães ao ouvir o sino; não se trata de uma ação deliberada dos cães.

Condicionamento operante – Seu foco se dá nas consequências dos comportamentos (reforço/punição). A


ideia, aqui, é a de que o que nos mantém engajados em determinada aprendizagem é a consequência da
aprendizagem, seja a consequência positiva ou negativa. Isto é, a concentração está no fortalecimento ou no
enfraquecimento da probabilidade de comportamentos voluntários ocorrerem no futuro.

Estímulo – É um evento anterior que muda o ambiente. Trata-se de um evento no mundo.

Análise funcional – Tem sido mencionada como o tipo de recurso explicativo de que se serve a análise do
comportamento, conforme dispõe Skinner (1953/1965), e também como estratégia, segundo Owens &
Ashcroft (1982), ou método de intervenção em terapias comportamentais, de acordo com Hayes & Follette
(1992) e com Samson & McDonnell (1990).

Contingências – São entendidas como instrumento de estudo das interações. Assim, contingências são
regras que especificam relações entre eventos ambientais ou entre comportamentos e eventos ambientais.
Elas são utilizadas na procura por relações funcionais. Uma contingência é uma unidade mínima de análise,
a relação de dependência entre os eventos. Podemos disser, então, que o termo contingência de reforço é
corretamente empregado se for possível identificar os componentes de uma relação se. então. entre
eventos envolvidos em interações organismo-ambiente; e se for possível especificar as probabilidades
condicionais da ocorrência de um evento na presença e na ausência do outro.
Uma formulação adequada das interações entre um organismo com o seu meio ambiente deve especificar
três coisas:(l) a ocasião na qual a resposta ocorre: (2) a própria resposta: e (3) as consequências
reforçadoras..

Correr, lutar, dançar, falar e tantos outros exemplos de ações que possam ter dois ou mais observadores, são
chamados comportamentos abertos, porque são públicos. Pensamentos, sentimentos e emoções são
chamados comportamentos encobertos, porque são privados, ocorrem sob a pele.

As consequências são fundamentais para a compreensão do comportamento humano. Por isso, Skinner traz
os seguintes conceitos: o de reforço positivo, o de reforço negativo e o de punição.

Falar em consequência é falar em reforço ou punição. Quando se fala em reforço, fala-se necessariamente
no aumento de determinado comportamento.

Ao reforçar algo, deseja-se que determinado comportamento ocorra no futuro. Isto é, reforço impacta
diretamente no aumento da frequência do comportamento. Por sua vez, a punição objetiva diminuir um
comportamento.

O reforço positivo objetiva aumentar determinado comportamento ao adicionar um estímulo desejável. De


outro lado, o reforço negativo objetiva aumentar determinado comportamento ao retirar um estímulo
indesejável.
Conceitos de fuga e de esquiva. A fuga se dá quando se abandona uma tarefa tida como desagradável, o que
resulta em uma satisfação (reforço negativo). A esquiva se dá quando se evita situações tidas como
desagradáveis.

À semelhança dos reforços, punição pode ser positiva ou negativa. A lógica de adição e de remoção de
estímulos indesejáveis observada acima é também aplicada para a punição.

Para Skinner (1974, p. 60), "se uma criança não se comporta mais como se comportava no ano anterior, não
é só porque cresceu, mas também porque teve tempo de adquirir um repertório bem mais amplo, à mercê
da exposição a novas contingências de reforço e, particularmente, porque as contingências que afetam as
crianças em diferentes idades são diversas. O mundo infantil se ‘desenvolve’ também". Nessa perspectiva,
essas mudanças e interações constroem uma história de aprendizagem, indicando que o desenvolvimento
humano se dá em função de uma situação atual e da história (BIJOU; BAER, 1975).

A teoria comportamental do desenvolvimento implica analisar os seguintes eixos: 1. o comportamento da


criança como uma entidade psicológica; 2. o meio em que ela se desenvolve; 3. a interação contínua e
recíproca entre o comportamento da criança e seu ambiente; 4. os estágios dessas interações contínuas e
recíprocas (INGBERMAN; HAUER, 2006). Os aspectos biológicos são considerados básicos para que os
demais ocorram. Esse comportamento é o resultado da filogênese, da ontogênese e do ambiente cultural.
Mais uma vez, observe que Skinner não nega o aspecto biológico.
Outra contribuição de Skinner é a noção de planejamento do ambiente: a escola precisa ter intenção. Para
Skinner, somente assim o comportamento poderá ser modelado, com um maior controle, e poderão ser
entregues reforçadores positivos imediatos.

Para Skinner, a punição não deve ser usada como estratégia de diminuição de comportamento quando o
objetivo é modelar novo comportamento. Em seu lugar, deve-se criar motivação mediante reforçamento. Isto
é, deve-se reforçar o comportamento que se deseja que ocorra no futuro. Ao reforçar o comportamento, os
sujeitos são engajados na educação. A longo prazo, criar motivação traz resultados muito mais satisfatórios e
notáveis do as práticas de punição.

Comportamento = resposta do organismo a um estímulo externo (meio ambiente). Estímulo = toda


alteração do ambiente captada pelos órgãos receptores (dos sentidos). Resposta = alterações que ocorrem no
organismo em função de estímulos externos.

Esquemas de reforçamento

1. Dados de transição – são aqueles observados quando o comportamento do organismo acabou de ser
submetido a um novo esquema de reforçamento. Nesse caso, o padrão comportamental terá características
da contingência anterior e da nova contingência. Dizemos, portanto, que o seu comportamento ainda não
está adaptado ao novo esquema de reforçamento, mantendo características do padrão comportamental do
esquema anterior. Os dados de transição são úteis para estudar os efeitos de história de reforçamento.

2. Dados em estado estável – são aqueles observados quando há pouca diferença entre os padrões
comportamentais das sessões experimentais nas quais o mesmo esquema é utilizado. Para se obter dados em
estado estável é necessário que o comportamento do organismo seja submetido a várias sessões com o
mesmo esquema de reforçamento. Os padrões comportamentais apresentados a seguir são observados em
estado estável.

O conceito de esquema de reforçamento diz respeito, justamente, a quais critérios uma resposta ou
conjunto de respostas deve atingir para que ocorra o reforçamento. Em outras palavras, descreve como
se dá a contingência de reforço, ou seja, a quais condições as respostas devem obedecer para que o estímulo
reforçador seja liberado. Existem dois tipos principais de esquemas de reforçamento: contínuo e
intermitente.

Exemplos de reforçamento contínuo (CRF) são comuns, como no caso de quem compra um carro novo
com bateria nova e tanque cheio: toda vez que se gira a chave, o motor começa a funcionar. É o caso
também daquele namorado amoroso que aceita todos os convites de sua namorada. Nesses exemplos,
dizemos que as respostas (girar a chave e convidar para sair) sempre são seguidas de seus reforçadores, ou
seja, são continuamente reforçadas.

Já no esquema de reforçamento intermitente, que será visto em detalhes mais adiante, algumas respostas são
reforçadas e outras não.

No dia a dia nem todos os comportamentos que emitimos são reforçados. Falamos, nesses casos, de
esquemas de reforçamento intermitente. A característica definidora desses esquemas é o fato de que nem
todas as respostas são seguidas de consequências reforçadoras, isto é, apenas algumas respostas são
reforçadas. Um exemplo comum diz respeito a checar as notificações de sua rede social, tendo como
consequência novas curtidas em uma fotografia que você postou recentemente.

Existem quatro tipos principais de esquemas de reforçamento intermitente: razão fixa, razão variável,
intervalo fixo e intervalo variável.

Nos esquemas de razão, isto é, razão fixa e razão variável, o requisito para a liberação da consequência
reforçadora é o número de respostas emitidas.

Já nos esquemas de intervalo, isto é, intervalo fixo e intervalo variável, o principal requisito é a passagem
de certo período de tempo desde o reforçamento da última resposta.

O esquema de razão fixa é representado pela sigla FR, do inglês fixed ratio. Já o esquema de razão variável é
representado pela sigla VR, do inglês variable ratio. O esquema de intervalo fixo, por sua vez, é
representado pela sigla FI, do inglês fixed interval. O esquema de intervalo variável, por fim, é representado
pela sigla VI, do inglês variable interval.

Razão fixa. Nesse esquema, o número de respostas exigido para a apresentação de cada estímulo reforçador
é sempre o mesmo. Em outras palavras, o organismo deve emitir um número sempre igual de respostas para
que o seu comportamento seja reforçado. Por exemplo, Joãozinho está na aula de educação física. Para
poder ser liberado para beber água, ele deve dar 10 voltas correndo ao redor da quadra de basquete.
O uso de esquemas de FR pode ser uma estratégia eficaz para iniciar e manter a aderência ao exercício
físico.

O padrão comportamental gerado por esquemas de razão fixa é caracterizado por pequenas pausas pós-
reforçamento e alta taxa de respostas. A pausa pós-reforçamento consiste no tempo decorrido entre a
apresentação do estímulo reforçador e o reinício do responder. Uma possível explicação para a ocorrência
desse fenômeno é a ausência de reforçamento logo após a apresentação do último estímulo reforçador. A
apresentação do reforçador, portanto, poderia exercer a função de estímulo delta para o comportamento
mantido em esquema de razão fixa. Após a pausa, o responder se inicia com uma alta taxa que permanece
relativamente constante até o próximo reforçamento.

Pela sua eficácia em produzir altas taxas de respostas, os esquemas de FR têm sido utilizados na indústria,
dada a importância da alta produtividade para maximizar os lucros. São comuns casos em que uma certa
quantia é paga após a execução de um número específico de peças, como no exemplo dos calçados visto
anteriormente.

Razão variável. Nesse esquema de reforçamento intermitente, o número de respostas necessárias para a
apresentação do estímulo reforçador se modifica a cada nova apresentação. Um típico exemplo de
comportamento mantido em esquema de reforçamento de razão variável é jogar em máquinas caça-níqueis.
Por exemplo, a pessoa puxa a alavanca da máquina 117 vezes e ganha algumas moedas. Depois disso, ela
talvez acione a alavanca outras 62 vezes até ganhar novamente, e assim por diante. Note que o número de
respostas de puxar a alavanca da máquina variou entre a apresentação dos reforçadores.

O padrão comportamental gerado por esquemas de razão variável é caracterizado por altas taxas de
respostas e pausas pós-reforçamento praticamente ausentes e/ou irregulares.

Em um esquema de razão variável, o reforçamento pode ocorrer após a emissão de uma ou várias respostas.
Dessa forma, a apresentação do estímulo reforçador DIFICILMENTE adquirirá a função de estímulo delta
para o responder. Essa é uma possível explicação para a ausência de pausas pós-reforçamento ou para a
ocorrência de pausas irregulares nos esquemas de razão variável.
Intervalo fixo. Nesse esquema, a primeira resposta emitida após a passagem de um período específico de
tempo é reforçada. O intervalo entre a apresentação do último reforçador e a disponibilidade do próximo é
sempre o mesmo para todos os reforçamentos. Daí o nome intervalo fixo, ou seja, os reforçadores estarão
disponíveis depois de transcorridos intervalos fixos.

Um exemplo cotidiano de um comportamento reforçado em esquema de intervalo fixo é o de um


adolescente que tem seus pedidos de dinheiro atendidos pelos pais somente após cinco dias desde a última
solicitação atendida. Se ele recebeu dinheiro em um sábado, por exemplo, o dinheiro estará disponível, caso
um novo pedido seja feito, a partir da quinta-feira, isto é, após cinco dias. Durante esse ínterim, respostas de
pedir dinheiro não serão reforçadas. Podemos dizer, assim, que o comportamento de pedir dinheiro desse
adolescente é reforçado em um FI 5 dias.

O padrão comportamental gerado pelo esquema de reforçamento de intervalo fixo é caracterizado por
baixas taxas de respostas e por longas e consistentes pausas pós-reforçamento. Além disso, após a
pausa, a taxa de respostas aumenta rapidamente e, então, se mantém estável até a apresentação do estímulo
reforçador. Esse aumento na taxa de resposta é chamado de scallop.

Intervalo variável. O esquema de reforçamento intermitente de intervalo variável é similar ao de intervalo


fixo, com a diferença de que os intervalos entre a apresentação do último estímulo reforçador e a do seguinte
não são os mesmos, ou seja, são variáveis. Exemplos desse esquema são mais comuns que os de intervalo
fixo. O comportamento de trocar de estação do rádio do carro até encontrar uma música de que você goste
pode ser considerado um exemplo de um comportamento reforçado em esquema de intervalo variável. Às
vezes a resposta de trocar de estação somente é reforçada após se terem passado cinco minutos desde a
última música que agradou, às vezes após 13 minutos, e assim por diante.

O padrão comportamental gerado pelo esquema de reforçamento de intervalo variável é caracterizado por
taxas moderadas e constantes de respostas e ausência de pausas pós-reforçamento. Uma possível
explicação para essa ausência está no fato de que, às vezes, respostas ocorridas imediatamente após a
apresentação do estímulo reforçador são novamente reforçadas, mas, em outras, só serão reforçadas após
longos intervalos. Como o número de respostas não é um dos requisitos para o reforçamento, a taxa de
respostas é moderada em relação aos esquemas de razão.

Modelagem e manutenção de um novo comportamento. O CRF é mais eficaz para a modelagem de um


novo comportamento do que os esquemas intermitentes. Por exemplo, se, no procedimento de modelagem
da resposta de pressão à barra, a água fosse apresentada após 10 pressões, dificilmente esse comportamento
seria aprendido. É provável que o animal parasse de pressionar a barra antes de emitir a décima resposta que
produziria o reforçamento, isto é, observaríamos o processo de extinção.

Tanto em pesquisa quanto em aplicação, novos comportamentos costumam ser modelados e mantidos,
inicialmente, por CRFs. Quando é necessário que o comportamento seja mantido por esquemas
intermitentes, a transição de um esquema para o outro é feita gradualmente. Por exemplo, para se passar de
CRF para FR 20, vários FRs intermediários são utilizados (p. ex ., FR 5, FR 10, FR 15). Os FRs
intermediários evitam que o comportamento entre em processo de extinção antes que o reforçador seja
apresentado.

Resistência à extinção. Os esquemas de reforçamento intermitente, principalmente os variáveis, são ideais


para a manutenção do comportamento, ou seja, aumentam a sua resistência à extinção. O termo resistência
à extinção, como visto anteriormente, descreve o número de respostas emitidas sem reforçamento até que
o comportamento volte ao seu nível operante (ou o tempo necessário para isso ocorrer). Em termos
cotidianos, refere-se ao quanto insistimos em fazer algo que não dá mais certo. Se uma mãe que, por
exemplo, reforçava as birras de seu filho intermitentemente (às vezes sim, às vezes não) decidir não mais
atender à criança quando faz birras, isto é, decidir colocar o comportamento de fazer birra em extinção, seu
filho demorará mais tempo para parar de fazer birras em comparação a uma criança cuja mãe reforçava esse
comportamento continuamente (todas as vezes).

Esquemas de intervalo, fixo e variável, e de razão, fixa e variável, são esquemas de reforçamento
contingente. Ou seja, neles, mesmo nos de intervalo, o estímulo reforçador é sempre apresentado
contingente à ocorrência de pelo menos uma resposta. Há dois tipos principais de esquemas em que não há
a relação de contingência entre resposta e apresentação do estímulo potencialmente reforçador. Nesse
caso, qualificamos os estímulos reforçadores de potenciais porque, na realidade, não é correto denominar um
estímulo de reforçador na ausência de uma relação de contingência.

Esses esquemas são chamados de esquemas não contingentes. Neles, o estímulo reforçador é apresentado
independentemente da ocorrência de uma resposta específica. Nos esquemas intermitentes não contingentes
o reforçador é apresentado de tempos em tempos, sem a necessidade de ocorrência de uma resposta. Os dois
principais esquemas de reforçamento não contingente são o de tempo fixo e o de tempo variável.

Tempo fixo (FT, do inglês fixed time). Este esquema é caracterizado pela apresentação dos reforçadores em
intervalos de tempo regulares, mesmo que nenhuma resposta ocorra. Por exemplo, se um adolescente recebe
uma “mesada” semanal de seus pais, sempre aos sábados e independentemente de qualquer comportamento
que emita, diríamos que a “mesada” é apresentada em esquema não contingente de intervalo fixo (FT 1
semana).
Tempo variável (VT, do inglês variable time). Quando os reforçadores são apresentados em intervalos
irregulares de tempo, independentemente da ocorrência de uma resposta específica, temos um esquema de
tempo variável (VT). Esse esquema assemelha-se ao de intervalo variável (VI), porém sem a necessidade da
ocorrência de uma resposta para que o reforçador seja apresentado. Quando dizemos que a liberação de água
para o rato está em VT 15”, isso significa que o reforçador será apresentado, em média, a cada 15 segundos,
independentemente da ocorrência de qualquer resposta.

Comportamento supersticioso. Exemplos cotidianos de esquemas intermitentes não contingentes de FT e


VT estão geralmente relacionados ao que chamamos, em Análise do Comportamento, de comportamento
supersticioso. Embora não seja necessária a ocorrência de uma resposta em esquemas não contingentes, o
reforçador ocasionalmente é apresentado temporalmente próximo à ocorrência de alguma resposta.
Chamamos essa relação temporal entre resposta e reforçador de contiguidade.

Conforme demonstrado em dezenas de experimentos, a contiguidade entre resposta e reforçador pode ser
suficiente para fortalecer um determinado comportamento. Por exemplo, se você está torcendo para seu time
durante um jogo e, enquanto torce, ele faz um gol, essa relação de contiguidade pode reforçar o seu
comportamento de torcer. Se uma pessoa evita passar debaixo de escadas e, ao mesmo tempo, nada de ruim
lhe acontece, essa relação de contiguidade pode reforçar seu comportamento de evitar passar debaixo de
escadas.

Esse processo é chamado de reforçamento acidental, em que não há uma relação de contingência entre
uma resposta e uma consequência, mas, sim, uma relação de contiguidade temporal, ou seja, a resposta e a
apresentação do estímulo reforçador estão próximas no tempo.
Extinção, na Psicologia, refere-se ao enfraquecimento gradual de uma resposta condicionada que resulta no
decréscimo ou desaparecimento do comportamento.

selecionismo - pois, é influenciado por Darwin,tomando como proposta de Seleção por Consequência
(contingências de reforçamento : filogenética,ontogenética e cultural,indo além do que traz Mach quanto as
relações funcionais quanto a causalidade.

Você também pode gostar