Escolar Documentos
Profissional Documentos
Cultura Documentos
BEHAVIORISMO RADICAL
O behaviorismo radical (radical diz respeito à raiz, e não à qualidade do que é extremo) traz uma filosofia
que sustenta a análise do comportamento.
Nessa concepção, entende-se que os comportamentos observáveis são manifestações externas de processos
mentais invisíveis. O autocontrole, o pensamento, os sonhos são passíveis de observação, por exemplo.
Difere-se do behaviorismo tradicional, que priorizava os aspectos fisiológicos.
Retoma-se a ideia de que as emoções não dão origem à nossa conduta, porque também fazem parte do modo
de agir. Ou seja, o comportamento não é uma consequência do livre arbítrio, mas sim uma das
consequências dos seus atos, sejam positivos ou negativos.
A unidade mínima de ação que Skinner encontrou foi o contexto. Isto é, não basta olhar para o sujeito; é
preciso entender a consequência do que o sujeito faz.
Skinner, assim, nos chama a atenção para o seguinte: a fim de entender o desenvolvimento humano, não
basta olhar para o sujeito, sob o aspecto pessoal de desenvolvimento; é necessário ter em mente que, ao
aprender, esse sujeito o faz por meio de relações sociais, de relações com o meio no qual está inserido, e
que tais relações geram consequências que se retroalimentam com o que o sujeito faz.
Determinismo – A análise do comportamento parte de uma concepção determinista, em que as pessoas não
são livres, mas são controladas por forças ambientais. O determinismo confronta o livre arbítrio, e não a
livre gerência, que diz respeito ao ato de escolher tomar ou não uma xícara de café, por exemplo. Para
Skinner, autocontrole é resultado do contato e da aprendizagem que o sujeito constrói com seu meio.
Causalidade – Segundo Skinner, causalidade é entender que o comportamento é o resultado dos seguintes
elementos: história de reforçamento, genética e evolução da cultura. Note que Skinner considera os
aspectos filogenéticos, culturais e ontogenéticos, além de considerar a história de reforçamento.
Análise funcional – Tem sido mencionada como o tipo de recurso explicativo de que se serve a análise do
comportamento, conforme dispõe Skinner (1953/1965), e também como estratégia, segundo Owens &
Ashcroft (1982), ou método de intervenção em terapias comportamentais, de acordo com Hayes & Follette
(1992) e com Samson & McDonnell (1990).
Contingências – São entendidas como instrumento de estudo das interações. Assim, contingências são
regras que especificam relações entre eventos ambientais ou entre comportamentos e eventos ambientais.
Elas são utilizadas na procura por relações funcionais. Uma contingência é uma unidade mínima de análise,
a relação de dependência entre os eventos. Podemos disser, então, que o termo contingência de reforço é
corretamente empregado se for possível identificar os componentes de uma relação se. então. entre
eventos envolvidos em interações organismo-ambiente; e se for possível especificar as probabilidades
condicionais da ocorrência de um evento na presença e na ausência do outro.
Uma formulação adequada das interações entre um organismo com o seu meio ambiente deve especificar
três coisas:(l) a ocasião na qual a resposta ocorre: (2) a própria resposta: e (3) as consequências
reforçadoras..
Correr, lutar, dançar, falar e tantos outros exemplos de ações que possam ter dois ou mais observadores, são
chamados comportamentos abertos, porque são públicos. Pensamentos, sentimentos e emoções são
chamados comportamentos encobertos, porque são privados, ocorrem sob a pele.
As consequências são fundamentais para a compreensão do comportamento humano. Por isso, Skinner traz
os seguintes conceitos: o de reforço positivo, o de reforço negativo e o de punição.
Falar em consequência é falar em reforço ou punição. Quando se fala em reforço, fala-se necessariamente
no aumento de determinado comportamento.
Ao reforçar algo, deseja-se que determinado comportamento ocorra no futuro. Isto é, reforço impacta
diretamente no aumento da frequência do comportamento. Por sua vez, a punição objetiva diminuir um
comportamento.
À semelhança dos reforços, punição pode ser positiva ou negativa. A lógica de adição e de remoção de
estímulos indesejáveis observada acima é também aplicada para a punição.
Para Skinner (1974, p. 60), "se uma criança não se comporta mais como se comportava no ano anterior, não
é só porque cresceu, mas também porque teve tempo de adquirir um repertório bem mais amplo, à mercê
da exposição a novas contingências de reforço e, particularmente, porque as contingências que afetam as
crianças em diferentes idades são diversas. O mundo infantil se ‘desenvolve’ também". Nessa perspectiva,
essas mudanças e interações constroem uma história de aprendizagem, indicando que o desenvolvimento
humano se dá em função de uma situação atual e da história (BIJOU; BAER, 1975).
Para Skinner, a punição não deve ser usada como estratégia de diminuição de comportamento quando o
objetivo é modelar novo comportamento. Em seu lugar, deve-se criar motivação mediante reforçamento. Isto
é, deve-se reforçar o comportamento que se deseja que ocorra no futuro. Ao reforçar o comportamento, os
sujeitos são engajados na educação. A longo prazo, criar motivação traz resultados muito mais satisfatórios e
notáveis do as práticas de punição.
Esquemas de reforçamento
1. Dados de transição – são aqueles observados quando o comportamento do organismo acabou de ser
submetido a um novo esquema de reforçamento. Nesse caso, o padrão comportamental terá características
da contingência anterior e da nova contingência. Dizemos, portanto, que o seu comportamento ainda não
está adaptado ao novo esquema de reforçamento, mantendo características do padrão comportamental do
esquema anterior. Os dados de transição são úteis para estudar os efeitos de história de reforçamento.
2. Dados em estado estável – são aqueles observados quando há pouca diferença entre os padrões
comportamentais das sessões experimentais nas quais o mesmo esquema é utilizado. Para se obter dados em
estado estável é necessário que o comportamento do organismo seja submetido a várias sessões com o
mesmo esquema de reforçamento. Os padrões comportamentais apresentados a seguir são observados em
estado estável.
O conceito de esquema de reforçamento diz respeito, justamente, a quais critérios uma resposta ou
conjunto de respostas deve atingir para que ocorra o reforçamento. Em outras palavras, descreve como
se dá a contingência de reforço, ou seja, a quais condições as respostas devem obedecer para que o estímulo
reforçador seja liberado. Existem dois tipos principais de esquemas de reforçamento: contínuo e
intermitente.
Exemplos de reforçamento contínuo (CRF) são comuns, como no caso de quem compra um carro novo
com bateria nova e tanque cheio: toda vez que se gira a chave, o motor começa a funcionar. É o caso
também daquele namorado amoroso que aceita todos os convites de sua namorada. Nesses exemplos,
dizemos que as respostas (girar a chave e convidar para sair) sempre são seguidas de seus reforçadores, ou
seja, são continuamente reforçadas.
Já no esquema de reforçamento intermitente, que será visto em detalhes mais adiante, algumas respostas são
reforçadas e outras não.
No dia a dia nem todos os comportamentos que emitimos são reforçados. Falamos, nesses casos, de
esquemas de reforçamento intermitente. A característica definidora desses esquemas é o fato de que nem
todas as respostas são seguidas de consequências reforçadoras, isto é, apenas algumas respostas são
reforçadas. Um exemplo comum diz respeito a checar as notificações de sua rede social, tendo como
consequência novas curtidas em uma fotografia que você postou recentemente.
Existem quatro tipos principais de esquemas de reforçamento intermitente: razão fixa, razão variável,
intervalo fixo e intervalo variável.
Nos esquemas de razão, isto é, razão fixa e razão variável, o requisito para a liberação da consequência
reforçadora é o número de respostas emitidas.
Já nos esquemas de intervalo, isto é, intervalo fixo e intervalo variável, o principal requisito é a passagem
de certo período de tempo desde o reforçamento da última resposta.
O esquema de razão fixa é representado pela sigla FR, do inglês fixed ratio. Já o esquema de razão variável é
representado pela sigla VR, do inglês variable ratio. O esquema de intervalo fixo, por sua vez, é
representado pela sigla FI, do inglês fixed interval. O esquema de intervalo variável, por fim, é representado
pela sigla VI, do inglês variable interval.
Razão fixa. Nesse esquema, o número de respostas exigido para a apresentação de cada estímulo reforçador
é sempre o mesmo. Em outras palavras, o organismo deve emitir um número sempre igual de respostas para
que o seu comportamento seja reforçado. Por exemplo, Joãozinho está na aula de educação física. Para
poder ser liberado para beber água, ele deve dar 10 voltas correndo ao redor da quadra de basquete.
O uso de esquemas de FR pode ser uma estratégia eficaz para iniciar e manter a aderência ao exercício
físico.
O padrão comportamental gerado por esquemas de razão fixa é caracterizado por pequenas pausas pós-
reforçamento e alta taxa de respostas. A pausa pós-reforçamento consiste no tempo decorrido entre a
apresentação do estímulo reforçador e o reinício do responder. Uma possível explicação para a ocorrência
desse fenômeno é a ausência de reforçamento logo após a apresentação do último estímulo reforçador. A
apresentação do reforçador, portanto, poderia exercer a função de estímulo delta para o comportamento
mantido em esquema de razão fixa. Após a pausa, o responder se inicia com uma alta taxa que permanece
relativamente constante até o próximo reforçamento.
Pela sua eficácia em produzir altas taxas de respostas, os esquemas de FR têm sido utilizados na indústria,
dada a importância da alta produtividade para maximizar os lucros. São comuns casos em que uma certa
quantia é paga após a execução de um número específico de peças, como no exemplo dos calçados visto
anteriormente.
Razão variável. Nesse esquema de reforçamento intermitente, o número de respostas necessárias para a
apresentação do estímulo reforçador se modifica a cada nova apresentação. Um típico exemplo de
comportamento mantido em esquema de reforçamento de razão variável é jogar em máquinas caça-níqueis.
Por exemplo, a pessoa puxa a alavanca da máquina 117 vezes e ganha algumas moedas. Depois disso, ela
talvez acione a alavanca outras 62 vezes até ganhar novamente, e assim por diante. Note que o número de
respostas de puxar a alavanca da máquina variou entre a apresentação dos reforçadores.
O padrão comportamental gerado por esquemas de razão variável é caracterizado por altas taxas de
respostas e pausas pós-reforçamento praticamente ausentes e/ou irregulares.
Em um esquema de razão variável, o reforçamento pode ocorrer após a emissão de uma ou várias respostas.
Dessa forma, a apresentação do estímulo reforçador DIFICILMENTE adquirirá a função de estímulo delta
para o responder. Essa é uma possível explicação para a ausência de pausas pós-reforçamento ou para a
ocorrência de pausas irregulares nos esquemas de razão variável.
Intervalo fixo. Nesse esquema, a primeira resposta emitida após a passagem de um período específico de
tempo é reforçada. O intervalo entre a apresentação do último reforçador e a disponibilidade do próximo é
sempre o mesmo para todos os reforçamentos. Daí o nome intervalo fixo, ou seja, os reforçadores estarão
disponíveis depois de transcorridos intervalos fixos.
O padrão comportamental gerado pelo esquema de reforçamento de intervalo fixo é caracterizado por
baixas taxas de respostas e por longas e consistentes pausas pós-reforçamento. Além disso, após a
pausa, a taxa de respostas aumenta rapidamente e, então, se mantém estável até a apresentação do estímulo
reforçador. Esse aumento na taxa de resposta é chamado de scallop.
O padrão comportamental gerado pelo esquema de reforçamento de intervalo variável é caracterizado por
taxas moderadas e constantes de respostas e ausência de pausas pós-reforçamento. Uma possível
explicação para essa ausência está no fato de que, às vezes, respostas ocorridas imediatamente após a
apresentação do estímulo reforçador são novamente reforçadas, mas, em outras, só serão reforçadas após
longos intervalos. Como o número de respostas não é um dos requisitos para o reforçamento, a taxa de
respostas é moderada em relação aos esquemas de razão.
Tanto em pesquisa quanto em aplicação, novos comportamentos costumam ser modelados e mantidos,
inicialmente, por CRFs. Quando é necessário que o comportamento seja mantido por esquemas
intermitentes, a transição de um esquema para o outro é feita gradualmente. Por exemplo, para se passar de
CRF para FR 20, vários FRs intermediários são utilizados (p. ex ., FR 5, FR 10, FR 15). Os FRs
intermediários evitam que o comportamento entre em processo de extinção antes que o reforçador seja
apresentado.
Esquemas de intervalo, fixo e variável, e de razão, fixa e variável, são esquemas de reforçamento
contingente. Ou seja, neles, mesmo nos de intervalo, o estímulo reforçador é sempre apresentado
contingente à ocorrência de pelo menos uma resposta. Há dois tipos principais de esquemas em que não há
a relação de contingência entre resposta e apresentação do estímulo potencialmente reforçador. Nesse
caso, qualificamos os estímulos reforçadores de potenciais porque, na realidade, não é correto denominar um
estímulo de reforçador na ausência de uma relação de contingência.
Esses esquemas são chamados de esquemas não contingentes. Neles, o estímulo reforçador é apresentado
independentemente da ocorrência de uma resposta específica. Nos esquemas intermitentes não contingentes
o reforçador é apresentado de tempos em tempos, sem a necessidade de ocorrência de uma resposta. Os dois
principais esquemas de reforçamento não contingente são o de tempo fixo e o de tempo variável.
Tempo fixo (FT, do inglês fixed time). Este esquema é caracterizado pela apresentação dos reforçadores em
intervalos de tempo regulares, mesmo que nenhuma resposta ocorra. Por exemplo, se um adolescente recebe
uma “mesada” semanal de seus pais, sempre aos sábados e independentemente de qualquer comportamento
que emita, diríamos que a “mesada” é apresentada em esquema não contingente de intervalo fixo (FT 1
semana).
Tempo variável (VT, do inglês variable time). Quando os reforçadores são apresentados em intervalos
irregulares de tempo, independentemente da ocorrência de uma resposta específica, temos um esquema de
tempo variável (VT). Esse esquema assemelha-se ao de intervalo variável (VI), porém sem a necessidade da
ocorrência de uma resposta para que o reforçador seja apresentado. Quando dizemos que a liberação de água
para o rato está em VT 15”, isso significa que o reforçador será apresentado, em média, a cada 15 segundos,
independentemente da ocorrência de qualquer resposta.
Conforme demonstrado em dezenas de experimentos, a contiguidade entre resposta e reforçador pode ser
suficiente para fortalecer um determinado comportamento. Por exemplo, se você está torcendo para seu time
durante um jogo e, enquanto torce, ele faz um gol, essa relação de contiguidade pode reforçar o seu
comportamento de torcer. Se uma pessoa evita passar debaixo de escadas e, ao mesmo tempo, nada de ruim
lhe acontece, essa relação de contiguidade pode reforçar seu comportamento de evitar passar debaixo de
escadas.
Esse processo é chamado de reforçamento acidental, em que não há uma relação de contingência entre
uma resposta e uma consequência, mas, sim, uma relação de contiguidade temporal, ou seja, a resposta e a
apresentação do estímulo reforçador estão próximas no tempo.
Extinção, na Psicologia, refere-se ao enfraquecimento gradual de uma resposta condicionada que resulta no
decréscimo ou desaparecimento do comportamento.
selecionismo - pois, é influenciado por Darwin,tomando como proposta de Seleção por Consequência
(contingências de reforçamento : filogenética,ontogenética e cultural,indo além do que traz Mach quanto as
relações funcionais quanto a causalidade.