Você está na página 1de 7

LECCION 2.

EL CONDICIONAMIENTO OPERANTE

La Relación de Triple Contingencia

Para Skinner el estudio de la conducta voluntaria podía realizarse completamente


a través de una comprensión completa de la relaciones de triple contingencia. La
relación de triple contingencia corresponde a la relación entre tres eventos: a) los
eventos antecedentes del medio en los cuales ocurre una conducta, b) la conducta
y c) las consecuencias o efectos en el medio que tiene la conducta.
Por contingencia se entiende la relación de dependencia entre dos eventos. Toda
conducta ocurre en un contexto o ambiente estimular determinado, y
generalmente cada conducta se circunscribe a un ambiente específico, así por
ejemplo, uno se baña en la ducha y no en la cocina, uno baila en la discoteca pero
no en el salón de clases, uno ríe en una fiesta pero no en un funeral, etc.Por otra
parte, una de las características de las llamadas conductas voluntarias es que
ejercen un efecto sobre el medio, producen consecuencias, por ejemplo, metemos
la tarjeta débito en el cajero automático para sacar dinero o ver nuestro saldo,
llamamos al mesero en el restaurante para hacer nuestro pedido, saludamos a
alguien para maximizar una predisposición positiva hacia nosotros. Recodemos
que estas conductas se llaman operantes porque operan sobre el medio para
ejercer un cambio sobre éste y obtener una consecuencia positiva. Uno de los
postulados fundamentales del condicionamiento operante es que toda conducta
está determinada por sus eventos antecedentes y consecuentes y por lo tanto
para modificarla es necesario conocer y manipular estos eventos. Otro postulado
fundamental es que son los eventos consecuentes los que colocan a una conducta
bajo el control de estímulos antecedentes, por lo tanto, vamos a comenzar a ver
los efectos de estos eventos consecuentes sobre la conducta.

Efecto de las Consecuencias

Reforzamiento y reforzador. Ya habíamos hablado que para Skinner la unidad de


medida de la conducta era su tasa de respuesta, definida como la frecuencia de una
conducta sobre unidad de tiempo. En sus experimentos de laboratorio en su famosa “caja
de Skinner” él encontró que dicha medida era muy sensible a cambios en las
consecuencias. La caja de Skinner tenía una palanca y un dispensador de comida donde
cada vez que la rata presionaba la palanca recibía una bolita de comida. Él encontró que
la tasa de respuesta de presionar la palanca aumentaba ordenadamente cuando esto
ocurría y en el futuro era más probable que la rata presionara la palanca. Skinner llamó
reforzamiento al procedimiento por el cual se incrementa la probabilidad de una respuesta
cuando a ésta le siguen ciertas consecuencias (1938). Llamó reforzador al evento
contingente que incrementa la probabilidad de una conducta; en sus experimentos el
reforzador era la bolita de comida (1938). De igual forma en la vida real estas situaciones
se presentan en todo momento: llamamos a un amigo para que nos preste dinero, y si así
lo hace, en el futuro es más probable que volvamos a pedirle el mismo favor; le damos un
golpe a un aparato que se está dañando, y si funciona, es más probable que en el futuro
volvamos a golpearlo cuando no funciona.

Algunos investigadores intentaron determinar qué eventos son reforzadores de por


sí, sin embargo, para Skinner éste es un asunto que no se resuelve a-priori sino a
posteriori, no se puede saber que es reforzador para un organismo hasta después
de comprobar qué evento aumenta la probabilidad de sus conductas (Skinner,
1953). En el caso humano la diversidad de reforzadores por individuo es infinita;
para cada quien existen diferente tipos de reforzadores, para algunos el dinero es
muy importante, pero para otros lo puede ser más la aceptación de los demás o
llevar a cabo actividades creativas; para algunos puede ser muy reforzante
comprar ropa, para otros en cambio, comprar libros.

Hay que hacer una consideración importante respecto a la conducta operante. En


el caso de Skinner lo que define a una conducta no es su carácter molecular o
molar, sino su carácter funcional; así por ejemplo, en el experimento de la rata,
ésta podía presionar la palanca con las patas delanteras, con las patas traseras,
con el hocico o saltando sobre ella, pero el efecto sobre el medio era siempre el
mismo: bajar la palanca y por ello obtenía el reforzador. Todas las diferentes
formas de bajar la palanca estarían en equivalencia funcional porque logran el
mismo efecto y corresponderían a la misma conducta operante.

Reforzadores primarios, secundarios y generalizados. Es evidente que muchas de las


consecuencias que son reforzadores para nosotros no son innatas, es decir, no nacimos
deseándolas. Para un bebe recién nacido es muy poco reforzante ver un programa de
televisión o poseer un objeto decorativo, dichas situaciones se convierten en reforzadores
a través del aprendizaje. Por tal razón, Skinner (1953) distingue entre reforzadores
primarios o incondicionados, como aquellos eventos que tienen valor reforzante de forma
innata, sin aprendizaje, como por ejemplo, la comida, la bebida o el abrigo. Tales eventos
son reforzadores debido al proceso de evolución filogenética de la especie humana. Sin
embargo, hay eventos que se asocian a éstos y adquieren valor reforzante, por ejemplo:
las expresiones de cariño por parte de la madre se asocian al ofrecimiento de leche
materna y abrigo, haciendo que dichas expresiones afectivas por parte de cualquier
persona adquieran valor reforzante. A estos eventos que adquieren valor reforzante al
asociarse a reforzadores primarios se les llama reforzadores secundarios o
condicionados. La mayoría de las cosas que nos refuerzan son de este tipo, por ejemplo,
consumir una comida favorita, vestir una ropa preferida, leer un libro, escuchar una
canción, etc. Existe un procedimiento basado en este principio usado para aumentar la
probabilidad de ocurrencia de conductas deseables, se llama economía de fichas y
consiste en dar una ficha acumulable a alguien cuando ejecuta alguna conducta que se
quiere fortalecer y tales fichas son después intercambiables por una variedad de
reforzadores. Dicho procedimiento ha sido utilizado con éxito en ambientes
institucionalizados como internados psiquiátricos, correccionales de menores, colegios,
etc. (Martin y Pear, 1999).

Existe también un tipo especial de reforzador condicionado que se ha apareado a


muchos reforzadores primarios y adquiere valor reforzante por sí mismo, y no
como un medio de adquirir otro reforzador. Un ejemplo es el dinero, el cual está
asociado a la consecución de muchos reforzadores y se convierte en reforzador
por sí mismo. Hay muchas personas que acumulan dinero solo por acumularlo,
porque hacerlo es de por sí reforzante. A este tipo de reforzadores se les
llama reforzadores generalizados (Skinner, 1953). Otro tipo importante de
reforzador generalizado es la atención o aprobación de los demás. Muchas
personas hacen una gran cantidad de cosas con tal de lograr la aprobación y el
afecto de los demás. Skinner (1953) especulaba que otro tipo particular de
reforzador generalizado es el dominio o sometimiento sobre los demás, el cual
sería característico de aquellas personas a las que denominamos antisociales.

Refuerzo positivo y negativo. Hay situaciones que implican la eliminación o evitación de


estímulos aversivos, es decir aquellos que pueden generarnos algún tipo de dolor o daño,
y tales situaciones fortalecen las conductas que los producen, por lo tanto son también
reforzadores. Skinner (1953) entonces distinguió entre reforzadores positivos como
aquellos que implican la aparición de un evento y reforzadores negativos como aquellos
que implican la eliminación o evasión de un estímulo aversivo. Ambos como reforzadores
fortalecen una respuesta, pero se diferencian en el hecho de que una consecuencia
aparezca o desaparezca. La mayoría de los reforzadores de los que hemos hablado son
positivos, por ejemplo: un alimento, una felicitación, dinero, coleccionar cosas, etc. Sin
embargo, también se fortalecen aquellas conductas que eliminan un evento aversivo, por
ejemplo, cerramos la ventana si entre mucho ruido de afuera, prendemos el ventilador o el
aire acondicionado si hace mucho calor, espantamos a un zancudo que no está picando,
etc. En todos estos casos se está eliminando el estímulo aversivo y por lo tanto hablamos
de escape. Pero también existe otro tipo de reforzador negativo que consiste en actuar
ante un estímulo que no anuncia la presencia del evento aversivo para prevenirlo, a esto
llamamos evitación, por ejemplo, la mayoría de las personas siguen las leyes para evitar
problemas con al autoridad, la mayoría de los estudiantes estudian para las evaluación
para evitar una mala nota y perder la materia. En el entrenamiento experimental de
evitación/escape, se expone al animal ante un estímulo, como un timbre, que anuncia la
proximidad de un estímulo aversivo, como un choque eléctrico, y se le da la opción de
actuar de cierta manera, por ejemplo, saltando cierta valla.

David Premack estableció un principio según el cual las conductas de más alta
probabilidad pueden fortalecer a las conductas de más baja probabilidad, es decir,
pueden reforzarlas; a dicho fenómeno se le llama principio de Premack y
correspondería a un tipo especial de reforzamiento positivo. Por ejemplo, es
posible fortalecer la conducta de estudio de un niño reforzándole con permitirle
salir a jugar a la calle. En estos casos el reforzador no es un objeto sino una
actividad (Chance, 2001).

El castigo. Pero así como existen consecuencias que aumentan la probabilidad de una
conducta, existen otras que disminuyen la probabilidad de las conductas, a estas se les
llama castigo. Por ejemplo, si un niño pequeño le jala la cola a un gato y éste lo araña, es
probable que en el futuro no lo vuelva a hacer. Al igual que en el reforzamiento, también
existe el castigo positivo y el negativo. El castigo positivo consiste en la aparición de un
estímulo aversivo, un adolescente puede recibir una bofetada de su padre por decirle una
grosería, alguien puede tener una enfermedad gastrointestinal por tomar agua sin hervir,
etc. El castigo negativo consistiría en disminuir la probabilidad de una conducta
eliminando algún tipo de reforzador, por ejemplo: a alguien se le decomisan sus bienes
por no pagar una deuda, una mujer abandona a su esposo por que le fue infiel.

En muchos escritos Skinner (1948, 1953, 1969) señala que infortunadamente el


método predilecto por la sociedad para controlar la conducta de las personas es el
castigo, sin embargo señala que el castigo tiene unos efectos indeseables, tales
son (1953):

a. No enseña una nueva conducta alternativa.


b. Enseña a tener miedo a ejecutar ciertas conductas
c. Puede generar reacciones agresivas
d. Enseña a no llevar a cabo la conducta indeseable cuando se sabe que va a
ser castigada, pero a llevarla a cabo cuando no será castigada.

Hacia 1948 Skinner publicó una novela utópica llamada “Walden Dos” donde
describe la vida en una comunidad que aplica los principios del condicionamiento
operante, utilizando al máximo el reforzamiento y evitando el uso del
castigo. Skinner creía que en una comunidad así era posible lograr una felicidad
auténtica.

Extinción. Así como las conductas pueden ser fortalecidas a través del reforzamiento,
también pueden ser debilitadas hasta desaparecer a través de la extinción, la cual
consiste en eliminar la contingencia entre la conducta y el reforzador eliminando este
último cuando la conducta se presenta (Skinner, 1953). Por ejemplo, si tenemos un
televisor que se acaba de dañar, dejamos de intentar de prenderlo porque la conducta ya
no se refuerza, si cambiaron la chapa de una puerta y no tengo la llave nueva voy dejando
de intentar abrirla con la llave vieja. En la aplicación a la vida real, si un niño obtiene lo
que quiera a punta de pataletas y escándalos, es posible eliminar esa conducta disruptiva
eliminando la atención que se le provee al niño cuando hace tales espectáculos.

Un efecto paradójico de la extinción operante es que en un primer momento


produce un aumento de la intensidad de la conducta a eliminar, así si el televisor
se ha dañado intentaré prenderlo con mucha insistencia, si al niño no se le pone
atención al iniciar la pataleta, aumentará su escándalo. Sin embargo, al no
aparecer el reforzador, por naturaleza, la conducta va desapareciendo hasta
eliminarse: ya no se intenta prender ese televisor, ya no se hace pataleta. Sin
embargo, en la extinción operante ocurre algo similar a lo que ocurre en la
extinción del condicionamiento clásico, se presenta recuperación espontánea o
la tendencia a que la conducta aparezca después de un período de tiempo y de
igual manera es necesario volver a llevar a cabo la extinción para que la conducta
desaparezca totalmente.
Control de Estímulos

Hasta acá hemos hecho referencia a dos de los términos de la triple contingencia:
las conductas y sus consecuencias, ahora vamos a hablar del papel de los
estímulos antecedentes. Primero debemos considerar el hecho de que toda
conducta sucede en un contexto, ante unos estímulos específicos y no ante otros,
por ejemplo, en un salón de clase es habitual que escuchemos y escribamos, pero
no que comamos, durmamos o bailemos; es más probable que me coloque un
casco si voy a montar en una moto a que me lo coloque si voy a montar una
bicicleta. Sin embargo, lo que define que una conducta se presente ante ciertos
estímulos y ante otros no son las consecuencias; así por ejemplo, si un edificio
tiene dos puertas de entrada y en la puerta de la derecha la entrada es fácil pero
en la puerta de la izquierda la puerta a veces está con llave o está dañada, en el
futuro es mucho más probable que opte por la puerta de la derecha. Entrenar a
una persona a responder de cierta manera ente unos estímulos se llama poner las
conductas bajo el control de estímulos. Un entrenamiento en control de
estímulos muy común es la enseñanza de la lectura, donde a cada letra y sílaba le
corresponde un sonido muy preciso, en tal caso por ejemplo, al grafema “b” le
corresponde el sonido bilabial /b/ y no otro.

Las conductas tienden a aparecer en presencia de los estímulos que están


asociados a la disponibilidad de reforzadores, se llama a un mesero en un
restaurante cuando está a la vista, pero no cuando está en la cocina. A los
estímulos que están asociados con la presencia del reforzador se les llama
estímulos discriminativos o ED. En sus experimentos con ratones y palomas en
su caja de condicionamiento operante, Skinner reforzaba con comida la presión de
la palanca solo cuando estuviese prendida una luz, pero cuando estaba apagada
no se reforzaba la conducta, se extinguía, de manera que el animal aprendía a
responder solo ante la luz encendida. De forma complementaria, se han
identificado también estímulos asociados a la ausencia de reforzadores, a los
cuales se les ha llamado estímulos delta o E∆, por ejemplo, si alguien está
interesado en ver el noticiero por la televisión y mira la hora y ve que son las 3:00
p.m., este estímulo sería un E∆ de que en el televisor están dando el noticiero. Un
mismo estímulo puede asumir ambas funciones, ser E D para unas conductas y ser
E∆ para otras conductas, como el caso del salón de clases que describíamos
antes.

Cuando da inicio un tipo particular de aprendizaje es frecuente que primero éste


se transfiera a estímulos diferentes pero similares a aquellos con los cuales se
presentó inicialmente la conducta. Si una rata fue reforzada por presionar la
palanca ante la luz amarilla, también la presionará ante la luz roja o verde. Cuando
un niño pequeño aprende a hablar y aprende a decir perro ante un perro
cualquiera, puede comenzar a decirle “perro” a un gato, un caballo pequeño, un
ternero u otros animales similares. A este fenómeno se le
denomina generalización de estímulos y es el caso contrario de la discriminación
de estímulos que ya vimos. A veces es necesario desarrollar la generalización de
estímulos cuando se requiere que un aprendizaje se transfiera de unos estímulos
a otros, como cuando se le enseña a un niño a hacer sumas con términos de dos
cifras y se espera que utilice las mismas operaciones con términos de tres, cuatro
o más cifras.

Desarrollo de Nuevas Conductas

Hasta ahora hemos hablado de cómo las consecuencias pueden modificar la


probabilidad de aparición de una conducta específica y del control de estímulos,
pero también, el condicionamiento operante ofrece una respuesta a la pregunta de
cómo aparecen nuevas conductas; la respuesta a esta pregunta había sido una de
las grandes debilidades del paradigma de condicionamiento clásico para explicar
la conducta compleja. Los dos procedimientos básicos que invoca el
condicionamiento operante son el moldeamiento y el encadenamiento:

El moldeamiento. Cuando un niño nace su conducta voluntaria es altamente


indiferenciada, y a través del aprendizaje operante va tomando diferentes formas bien
definidas. Así por ejemplo, los primeros movimientos motores son en principio intentos
difusos de desplazarse u obtener un objeto, pero gradualmente el niño va adquiriendo
mayor control de su conducta gracias, además de la maduración, al efecto inmediato de
su comportamiento, donde aquellas respuestas o combinaciones de respuestas que dan
resultado son seleccionadas y fortalecidas, mientras que los movimientos inútiles son
extinguidos. A este procedimiento lo llamó Skinner (1953) moldeamiento, porque es
similar al trabajo que realiza un escultor con un pedazo de piedra al que va dando forma
poco a poco con el martillo y el cincel. De esta manera sucede con el
lenguaje, inicialmente debido a su potencial innato, el niño expresa una gran cantidad de
ruidos indiferenciados, pero más adelante la emisión de sonidos articulados y su
combinación es reforzada diferencialmente de tal manera que la conducta de hablar va
tomando una forma específica. Por ejemplo, un niño puede señalar una galleta y decir
“eta”, a lo cual sus padres le prestarán atención y probablemente le alcancen la
galleta. Luego los padres no atenderán tanto al sonido “eta” y el niño se verá forzado a
decir algo más cercano como “aeta”, después dirá “gaeta”, hasta que finalmente diga
“galleta”. En estos casos actúa la imitación de sonidos de los padres, pero el
reforzamiento de aproximaciones graduales a la conducta deseada es un paso
indispensable para que se moldee la conducta. Otro caso donde actúa el moldeamiento
es en el aprendizaje de la escritura.

El encadenamiento. Un segundo caso de aprendizaje de conductas nuevas es el


encadenamiento, o desarrollo de cadenas de conducta. Las cadenas de conducta son
series de respuestas que suceden en una secuencia más o menos ordenada. Ejemplos
de cadenas de conducta son: lavarse los dientes, bañarse y vestirse, los rituales
religiosos, armar o desarmar un aparato, etc. En estos casos, se asume que cada
respuesta que es un eslabón en la cadena ya pertenece al repertorio de conductas del
sujeto, pero lo nuevo es que estén combinadas en una nueva secuencia y la conducta
anterior es estímulo discriminativo para la siguiente. Un ejemplo muy común de una
cadena es el aprendizaje de un himno, donde cada estrofa es un estímulo discriminativo
para la siguiente estrofa.

Você também pode gostar