Condicionamiento operante de
Skinner.
El sistema de Skinner al completo está basado en el condicionamiento operante. El
organismo está en proceso de “operar” sobre el ambiente, lo que en términos
populares significa que está irrumpiendo constantemente; haciendo lo que hace.
Durante esta “operatividad”, el organismo se encuentra con un determinado tipo
de estímulos, llamado estímulo
reforzador, o simplemente reforzador. Este estímulo especial tiene el
efecto de incrementar el operante
(esto es; el comportamiento que ocurre inmediatamente después del reforzador).
Esto es el condicionamiento operante: el comportamiento es seguido de una
consecuencia, y la naturaleza de la consecuencia modifica la tendencia del
organismo a repetir el comportamiento en el futuro.”
Imagínese a una rata en una caja. Esta es una caja
especial (llamada, de hecho, “la caja de Skinner”) que tiene un pedal o barra
en una pared que cuando se presiona, pone en marcha un mecanismo que libera una
bolita de comida. La rata corre alrededor de la caja, haciendo lo que las ratas
hacen, cuando “sin querer” pisa la barra y ¡presto!, la bolita de comida cae en
la caja. Lo operante es el comportamiento inmediatamente precedente al
reforzador (la bolita de comida). Prácticamente de inmediato, la rata se retira
del pedal con sus bolitas de comida a una esquina de la caja.
Un comportamiento seguido de
un estímulo reforzador provoca una probabilidad incrementada de ese
comportamiento en el futuro.
¿Qué ocurre si no le volvemos a dar más bolitas a la rata? Aparentemente no es tonta y después de varios intentos infructuosos, se abstendrá de pisar el pedal. A esto se le llama extinción del condicionamiento operante.
Un comportamiento que ya no
esté seguido de un estímulo reforzador provoca una probabilidad decreciente de
que ese comportamiento no vuelva a ocurrir en el futuro.
Ahora, si volvemos a poner en marcha la máquina de manera
que el presionar la barra, la rata consiga el alimento de nuevo, el
comportamiento de pisar el pedal surgirá de nuevo, mucho más rápidamente que al
principio del experimento, cuando la rata tuvo que aprender el mismo por
primera vez. Esto es porque la vuelta del reforzador toma lugar en un contexto
histórico, retroactivándose hasta la primera vez que la rata fue reforzada al
pisar el pedal.
Esquemas de refuerzo
A Skinner le gusta decir que llegó a sus diversos descubrimientos
de forma accidental (operativamente). Por ejemplo, menciona que estaba “bajo de
provisiones” de bolitas de comida, de manera que él mismo tuvo que hacerlas;
una tarea tediosa y lenta. De manera que tuvo que reducir el número de
refuerzos que le daba a sus ratas para cualquiera que fuera el comportamiento
que estaba intentando condicionar. Así que, las ratas mantuvieron un
comportamiento constante e invariable, ni más ni menos entre otras cosas,
debido a estas circunstancias. Así fue como Skinner descubrió los esquemas
de refuerzo.
El refuerzo continuo es el escenario original:
cada vez que la rata comete el comportamiento (como pisar el pedal), consigue
una bolita de comida.
El programa de frecuencia fija fue el primero que
descubrió Skinner: si, digamos, la rata pisa tres veces el pedal, consigue
comida. O cinco. O veinte. O “x” veces. Existe una frecuencia fija entre los
comportamientos y los refuerzos: 3 a 1; 5 a 1; 20 a 1, etc. Es como una “tasa
por pieza” en la producción industrial de ropa: cobras más mientras más
camisetas hagas.
El programa de intervalo fijo utiliza un artilugio
para medir el tiempo. Si la rata presiona el pedal por lo menos una vez en un
período de tiempo particular (por ejemplo 20 segundos), entonces consigue una
bolita de comida. Si falla en llevar a cabo esta acción, no consigue la bolita.
Pero, ¡aunque pise 100 veces el pedal dentro de ese margen de tiempo, no
conseguirá más de una bolita!. En el experimento pasa una cosa curiosa si la
rata tiende a llevar el “paso”: bajan la frecuencia de su comportamiento justo
antes del refuerzo y aceleran la frecuencia cuando el tiempo está a punto de
terminar.
Skinner también habló de los programas variables.
Una frecuencia variable significa que podemos cambiar la “x” cada vez; primero
presiona tres veces para conseguir una bolita, luego 10, luego 1, luego 7 y así
sucesivamente. El intervalo variable significa que mantenemos cambiante ese
período; primero 20 segundos, luego 5; luego 35 y así sucesivamente.
Siguiendo con el programa de intervalos variables,
Skinner también observó en ambos casos que las ratas no mantenían más la
frecuencia, ya que no podían establecer el “ritmo” por mucho tiempo más entre
el comportamiento y la recompensa. Más interesantemente, estos programas eran
muy resistentes a la extinción. Si nos detenemos a pensarlo, verdaderamente
tiene sentido. Si no hemos recibido una recompensa por un tiempo, bueno, es muy
probable que estemos en un intervalo o tasa “errónea”…¡sólo una vez más sobre
el pedal; Quizás ésta sea la definitiva!.
De acuerdo con Skinner, este es el mecanismo del juego.
Quizás no ganemos con demasiada frecuencia, pero nunca sabemos cuándo ganaremos
otra vez. Puede que sea la inmediatamente siguiente, y si no lanzamos los dados
o jugamos otra mano o apostamos a ese número concreto, ¡perderemos el premio
del siglo!
No hay comentarios:
Publicar un comentario