Cómo enseñar el pensamiento crítico: El valor de la investigación básica

Se cuenta que cuando la reina Victoria y los miembros del gobierno británico visitaron el laboratorio de Michael Faraday lo primero que le preguntaron es para qué servían todos aquellos aparatos y experimentos. La respuesta de Faraday es ya legendaria: “¿Para qué sirve un niño, madame?”. Pero a pesar de su genialidad, imagino que esta pregunta de poco o nada sirvió para cambiar la actitud de la reina, que posiblemente abandonó la sala con el mismo interés por la ciencia que tenía al entrar en ella. Seguramente, en aquel momento nadie habría podido convencerla de que en un futuro no tan lejano las personas apenas podrían vivir cinco minutos sin pulsar un interruptor.

Aunque ha pasado más de un siglo, quienes nos dedicamos a la investigación básica aún nos enfrentamos casi a diario a las críticas de quienes, como la reina Victoria, no tienen ningún interés en la ciencia básica ni entienden que se utilice dinero público para financiar un tipo de investigación que no tiene por objetivo directo solucionar ningún problema real o tener un impacto en la vida cotidiana. En algunos ámbitos, como el de la psicología, a menudo somos vistos como bichos raros por parte de quienes dicen investigar, qué sé yo, cómo se adaptan los niños al divorcio de los padres o cuál es la mejor estrategia para dejar de fumar. Tampoco es mejor la actitud de las instituciones que financian la investigación (o solían hacerlo hasta hace tres años), con su permanente insistencia en que cualquier proyecto de investigación debe incluir un apartado sobre posibles aplicaciones, incluso si se trata de un proyecto de investigación básica.

Sin embargo, la realidad nos muestra una y otra vez que las ideas que mayor impacto llegan a tener en la vida cotidiana son precisamente las que surgen de la investigación básica. ¿Alguien se imagina a Watson y Crick pensando en la insulina transgénica mientras descifraban el código de la vida? ¿O a Turing pensando en cómo serían los sistemas operativos de los smartphones? Un estudio reciente de mis compañeros de Labpsico muestra que lo que vale para la genética y la informática también se aplica a la psicología.

Los psicólogos de la memoria, el aprendizaje y el razonamiento llevamos décadas indagando en los procesos cognitivos que nos permiten descubrir patrones en nuestro entorno, almacenar esa información y utilizarla cuando una situación así lo requiere. Casi nada de esa investigación se realiza con el propósito expreso de ayudar a la gente a solucionar sus problemas cotidianos. Sin embargo, a lo largo del camino inevitablemente se van descubriendo hechos que nos ayudan a entender por qué las personas tenemos ciertos problemas y qué se puede hacer para solucionarlos. Un ejemplo perfecto es la literatura sobre supersticiones y sesgos cognitivos. Gracias a cientos de experimentos sabemos que existen situaciones que invitan a casi cualquier persona a razonar de forma errónea, independientemente de su formación, cultura o inteligencia.

Partiendo de esta literatura, Itxaso Barbería, Fernando Blanco, Carmelo Cubillas y Helena Matute han diseñado un programa de intervención que pretende dotar a los niños y adolescentes del escepticismo necesario para no caer en las supersticiones más frecuentes en nuestra sociedad. Yo mismo tuve la suerte de colaborar en un par de sesiones y ser testigo de sus asombrosos resultados. La investigación básica revela que varios mecanismos están involucrados en el desarrollo de este tipo de creencias supersticiosas. Uno de ellos es la insensibilidad a la tasa base con la que suceden ciertos eventos. Por ejemplo, si todas las veces que tenemos un catarro tomamos un remedio homeopático y si siempre que así lo hacemos mejoramos al día siguiente, es tentador pensar que ese remedio es el responsable de la mejoría. Pero la pregunta es: ¿qué habría pasado si no lo hubiéramos tomado? A menudo o no disponemos de esa información (porque si creemos que la homeopatía funciona entonces no probamos a no tomarla) o si la tenemos, la ignoramos.

En la intervención diseñada por Barbería y colaboradores, a los niños se les confrontaba directamente con una situación de este tipo con la esperanza de que cayeran en el error. Imitando al marketing de las famosas pulseras Power Balance, se les decía que estudios recientes habían demostrado que una sustancia con propiedades electromagnéticas peculiares podía aumentar el rendimiento cognitivo y físico. A los niños se les invitaba a realizar diversos ejercicios de fuerza y flexibilidad mientras cogían una pequeña pieza de esa sustancia con la mano. También se les pedía que hicieran ejercicios mentales (por ejemplo, resolver laberintos) mientras sostenían la barrita metálica. Posteriormente, se les preguntaba si les había parecido que la pieza funcionaba. Aunque algunos eran un poco más escépticos, la mayor parte de ellos confesaba que sí. Algunos incluso habrían estado dispuestos a pagar por ella. Sin embargo, era imposible que esa pieza metálica estuviera teniendo ningún efecto. Las piezas estaban sacadas en realidad del motor de un secador de pelo.

A los niños se les confesaba abiertamente que acababan de ser víctimas de un engaño y a continuación se les explicaba por qué muchos de ellos no habían caído en la cuenta. En concreto, se les señalaba que para saber si las piezas tenían algún efecto habría sido fundamental contar con una condición de control: tendrían que haber hecho los ejercicios con y sin la ayuda de la barra metálica y haber comparado su nivel de ejecución en ambas condiciones. Si hubieran hecho los ejercicios sin la barra habrían comprobado cómo en realidad lo hacían igual de bien en ambos casos. También se les aclaraba que no cualquier comparación servía: la condición de control y la “experimental” debían ser exactamente iguales. Eso quiere decir que, por ejemplo, no servía con hacer los ejercicios físicos primero sin la barra metálica y luego con ella, siempre en ese orden, porque en tal caso la mera práctica hace que el rendimiento físico sea mayor con la barra (es decir, cuando ya se tiene cierta práctica) que sin ella (cuando aún no se tiene ninguna práctica).

Lo más interesante del experimento es que tras esta explicación, todos los niños se sometían a una preparación experimental que se sabe que induce cierta ilusión de causalidad. Se trata de un procedimiento en el que los participantes tienen que imaginar que son médicos explorando la evidencia a favor y en contra de la eficacia de un medicamento. Aunque a los participantes no se les avisa de ello, la información que se les presenta sugiere que la medicina no es efectiva. Sin embargo muchas personas caen en el error de pensar que sí lo es. Los resultados de Barbería y colaboradores muestran que los niños que pasaron por este curso de pensamiento crítico luego fueron menos susceptibles a mostrar ilusión de causalidad en esta prueba experimental que otro grupo de niños similar que aún no había pasado por el curso. Por tanto, todo sugiere que esta intervención hizo a los niños más resistentes al tipo de ilusiones causales que se cree que subyacen al pensamiento mágico y supersticioso.

A nadie se le escapa que los resultados de esta investigación tienen un potencial enorme en el sistema educativo actual. Se insiste con frecuencia en que los niños deberían salir del colegio con algo más que un montón de conocimientos enciclopédicos; que deberían convertirse en adultos capaces de pensar críticamente por sí mismos. Sin embargo, hay muy pocos estudios como este que nos indiquen cómo se pueden desarrollar el escepticismo y la actitud científica. A las reinas victorianas de la psicología aplicada tal vez les cause cierto asombro que una vez más las respuestas lleguen del mundo de la investigación básica.

__________

Barbería, I., Blanco, F., Cubillas, C. P., & Matute, H. (2013). Implementation and assessment of an intervention to debias adolescents against causal illusions. PLoS ONE, 8, e71303. doi:10.1371/journal.pone.0071303

Cómo crear falsos recuerdos

El artículo que ayer mismo publicaban en Science Steve Ramirez y sus colaboradores es un pequeño paso para un equipo de investigación, pero un gran paso para la neurociencia. En sus líneas generales, el estudio muestra que si uno sabe en qué área del cerebro está codificado un estímulo, entonces es posible crear falsos recuerdos activando artificialmente ese punto del sistema nervioso. En concreto, Ramirez y colaboradores buscaron primero qué partes del hipocampo se activaban cuando los ratones exploraban un contexto novedoso A. Posteriormente, se sometió a las ratas a un sencillo procedimiento de condicionamiento del miedo en un contexto B. Se trata simplemente de dar pequeñas descargas eléctricas a las ratas mientras están en una jaula que hace las veces de contexto B. Aunque las descargas suelen ser muy ligeras, las ratas aprenden rápidamente a evitar esa jaula. Gracias a esa evitación y a otras medidas del miedo, es posible saber si la rata recuerda que en el contexto B se produjeron descargas eléctricas. Lo interesante de este experimento es que mientras se estaba produciendo el condicionamiento en el contexto B, los investigadores activaron artificialmente la parte del hipocampo que codifica el contexto A. Esto puede hacerse gracias a una serie de técnicas optogenéticas que permiten activar partes concretas del cerebro con una resolución espacio-temporal muy alta. En principio estas ratas no fueron condicionadas en el contexto A y por tanto no deberían tener miedo al contexto A. Sin embargo, en una prueba posterior se vio que las ratas sí que aprendieron a tener miedo del contexto A: activar las neuronas del contexto A fue suficiente para “engañar” al cerebro de las ratas y hacerlas pensar que mientras recibían las descargas estaban realmente en el contexto A.

__________

Ramirez, S., Liu, X., Lin, P.-A., Suh, J., Pignatelli, M., Redondo, R. L., Ryan, R. J., & Tonegawa, S. (2013). Creating false memories in the hippocampus. Science, 341, 387-391.

De la correlación a la causalidad en la neurociencia del aprendizaje

Durante los últimos años han sido muchos los experimentos de neurociencias que han confirmado un supuesto fundamental de las teorías clásicas del aprendizaje asociativo: el aprendizaje está guiado por un desajuste entre lo que se espera y lo que realmente sucede. Algunas zonas del cerebro parecen ser especialmente buenas candidatas para la detección de ese error que sirve de punto de partida para este proceso. Sin embargo, hasta ahora sólo disponíamos de evidencia correlacional acerca del papel de estas zonas. Los métodos optogenéticos han permitido obtener la primera evidencia experimental sobre su contribución al aprendizaje. Continúa leyendo en Ciencia Cognitiva

In memoriam John Garcia

garcia-lorenzEntre mis correos matutinos, tuve hoy la mala fortuna de descubrir que desde el pasado Octubre ya no estaba con nosotros quien fuera uno de los más importantes investigadores del condicionamiento clásico. John Garcia (1917-2012), que en esta foto aparece junto a Konraz Lorenz, pasará a la posteridad por sus famosos estudios sobre el carácter selectivo del aprendizaje asociativo. No hay un solo manual de psicología del aprendizaje que no se detenga unas páginas a describir su obra. Según la visión que se tenía del condicionamiento clásico antes de John García, cualquier estímulo se podía asociar con otro si ambos se emparejaban de forma repetida y consistente. Luces, sonidos, descargas, comida… todos ellos se consideraban funcionalmente equivalentes. Esta visión relativamente simplista del aprendizaje asociativo hundía sus raíces en el empirismo inglés y se remontaba a las leyes de la memoria planteadas por Aristóteles. John Garcia fue uno de los primeros en observar que, al contrario, los organismos están fuertemente predispuestos a aprender ciertas asociaciones y no otras. Aprender la relación entre una luz y una descarga es más fácil que aprender una posible relación entre, por ejemplo, un sabor y una descarga. Inspirados por la obra de Garcia, numeros experimentos posteriores han demostrado la existencia de este tipo de predisposiciones en nuestra propia especie. Por ejemplo, a las personas nos cuesta menos aprender una asociación entre la imagen de una serpiente y una descarga, que entre la imagen de un cuchillo y la misma descarga. Esta predisposición resulta lógica a la luz de nuestro pasado evolutivo, habida cuenta de que en nuestro hábitat natural la visión de una serpiente u otro animal peligroso tenía muchas probabilidades de acabar en un mal desenlace. Somos descendientes de los primates que resultaron ser más rápidos a la hora de aprender estas relaciones. Por desgracia, en nuestro entorno moderno nos sería más ventajoso aprender a evitar armas blancas y pistolas que arañas y serpientes. Pero no es así como funciona la mente humana. Y tampoco la del resto de animales. Los experimentos de Garcia planteaban una visión innovadora de la conducta que ponía de manifiesto hasta qué punto los mecanismos genéticos y la experiencia interactúan para producir las formas más rudimentarias de aprendizaje. El estudio moderno del aprendizaje asociativo no puede entenderse sin él.

Cómo se mantiene el optimismo irrealista

Ser optimista es cansado. Ser irrealistamente optimista es muy cansado. Décadas de dinero atrás no impiden que cada año volvamos a comprar un nuevo décimo de lotería de Navidad y nos deleitemos imaginando qué haríamos si el gordo cayera en nuestras manos. Y afortunadamente ningún fracaso previo nos puede convencer de que el resultado de esta dieta será el mismo que el del todas las anteriores. Ser más optimista de lo que los hechos permiten supone hacer un esfuerzo constante por ignorar toda la información que te indica que estás equivocado.

Curiosamente, estos hechos cotidianos son difíciles de reconciliar con las principales teorías del aprendizaje que se manejan en la psicología actual. Casi todas ellas asumen que el motor del aprendizaje son los errores de predicción: esperamos que algo suceda, ese algo no sucede, consecuentemente modificamos nuestras creencias para rebajar nuestras expectativas en el futuro y cometer así un error menor. Si es así como vamos afinando nuestro conocimiento del entorno, ¿cómo es posible que haya creencias que se mantengan permanentemente a pesar de los errores de predicción que producen?

Un estudio reciente de Tali Sharot, Christoph Korn y Raymond Dolan (2011) nos proporciona algunas claves. En su experimento, los participantes tenían que evaluar cuál era la probabilidad de que a lo largo de su vida padecieran infortunios como tener cáncer, sufrir un accidente de coche o divorciarse. Inmediatamente después de cada respuesta, a los participantes se les decía cuál era de hecho la probabilidad de que le sucedieran esas desgracias a una persona tomada al azar. Todas estas preguntas se repetían en una segunda fase del estudio y los participantes tenían que volver a hacer sus estimaciones. El resultado más interesante es que estas segundas respuestas se ajustaban más a la realidad que las primeras… pero sólo cuando las expectativas iniciales de los participantes habían sido más pesimistas que el feedback que se les había dado después.

Imagina, por ejemplo, que alguien había estimado que su probabilidad de sufrir un cáncer de pulmón era de un 30%. Si a este participante le decían que la probabilidad real de sufrir cáncer de pulmón era de un 10%, entonces la siguiente vez que aparecía la pregunta el participante daba un juicio inferior al 30% inicial. Sin embargo, si se le decía que la probabilidad real de sufrir cáncer de pulmón era de un 50%, su estimación posterior apenas se veía influida por esta información. En otras palabras, sí que ajustamos nuestras expectativas cuando cometemos errores, pero sólo cuando ese ajuste favorece el optimismo.

Más interesante aún. El grado en que la información negativa afectaba o no a los juicios posteriores correlacionaba con la activación de un área cerebral, la circunvolución frontal inferior. Y el grado en que dicha circunvolución se activaba ante la información negativa correlacionaba con el optimismo rasgo (medido mediante un cuestionario independiente que los participantes rellenaban al final del experimento).

Los resultados de este estudio sugieren que para explicar cómo se mantiene el optimismo irrealista, los modelos de aprendizaje tienen que asumir que el impacto de los errores de predicción no es independiente del valor afectivo de esos errores. Los errores “pesimistas” se corrigen más que los “optimistas”. Más aún, nos indica qué zonas cerebrales pueden estar involucradas en este proceso y cómo la mayor o menor activación de esas zonas ante la información negativa se relaciona con características de personalidad relativamente estables. ¡Y todo ello en apenas cinco hojas!

__________

Sharot, T., Korn, C. W., & Dolan, R. J. (2011). How unrealistic optimism is maintained in the face of reality. Nature Neuroscience, 14, 1474-1479. doi: 10.1038/nn.2949

Aprender lo justo, pero no más

Un importante reto de la psicología cognitiva es entender cómo aprendemos a ignorar información redundante y a codificar sólo la información imprescindible. En el ámbito de la psicología del aprendizaje, pocos fenómenos nos han dado tanta información sobre el carácter selectivo del aprendizaje como el efecto de bloqueo, ampliamente investigado en todo tipo de preparaciones experimentales con animales y humanos. Cuatro décadas después de los primeros estudios sobre este fenómeno, el bloqueo continúa en el centro de todas las discusiones teóricas sobre el aprendizaje, convirtiéndose en el campo de batalla sobre el que se libran los debates entre los partidarios de explicaciones asociativas y los defensores de explicaciones racionales. Continúa leyendo en Ciencia Cognitiva

Ignorar para recordar

Tras largos meses de espera, el mes de marzo finalmente nos trajo la buena noticia de que nuestro artículo sobre interferencia e inhibición se aceptaba en el British Journal of Psychology. Se trata una vez más del resultado de la fructífera colaboración entre los equipos Labpsico, de la Universidad de Deusto, y Causal Cognition Group, de la Universidad de Málaga, a los que ahora se añade la Universidad Nacional de Educación a Distancia gracias a la participación de Cristina Orgaz. En este artículo introducimos en el ámbito de la psicología del aprendizaje asociativo una idea que está en el centro de las actuales investigaciones sobre memoria. Se trata del papel que juega la inhibición de representaciones mentales en la recuperación selectiva de información.

De acuerdo con la visión más actual que se tiene de la memoria humana, para poder recuperar eficazmente cierta información no sólo hace falta saber encontrarla y activarla, sino que también es imprescindible ignorar activamente cualquier información que pueda estar relacionada (y que por tanto pueda estar “en la punta de la lengua” por así decirlo) pero que sin embargo sea irrelevante en ese momento. Por ejemplo, ser capaz de recordar el nombre de alguien depende tanto de encontrar ese nombre en nuestro almacén de recuerdos, como de evitar la activación errónea de nombres parecidos o relacionados. ¿Cuántas veces ha sido incapaz de recordar el nombre de un actor porque se le venía a la cabeza el nombre de otro actor? Evitar este tipo de problemas requiere inhibir activamente las representaciones mentales de cualquier información potencialmente distractora.

En este artículo, intentamos demostrar que algo similar podría estar sucediendo en una serie de efectos estudiados por los psicólogos del aprendizaje bajo el nombre de interferencia entre resultados. Esta interferencia es la que tiene lugar cuando un estímulo predice cosas diferentes en momentos diferentes. Si recuerda algo de los famosos experimentos de Pavlov, allí se le enseñaba a un grupo de perros que cuando sonaba una campana después se les iba a dar comida. Pero a veces Pavlov probaba a enseñarles después lo contrario: oír la campana ya no indicaba que después se fuera a administrar comida. De esta forma, la campana se convertía en un estímulo ambiguo. Algo parecido les sucede a los pacientes fóbicos que después de toda una vida teniendo miedo a cierto objeto deben aprender que ese estímulo ya no está emparejado con ninguna consecuencia negativa. Nuestro estudio indica que la inhibición de la representación mental de ese estímulo que solía acompañar a otro, pero ya no lo hace, es un proceso fundamental para lidiar con este tipo de situaciones.

__________

Vadillo, M. A., Orgaz, C., Luque, D., Cobos, P. L., López, F. J., & Matute, H. (in press). The role of outcome inhibition in interference between outcomes: A contingency-learning analogue of retrieval-induced forgetting. British Journal of Psychology.

¿Usamos sólo el 10% del cerebro?

Hace pocos días se me acercó un voluntario de una conocida secta de las que salvan tu alma contrarrebolso. Me tendió una pequeña hoja de papel que me recordaba que sólo usamos un 10% de nuestro cerebro y que por un módico precio me podían enseñar a usar más, como quien va al fnac a que le pongan más memoria a su ordenador. El hombre se quedó tan contento, mirándome como si me hubiera hecho el favor de mi vida.

Recientemente he aprendido que la idea de que sólo usamos el 10% del cerebro podría tener su origen en una frase desafortunada de William James, que afirmó que la mayor parte de las personas no desarrollan más del 10% de su capacidad intelectual. Algunos quisieron revestir la idea de más cientificidad sustituyendo “capacidad intelectual” por “cerebro”. Más recientemente, el mito fue popularizado por el parapsicompresario Uri Geller. Sí, aquel que doblaba cucharas y arreglaba relojes a distancia.

Ha leído bien en la línea superior: se trata de un simple y burdo mito. O, mejor aún, una leyenda urbana, una mentira de esas que repetida mil veces se convierte en verdad. Le puedo asegurar que usted usa el 100% de su cerebro. Hasta el pobre bendito que me acercó aquel papelajo lo hace. Lo que es más difícil es entender por qué la gente cree a quienes hacen afirmaciones de este tipo.

Es posible que usted haya visto los típicos gráficos de estudios de neuroimagen en los que se resaltan con colores vivos las zonas del cerebro que parecen estar particularmente implicadas en algún proceso mental. Viendo esos gráficos, en los que casi todo el cerebro aparece en gris y negro con unas pocas manchas de color dispersas aquí y allá, es tentador pensar que esos cerebros han estado “apagados” durante todo el experimento y que sólo esas escasas zonas de color se han “encendido”. Nada más lejos de la verdad. Ojalá fuera así de fácil estudiar el funcionamiento del cerebro. Por desgracia para los neurocientíficos el cerebro está permanentemente activo, incluso cuando realizamos las tareas mentales más sencillas. No hay ninguna zona cerebral que esté ahí desactivada, a la espera de que surja una tarea que la despierte de su letargo. Lo que sí es cierto que es unas tareas demandan más trabajo de unas zonas cerebrales que de otras. Precisamente, lo que aparece marcado con colores en esos gráficos son las zonas que están más o menos activadas durante una tarea “experimental” (en la que interviene un proceso mental) que durante una tarea “control” (idéntica a la primera pero sin requerir ese proceso mental). Dicho de otra forma, las zonas que aparecen en gris no son partes del cerebro que no se estén utilizando, sino zonas del cerebro que actúan de la misma forma durante la tarea experimental y la tarea control.

Es posible que usted haya visto algún documental enseñando cómo se practica la cirugía cerebral. Una de las cosas que más nos sorprende a todos acerca de estas operaciones es que con mucha frecuencia se realizan con anestesia local, manteniendo al paciente completamente consciente mientras se interviene en su cerebro. Esto se hace porque les permite a los cirujanos estimular partes del cerebro antes de hacer nada sobre ellas. Así pueden saber qué función tiene esa zona antes de dañarla. El gran problema al que se enfrentan los cirujanos es que no se puede seccionar ninguna parte del cerebro sin afectar a su rendimiento. No hay ninguna zona “prescindible” por donde se pueda meter el bisturí en busca del tumor o el aneurisma. Lo que los médicos sí pueden hacer es asegurarse al menos de que no van a romper nada que afecte de forma dramática a la vida del paciente. Puestos a perder facultades, es mejor tener una leve dificultad para discriminar sonidos agudos que contraer una parálisis total del brazo derecho o perder la capacidad de articular palabra. Si sólo usáramos un 10% del cerebro nada de esto sería necesario. Uno casi podría meter el cuchillo por cualquier lado confiando en no tener la mala suerte de acertarle al único 10% que sirve para algo.

Cuando se compara la anatomía de las especies animales a las que hemos domesticado con sus equivalentes salvajes enseguida percibimos una diferencia crucial: las especies domesticadas tienen cerebros más pequeños que las especies que viven en libertad. Es lógico. Los animales domésticos no tienen que luchar por sobrevivir ni su reproducción depende de ser más o menos inteligentes. Que una vaca se reproduzca más o menos depende más de cuánta leche dé que de su capacidad para huir de los depredadores. Los perros tampoco necesitan cazar en grupo para sobrevivir, como lo hacen los lobos. Les basta con lloriquearle un poco a su dueño y ponerle carita de pena. La razón por la que el cerebro de estos animales se reduce progresivamente es que el sistema nervioso es uno de los tejidos más “caros” del cuerpo. El cerebro humano apenas representa un 2-3% del peso corporal, pero consume un 20% del oxígeno que respiramos. Cada vez que siente hambre a media mañana y asalta la nevera, una parte muy significativa de lo que come se gasta en mantener vivo su cerebro. Tener un órgano tan exquisito y exigente merece la pena en términos evolutivos si aumenta nuestras posibilidades de sobrevivir y reproducirnos. Pero si sólo vamos a usar un 10%, el gasto no merece la pena. Mantener vivo a un 90% de tejido cerebral “parásito” es un lujo que ninguna especie se puede permitir, ni siquiera la humana.

In memoriam Ulric Neisser

El pasado 17 de Febrero, fallecía a los 83 años Ulric Neisser. Con la muerte del profesor de Cornell, nos abandonaba una figura clave e insustituible de la historia de la psicología. Como otros tantos investigadores de origen alemán, Neisser comenzó su andadura en el mundo de la psicología atraído por la Gestalt y pronto empezó a realizar sus propias investigaciones (al parecer algunas de ellas en el campo de la percepción extrasensorial). Sin embargo, opinaba que la psicología gestáltica carecía del rigor metodológico que cabría exigirle a una ciencia seria. Tal vez fuera su insatisfacción con los problemas de la Gestalt junto con la escasa profundidad psicológica de la otra corriente dominante del momento, el conductismo, lo que le llevara a ser el fundador (junto con otros) de la psicología cognitiva, que pretende aunar el mentalismo de la psicología gestáltica con el rigor metodológico del conductismo. Su libro de1967, Cognitive psychology es precisamente una de las obras fundacionales de este nuevo enfoque. En él se combinan por primera vez y con habilidad magistral las teorías del procesamiento de la información, la inteligencia artificial, la simulación de procesos cognitivos y la experimentación psicológica. Quien fuera el padre de esta corriente de pensamiento, fue también uno de sus primeros críticos. En Cognition and reality, publicado en 1976, criticaba a los psicólogos cognitivos por fundamentar sus investigaciones en situaciones de laboratorio exageradamente artificiales y con poca o ninguna relevancia para la solución de problemas prácticos y para la compresión de la conducta humana en su ambiente natural. La psicología actual no puede olvidar a Neisser sin perder buena parte de su esencia. Y no lo hará.

Qué es un contexto temporal

Uno de los fenómenos más conocidos pero menos entendidos de la psicología contemporánea es que el mero paso del tiempo influye en cómo nos comportamos y en cómo utilizamos la información que hemos adquirido. Si nos vemos involucrados en un juicio y nuestro futuro depende del veredicto de un jurado, no es lo mismo que los alegatos a nuestro favor se formulen al principio o al final. Y tampoco es lo mismo que el jurado deba pronunciarse justo tras oír los alegatos o un tiempo después. Sabemos que todo esto influye en la decisión del jurado.

El estudio de estos fenómenos es cualquier cosa menos nuevo. El lector recordará que a Pavlov se le conoce entre otras cosas por demostrar que si cada que damos de comer a un perro hacemos sonar una campana antes de darle la comida, siempre que en el futuro oiga la campana el animal comenzará a salivar. Lo cierto es que Pavlov no fue el descubridor del condicionamiento clásico, pero sí que fue el primer científico que investigó sistemáticamente este fenómeno. Descubrió, por ejemplo, que aunque el perro hubiera aprendido a salivar al oír la campana, si la campana empezaba a presentarse de forma aislada sin ir acompañada de la comida llegaba un momento que este reflejo desaparecía o, en términos técnicos, se extinguía. Lo curioso es que si se dejaba pasar un tiempo sin que el animal oyera la campana, ese reflejo podía reaparecer. Es decir, una conducta que parecía haberse desaprendido, por así decirlo, reaparecía con el paso del tiempo.

Para explicar este tipo de fenómenos, los psicólogos cognitivos suelen decir que algunas experiencias están íntimamente ligadas al contexto en el que se aprendieron. Por ejemplo, si teníamos miedo a las arañas y vamos a un psicoterapeuta para que nos trate este miedo, puede llegar un momento en el que nuestra fobia desaparezca en la consulta. Sin embargo, nada garantiza que cuando volvamos a casa y nos encontremos con una araña nuestro miedo no pueda volver a aparecer. En otras palabras, lo que aprendimos en la consulta puede no generalizarse a otros contextos.

A veces estos contextos son fáciles de definir (por ejemplo, una habitación, un parque, la compañía de una persona en concreto, etc.) pero otras veces parece que es el propio paso del tiempo el que hace que salgamos de un contexto y entremos en otro. Tal es el caso en los ejemplos que hemos mencionado anteriormente, como la reaparición de los reflejos extinguidos en los experimentos de Pavlov con el paso del tiempo, o la influencia del momento del veredicto en el caso de los jurados. En el ámbito del aprendizaje asociativo, son varias las teorías que utilizan este concepto de contexto temporal para explicar cómo la conducta y la recuperación de información cambian con el paso del tiempo. Pero son teorías poco formalizadas que, por ejemplo, son difíciles de simular en un ordenador.

Afortunadamente, en los estudios sobre memoria episódica sí que contamos con teorías matemáticas que podrían servir para definir mejor qué es un contexto temporal. En una reciente colaboración entre nuestro equipo de investigación y la Universidad de Queensland (Matute, Lipp, Vadillo, & Humphreys, 2011) proponemos una alianza entre estas teorías matemáticas sobre la memoria episódica y los estudios sobre los contextos temporales que se han realizado tradicionalmente en el área del aprendizaje asociativo. Por una parte, nuestros experimentos intentan replicar con tareas de aprendizaje predictivo fenómenos ya que habían sido investigados en el área de la memoria episódica y que muestran cómo al ver eventos asociados a un contexto temporal concreto se activan nuestros recuerdos de otros eventos que también aparecieron en aquel contexto. Además mostramos que esta combinación de teorías del aprendizaje y teorías de la memoria permite realizar predicciones novedosas que difícilmente se habrían considerado en cualquiera de esas áreas por separado.

_________

Matute, H., Lipp, O. V., Vadillo, M. A., & Humphreys, M. S. (2011). Temporal contexts: Filling the gap between episodic memory and associative learning. Journal of Experimental Psychology: General, 140, 660-673.