Manos calientes y jugadores falaces

Una creencia popular del mundo del baloncesto es que de vez en cuando algunos jugadores entran en racha y que cuando eso sucede lo mejor que pueden hacer sus compañeros de equipo es pasarle la pelota al afortunado tan pronto como les sea posible. En casi todos los libros de texto este fenómeno, conocido como “la mano caliente”, aparece como un ejemplo de superstición, fruto de nuestra tendencia a percibir patrones donde sólo hay ruido y azar. Sin embargo, también se han publicado estudios que defienden que la mano caliente es un fenómeno real que tiene lugar en terrenos tan diversos como el golf, los dardos o incluso las apuestas por internet. Los resultados de un ingenioso estudio de Juemin Xu y Nigel Harvey se decantan por esta segunda opción.

Estos autores solicitaron a una empresa de apuestas por internet que les facilitara los datos de una muestra de jugadores de diversos países. Gracias a ello pudieron obtener información sobre más de medio millón de apuestas realizadas por 776 jugadores. El análisis de estos datos muestra claramente que un jugador tiene más probabilidades de ganar cuantas más veces seguidas haya ganado anteriormente. Es decir, si el jugador ha ganado una vez, tiene más probabilidades de ganar una segunda vez. Si ha ganado dos veces, tiene más probabilidades de ganar una tercera. Y así sucesivamente.

Sin embargo, el mecanismo por el que esto sucede es totalmente paradójico. A medida que los participantes ganan más y más veces, empiezan a arriesgarse menos en sus apuestas. Es como si creyeran que cuantas más veces han ganado, tanto más probable es que su suerte cambie para peor. Esta creencia es lo que en la literatura psicológica se conoce como falacia del jugador. El ejemplo clásico sería el de una persona que cree erróneamente que después de tirar una moneda al aire cinco veces y obtener cinco caras consecutivas lo más probable es que la siguiente tirada salga cruz. Al parecer esto mismo es lo que creen quienes juegan a las apuestas: A medida que van ganando más y más veces consecutivas, empiezan a pensar que en la siguiente apuesta podrían perder, y por tanto cada vez hacen apuestas menos arriesgadas. El resultado es que como arriesgan menos, en realidad tienen más probabilidades de ganar. Y paradójicamente esto hace que cuantas más veces seguidas hayan ganado, más aumentan las probabilidades de que vuelvan a ganar en la siguiente apuesta.

__________

Xu, J., & Harvey, N. (2014). Carry on winning: The gambler’s fallacy creates hot hand effects in online gambling. Cognition, 131, 173-180.

Advertisements

Sesgos cognitivos, en Wawancara

Antonio Montesinos tuvo la amabilidad de entrevistarme para su genial revista, Wawancara. Pasamos más de una hora hablando sobre la ciencia, sobre sesgos cognitivos, y sobre todo riéndonos mucho. En algún momento creo que estuvimos cerca de arreglar los grandes problemas del mundo. Pero nos faltó eso, un poco. Puedes encontrar la entrevista aquí.

Cómo enseñar el pensamiento crítico: El valor de la investigación básica

Se cuenta que cuando la reina Victoria y los miembros del gobierno británico visitaron el laboratorio de Michael Faraday lo primero que le preguntaron es para qué servían todos aquellos aparatos y experimentos. La respuesta de Faraday es ya legendaria: “¿Para qué sirve un niño, madame?”. Pero a pesar de su genialidad, imagino que esta pregunta de poco o nada sirvió para cambiar la actitud de la reina, que posiblemente abandonó la sala con el mismo interés por la ciencia que tenía al entrar en ella. Seguramente, en aquel momento nadie habría podido convencerla de que en un futuro no tan lejano las personas apenas podrían vivir cinco minutos sin pulsar un interruptor.

Aunque ha pasado más de un siglo, quienes nos dedicamos a la investigación básica aún nos enfrentamos casi a diario a las críticas de quienes, como la reina Victoria, no tienen ningún interés en la ciencia básica ni entienden que se utilice dinero público para financiar un tipo de investigación que no tiene por objetivo directo solucionar ningún problema real o tener un impacto en la vida cotidiana. En algunos ámbitos, como el de la psicología, a menudo somos vistos como bichos raros por parte de quienes dicen investigar, qué sé yo, cómo se adaptan los niños al divorcio de los padres o cuál es la mejor estrategia para dejar de fumar. Tampoco es mejor la actitud de las instituciones que financian la investigación (o solían hacerlo hasta hace tres años), con su permanente insistencia en que cualquier proyecto de investigación debe incluir un apartado sobre posibles aplicaciones, incluso si se trata de un proyecto de investigación básica.

Sin embargo, la realidad nos muestra una y otra vez que las ideas que mayor impacto llegan a tener en la vida cotidiana son precisamente las que surgen de la investigación básica. ¿Alguien se imagina a Watson y Crick pensando en la insulina transgénica mientras descifraban el código de la vida? ¿O a Turing pensando en cómo serían los sistemas operativos de los smartphones? Un estudio reciente de mis compañeros de Labpsico muestra que lo que vale para la genética y la informática también se aplica a la psicología.

Los psicólogos de la memoria, el aprendizaje y el razonamiento llevamos décadas indagando en los procesos cognitivos que nos permiten descubrir patrones en nuestro entorno, almacenar esa información y utilizarla cuando una situación así lo requiere. Casi nada de esa investigación se realiza con el propósito expreso de ayudar a la gente a solucionar sus problemas cotidianos. Sin embargo, a lo largo del camino inevitablemente se van descubriendo hechos que nos ayudan a entender por qué las personas tenemos ciertos problemas y qué se puede hacer para solucionarlos. Un ejemplo perfecto es la literatura sobre supersticiones y sesgos cognitivos. Gracias a cientos de experimentos sabemos que existen situaciones que invitan a casi cualquier persona a razonar de forma errónea, independientemente de su formación, cultura o inteligencia.

Partiendo de esta literatura, Itxaso Barbería, Fernando Blanco, Carmelo Cubillas y Helena Matute han diseñado un programa de intervención que pretende dotar a los niños y adolescentes del escepticismo necesario para no caer en las supersticiones más frecuentes en nuestra sociedad. Yo mismo tuve la suerte de colaborar en un par de sesiones y ser testigo de sus asombrosos resultados. La investigación básica revela que varios mecanismos están involucrados en el desarrollo de este tipo de creencias supersticiosas. Uno de ellos es la insensibilidad a la tasa base con la que suceden ciertos eventos. Por ejemplo, si todas las veces que tenemos un catarro tomamos un remedio homeopático y si siempre que así lo hacemos mejoramos al día siguiente, es tentador pensar que ese remedio es el responsable de la mejoría. Pero la pregunta es: ¿qué habría pasado si no lo hubiéramos tomado? A menudo o no disponemos de esa información (porque si creemos que la homeopatía funciona entonces no probamos a no tomarla) o si la tenemos, la ignoramos.

En la intervención diseñada por Barbería y colaboradores, a los niños se les confrontaba directamente con una situación de este tipo con la esperanza de que cayeran en el error. Imitando al marketing de las famosas pulseras Power Balance, se les decía que estudios recientes habían demostrado que una sustancia con propiedades electromagnéticas peculiares podía aumentar el rendimiento cognitivo y físico. A los niños se les invitaba a realizar diversos ejercicios de fuerza y flexibilidad mientras cogían una pequeña pieza de esa sustancia con la mano. También se les pedía que hicieran ejercicios mentales (por ejemplo, resolver laberintos) mientras sostenían la barrita metálica. Posteriormente, se les preguntaba si les había parecido que la pieza funcionaba. Aunque algunos eran un poco más escépticos, la mayor parte de ellos confesaba que sí. Algunos incluso habrían estado dispuestos a pagar por ella. Sin embargo, era imposible que esa pieza metálica estuviera teniendo ningún efecto. Las piezas estaban sacadas en realidad del motor de un secador de pelo.

A los niños se les confesaba abiertamente que acababan de ser víctimas de un engaño y a continuación se les explicaba por qué muchos de ellos no habían caído en la cuenta. En concreto, se les señalaba que para saber si las piezas tenían algún efecto habría sido fundamental contar con una condición de control: tendrían que haber hecho los ejercicios con y sin la ayuda de la barra metálica y haber comparado su nivel de ejecución en ambas condiciones. Si hubieran hecho los ejercicios sin la barra habrían comprobado cómo en realidad lo hacían igual de bien en ambos casos. También se les aclaraba que no cualquier comparación servía: la condición de control y la “experimental” debían ser exactamente iguales. Eso quiere decir que, por ejemplo, no servía con hacer los ejercicios físicos primero sin la barra metálica y luego con ella, siempre en ese orden, porque en tal caso la mera práctica hace que el rendimiento físico sea mayor con la barra (es decir, cuando ya se tiene cierta práctica) que sin ella (cuando aún no se tiene ninguna práctica).

Lo más interesante del experimento es que tras esta explicación, todos los niños se sometían a una preparación experimental que se sabe que induce cierta ilusión de causalidad. Se trata de un procedimiento en el que los participantes tienen que imaginar que son médicos explorando la evidencia a favor y en contra de la eficacia de un medicamento. Aunque a los participantes no se les avisa de ello, la información que se les presenta sugiere que la medicina no es efectiva. Sin embargo muchas personas caen en el error de pensar que sí lo es. Los resultados de Barbería y colaboradores muestran que los niños que pasaron por este curso de pensamiento crítico luego fueron menos susceptibles a mostrar ilusión de causalidad en esta prueba experimental que otro grupo de niños similar que aún no había pasado por el curso. Por tanto, todo sugiere que esta intervención hizo a los niños más resistentes al tipo de ilusiones causales que se cree que subyacen al pensamiento mágico y supersticioso.

A nadie se le escapa que los resultados de esta investigación tienen un potencial enorme en el sistema educativo actual. Se insiste con frecuencia en que los niños deberían salir del colegio con algo más que un montón de conocimientos enciclopédicos; que deberían convertirse en adultos capaces de pensar críticamente por sí mismos. Sin embargo, hay muy pocos estudios como este que nos indiquen cómo se pueden desarrollar el escepticismo y la actitud científica. A las reinas victorianas de la psicología aplicada tal vez les cause cierto asombro que una vez más las respuestas lleguen del mundo de la investigación básica.

__________

Barbería, I., Blanco, F., Cubillas, C. P., & Matute, H. (2013). Implementation and assessment of an intervention to debias adolescents against causal illusions. PLoS ONE, 8, e71303. doi:10.1371/journal.pone.0071303

La irracionalidad humana al servicio de la caridad

Ante la manifiesta irracionalidad que caracteriza la mayor parte de nuestras decisiones caben varias reacciones. La más frecuente es alertar a la gente de nuestras limitaciones intelectuales e intentar protegerla de sus sesgos cognitivos. Una segunda opción, tal vez más práctica e interesante, es utilizar esas limitaciones en el propio beneficio de las personas y la sociedad. En un estudio que se publicará próximamente en Psychological Science, Hsee y colaboradores han recurrido a esta última estrategia para diseñar un protocolo que permita aumentar la cantidad de dinero que las personas destinan a beneficencia. Una de las características más llamativas de las donaciones es que casi nunca prestamos atención al número de personas que podrían beneficiarse de nuestro desembolso. Si, por ejemplo, nos piden dinero para pagar los materiales de un aula de educación infantil, posiblemente nuestra predisposición a dar algo y la cantidad de dinero que demos serán las mismas si nos dicen que en esa aula estudian veinte niños que si nos dicen que los beneficiarios potenciales son cuarenta. Estudios previos muestran que la disposición a donar dinero depende casi únicamente de la imagen concreta que nos viene a la mente cuando pensamos en un posible beneficiario y de la reacción afectiva que nos provoca esa imagen. El número de personas que se puedan beneficiar no entra en el cómputo, especialmente si se trata de un número elevado. Aprovechándose de lo que en principio es una limitación cognitiva, Hsee y colaboradores proponen que a la hora de pedir dinero para caridad habría que preguntar a los donantes primero cuánto dinero darían a una persona concreta y sólo después preguntarles cuánto donarían al grupo completo. Dado que nuestra inclinación inicial es la misma independientemente del número de alumnos que se vaya a beneficiar de nuestra donación, es mejor que nos pregunten primero cuánto dinero daríamos para pagar los materiales de un estudiante y que después nos pregunten cuánto daremos para el grupo de veinte estudiantes. Lógicamente, la cifra que daremos no será exactamente el resultado de multiplicar el primer número por veinte, porque la cantidad resultante seguramente superará lo que estamos dispuestos a donar. Sin embargo, seguro que tampoco daremos al grupo exactamente lo mismo que daríamos a un solo niño. Intentaremos ser coherentes y dar al grupo completo más de lo que daríamos a un solo individuo. En los tres experimentos que han realizado Hsee y colaboradores, se observa que esta estrategia funciona no sólo en un estudio de laboratorio, sino también en situaciones reales. En uno de sus experimentos de campo, los participantes eran ejecutivos adinerados a los que se pedía ayuda para financiar la carrera investigadora de setenta estudiantes de doctorado. Los ejecutivos dieron cuatro veces más dinero cuando se les preguntó cuánto darían a cada estudiante antes de preguntarles cuánto iban a dar para el grupo completo. Dicho de otra forma, el 75% de esos estudiantes le deben su beca a una simple pregunta adicional que los investigadores pusieron en un formulario. Ojalá siempre fuera tan fácil hacer el mundo cuatro veces mejor.

__________

Hsee, C. K., Zhang, J., Lu, Z. Y., & Xu, F. (in press). Unit asking: A method to boost donations and beyond. Psychological Science.

Pseudociencia en las escuelas

Cuando los divulgadores hablan de los costes que la pseudociencia tiene para la sociedad moderna casi siempre recurren a los mismos sospechosos habituales: la homeopatía, el reiki, la quiropraxia… Todos ellos en el ámbito de la salud. Por desgracia el mundo de la medicina no es el único que se ve acosado por la pseudociencia ni es donde se concentran los mayores peligros. Mientras todas las defensas se concentran en evitar que la seguridad social cubra tratamientos complementarios y alternativos, en las escuelas campan a sus anchas todo tipo de ideas felices que, para sorpresa de profesores y padres, nunca han tenido apoyo empírico ni razón de ser.

Uno puede decir, como el celebérrimo Glenn Doman, que todos los niños son genios y que se les puede enseñar a leer y multiplicar antes de que cumplan un año y quedarse tan ancho. O peor aún, convertirse en un autor de referencia, con decenas miles de seguidores en el mundo entero. Tal vez usted no lo sepa, pero si tiene hijos pequeños o sobrinos en el colegio es más que probable que estas ideas se estén ensayando con ellos. ¿En qué evidencia se basan estas prácticas? En ninguna. Y se trata de un ejemplo entre muchos. No necesariamente el más preocupante.

Por eso son más necesarios que nunca artículos como el que acaban de publicar Scott Lilienfeld, Rachel Ammirati y Michael David en el Journal of School Psychology. El texto comienza con una señal de alarma: una pequeña sección sobre la preocupante distancia que aleja a los psicólogos educativos de la investigación científica. Unos pocos ejemplos bastan para sembrar la preocupación. Sistemas de enseñanza de la lectura que sabemos que son contraproducentes, técnicas diagnósticas sin valor predictivo, programas antidrogas que siguen implantándose en los centros aún sabiendo que no funcionan, todo tipo de creencias falsas sobre el (inexistente) aumento en la prevalencia del autismo…

Aunque Lilienfeld y colaboradores posiblemente lo ignoran, muchas de las prácticas que critican son recibidas con aplausos en los centros escolares españoles mientras escribo estas líneas. El método global de la enseñanza de la lectura es uno de los más sangrantes. Desde hace algunos años, en muchos centros educativos ya no se enseñan las reglas fonéticas. Aquello de que la “b” con la “a”, “ba”. Ahora se enseña a los niños una palabra completa, por ejemplo “árbol”, junto a un dibujo que representa el concepto. La idea es que haciendo esto con muchas palabras, los niños acabarán descifrando las reglas de la lectura. ¿Funciona? Bueno, algunos niños podrían aprender a leer casi sin que los adultos les enseñaran nada. Pero la evidencia señala que el método global falla con muchos niños. El viejo sistema supera con creces al de las palabras completas, pero por desgracia esta evidencia no llega a los colegios.

Tampoco es diferente el veredicto que hacen Lilienfeld y colaboradores de otra idea que se ha hecho fuerte en nuestras escuelas: la llamada teoría de los estilos de aprendizaje. Lo que esta teoría tiene de cierto es sentido común y lo que va más allá es pura pseudociencia. Que cada niño es diferente y que no siempre los métodos que son mejores para enseñar a unos niños son los mejores para enseñar a otros apenas es algo que pueda sorprender. Pero pasar de ahí a decir que disponemos de un buen sistema para diagnosticar cuál es el estilo de aprendizaje de cada alumno o que sabemos cómo trasladar esa información a prácticas educativas personalizadas para cada alumno es otra cosa. Lo cierto es que ni siquiera disponemos de un buen sistema de categorías para “clasificar” a los estudiantes. Las clasificaciones que se usan en las escuelas son tan burdas como decir que unos estudiantes son “visuales” y otros son “auditivos”. De nuevo, no tenemos ninguna evidencia empírica para sostener que estas clasificaciones son útiles y que los niños aprenden mejor cuando se llevan a la práctica estas ideas. Pero esto no impide que sean el último grito en “innovación” educativa. De hecho, no queda muy lejos de estas ideas la llamada teoría de las inteligencias múltiples, cuyo autor ha recibido nada menos que el Príncipe de Asturias de Ciencias Sociales del año 2011.

El artículo de Lilienfeld, Ammirati y David no pretende ser una simple denuncia de esta situación. De hecho, ni siquiera es su principal objetivo. La mayor parte del artículo está destinada a explicar las razones por las que creemos con tanta facilidad en estas teorías erróneas y, lo más importante, dar un pequeño número de consejos para ayudarnos a combatirlas, en nosotros mismos y en los demás. Si una práctica educativa no se a basa en estudios rigurosos sino en evidencia anecdótica, si una teoría está planteada de una forma que no es falsable o no puede ponerse a prueba, si se trata de ideas que no cambian ni se corrigen con el paso del tiempo, si las personas que las sostienen evitan las críticas a toda costa, si hacen “afirmaciones extraordinarias” sin disponer de “evidencia extraordinaria”… lo menos que podemos hacer es recelar.

__________

Lilienfeld, S. O., Ammirati, R., & David, M. (2012). Distinguishing science from pseudoscience in school psychology: Science and scientific thinking as safeguards against human error. Journal of School Psychology, 50, 7-36.

Pensar rápido, pensar despacio

Dicen que hay dos tipos de personas: las que creen que hay dos tipos de personas y las que no. El genial Daniel Kahneman es de los que cree que cada uno de nosotros somos dos tipos de persona. En su último libro, Pensar rápido, pensar despacio, nos invita a conocer a los dos individuos que habitan en nuestro interior, a los que siguiendo una reciente convención en psicología cognitiva nos presenta con los nombres de Sistema 1 y Sistema 2. Si alguien nos pregunta cuánto son 4 x 4, respondemos rápidamente, sin hacer el más mínimo esfuerzo. El Sistema 1 se ha hecho cargo de la tarea. Funciona de forma automática, sin requerir la intervención de la conciencia y por mecanismos puramente asociativos. Apenas podemos controlarlo o saber cómo hace su trabajo. Como por arte de magia, nos proporciona una respuesta al problema en cuestión. Pero a veces no se enciende la bombilla. Multiplicar 4 x 4 es una cosa. ¿Pero multiplicar 121 x 27? Aquí esa “intuición” permanece en silencio y no nos deja más remedio que pararnos a pensar con detenimiento o, directamente, a coger lápiz y papel. Ahora el Sistema 2 toma las riendas. Nos embarcarnos en un procesamiento más exigente, donde las ideas van siendo barajadas, descartadas, y manipuladas una a una en el foco de nuestra conciencia. No es sencillo, pero al final damos con la solución.

Aunque deleguemos muchas tareas sin importancia en el Sistema 1, nos gusta creer que para todo lo importante confiamos en el racional y cuidadoso Sistema 2. No en vano nos hemos bautizado como Homo sapiens. Pero si algo nos demuestran décadas de psicología cognitiva es que casi siempre es el Sistema 1 quien está al mando. Con frecuencia, decisiones cruciales como dónde invertir nuestro dinero, si comprar un seguro de vida y cuál, a quién votar en las próximas elecciones o a quién confiar la educación de nuestros hijos las terminamos afrontando en base a las tentadoras “soluciones” que nos brinda el Sistema 1. Muchas veces acierta. Pero a veces falla estrepitosamente.

La gran contribución de los investigadores de la toma de decisiones, entre quienes Daniel Kahneman y el difunto Amos Tversky brillan con luz propia, es precisamente haber descubierto muchos de los trucos que emplea el Sistema 1 para presentarnos una idea como válida. A menudo, el Sistema 1 no cuenta con la información o la destreza necesaria para responder a una pregunta concreta. Cuando eso sucede, se recurre a una pequeña trampa: se sustituye esa pregunta por otra similar pero más fácil de responder. ¿Subirán más las acciones de la compañía A o las de la compañía B? No lo sé, la verdad; pero lo que sí sé es que el anuncio de la primera es más divertido. Invertiré ahí mis ahorros. ¿Es más seguro viajar en coche o en avión? Pues mira, digan lo que digan las estadísticas, en un accidente aéreo no se salva nadie. Y así sucesivamente…

A lo largo de los años hemos ido descubriendo varios de estos trucos que utiliza el Sistema 1 para buscar soluciones plausibles a diversos problemas. Uno de los más habituales es calcular cómo de probable es un evento en función de lo fácil que sea pensar en ese evento. Este heurístico de la disponibilidad es el responsable, entre otras cosas, de que nos dé miedo viajar en avión simplemente porque nos resulta fácil recordar noticas de accidentes aéreos o porque es fácil formarse una imagen vívida del suceso. Otro “sospechoso habitual” es el llamado heurístico de la representatividad: si un objeto es muy representativo de una categoría, entonces damos por sentado que pertenece a esa categoría e ignoramos cualquier otra información que lo contradiga. Por ejemplo, si en una fiesta coincidimos con alguien a quien le gusta leer y que acaba de visitar la última exposición del museo local, es tentador dar por sentado que es de letras, aunque nos digan que el 80% de las personas que están en la fiesta son ingenieros.

Estos y otros heurísticos que se revisan en el excelente libro de Kahneman nos ayudan a entender muchos de los errores sistemáticos que cometemos en nuestros razonamientos cotidianos. Pensar rápido, pensar despacio es sin duda una de las mejores y más amenas introducciones al estudio de la irracionalidad humana.

Cómo se mantiene el optimismo irrealista

Ser optimista es cansado. Ser irrealistamente optimista es muy cansado. Décadas de dinero atrás no impiden que cada año volvamos a comprar un nuevo décimo de lotería de Navidad y nos deleitemos imaginando qué haríamos si el gordo cayera en nuestras manos. Y afortunadamente ningún fracaso previo nos puede convencer de que el resultado de esta dieta será el mismo que el del todas las anteriores. Ser más optimista de lo que los hechos permiten supone hacer un esfuerzo constante por ignorar toda la información que te indica que estás equivocado.

Curiosamente, estos hechos cotidianos son difíciles de reconciliar con las principales teorías del aprendizaje que se manejan en la psicología actual. Casi todas ellas asumen que el motor del aprendizaje son los errores de predicción: esperamos que algo suceda, ese algo no sucede, consecuentemente modificamos nuestras creencias para rebajar nuestras expectativas en el futuro y cometer así un error menor. Si es así como vamos afinando nuestro conocimiento del entorno, ¿cómo es posible que haya creencias que se mantengan permanentemente a pesar de los errores de predicción que producen?

Un estudio reciente de Tali Sharot, Christoph Korn y Raymond Dolan (2011) nos proporciona algunas claves. En su experimento, los participantes tenían que evaluar cuál era la probabilidad de que a lo largo de su vida padecieran infortunios como tener cáncer, sufrir un accidente de coche o divorciarse. Inmediatamente después de cada respuesta, a los participantes se les decía cuál era de hecho la probabilidad de que le sucedieran esas desgracias a una persona tomada al azar. Todas estas preguntas se repetían en una segunda fase del estudio y los participantes tenían que volver a hacer sus estimaciones. El resultado más interesante es que estas segundas respuestas se ajustaban más a la realidad que las primeras… pero sólo cuando las expectativas iniciales de los participantes habían sido más pesimistas que el feedback que se les había dado después.

Imagina, por ejemplo, que alguien había estimado que su probabilidad de sufrir un cáncer de pulmón era de un 30%. Si a este participante le decían que la probabilidad real de sufrir cáncer de pulmón era de un 10%, entonces la siguiente vez que aparecía la pregunta el participante daba un juicio inferior al 30% inicial. Sin embargo, si se le decía que la probabilidad real de sufrir cáncer de pulmón era de un 50%, su estimación posterior apenas se veía influida por esta información. En otras palabras, sí que ajustamos nuestras expectativas cuando cometemos errores, pero sólo cuando ese ajuste favorece el optimismo.

Más interesante aún. El grado en que la información negativa afectaba o no a los juicios posteriores correlacionaba con la activación de un área cerebral, la circunvolución frontal inferior. Y el grado en que dicha circunvolución se activaba ante la información negativa correlacionaba con el optimismo rasgo (medido mediante un cuestionario independiente que los participantes rellenaban al final del experimento).

Los resultados de este estudio sugieren que para explicar cómo se mantiene el optimismo irrealista, los modelos de aprendizaje tienen que asumir que el impacto de los errores de predicción no es independiente del valor afectivo de esos errores. Los errores “pesimistas” se corrigen más que los “optimistas”. Más aún, nos indica qué zonas cerebrales pueden estar involucradas en este proceso y cómo la mayor o menor activación de esas zonas ante la información negativa se relaciona con características de personalidad relativamente estables. ¡Y todo ello en apenas cinco hojas!

__________

Sharot, T., Korn, C. W., & Dolan, R. J. (2011). How unrealistic optimism is maintained in the face of reality. Nature Neuroscience, 14, 1474-1479. doi: 10.1038/nn.2949