Manos calientes y jugadores falaces

Una creencia popular del mundo del baloncesto es que de vez en cuando algunos jugadores entran en racha y que cuando eso sucede lo mejor que pueden hacer sus compañeros de equipo es pasarle la pelota al afortunado tan pronto como les sea posible. En casi todos los libros de texto este fenómeno, conocido como “la mano caliente”, aparece como un ejemplo de superstición, fruto de nuestra tendencia a percibir patrones donde sólo hay ruido y azar. Sin embargo, también se han publicado estudios que defienden que la mano caliente es un fenómeno real que tiene lugar en terrenos tan diversos como el golf, los dardos o incluso las apuestas por internet. Los resultados de un ingenioso estudio de Juemin Xu y Nigel Harvey se decantan por esta segunda opción.

Estos autores solicitaron a una empresa de apuestas por internet que les facilitara los datos de una muestra de jugadores de diversos países. Gracias a ello pudieron obtener información sobre más de medio millón de apuestas realizadas por 776 jugadores. El análisis de estos datos muestra claramente que un jugador tiene más probabilidades de ganar cuantas más veces seguidas haya ganado anteriormente. Es decir, si el jugador ha ganado una vez, tiene más probabilidades de ganar una segunda vez. Si ha ganado dos veces, tiene más probabilidades de ganar una tercera. Y así sucesivamente.

Sin embargo, el mecanismo por el que esto sucede es totalmente paradójico. A medida que los participantes ganan más y más veces, empiezan a arriesgarse menos en sus apuestas. Es como si creyeran que cuantas más veces han ganado, tanto más probable es que su suerte cambie para peor. Esta creencia es lo que en la literatura psicológica se conoce como falacia del jugador. El ejemplo clásico sería el de una persona que cree erróneamente que después de tirar una moneda al aire cinco veces y obtener cinco caras consecutivas lo más probable es que la siguiente tirada salga cruz. Al parecer esto mismo es lo que creen quienes juegan a las apuestas: A medida que van ganando más y más veces consecutivas, empiezan a pensar que en la siguiente apuesta podrían perder, y por tanto cada vez hacen apuestas menos arriesgadas. El resultado es que como arriesgan menos, en realidad tienen más probabilidades de ganar. Y paradójicamente esto hace que cuantas más veces seguidas hayan ganado, más aumentan las probabilidades de que vuelvan a ganar en la siguiente apuesta.

__________

Xu, J., & Harvey, N. (2014). Carry on winning: The gambler’s fallacy creates hot hand effects in online gambling. Cognition, 131, 173-180.

Sesgos cognitivos, en Wawancara

Antonio Montesinos tuvo la amabilidad de entrevistarme para su genial revista, Wawancara. Pasamos más de una hora hablando sobre la ciencia, sobre sesgos cognitivos, y sobre todo riéndonos mucho. En algún momento creo que estuvimos cerca de arreglar los grandes problemas del mundo. Pero nos faltó eso, un poco. Puedes encontrar la entrevista aquí.

Cómo enseñar el pensamiento crítico: El valor de la investigación básica

Se cuenta que cuando la reina Victoria y los miembros del gobierno británico visitaron el laboratorio de Michael Faraday lo primero que le preguntaron es para qué servían todos aquellos aparatos y experimentos. La respuesta de Faraday es ya legendaria: “¿Para qué sirve un niño, madame?”. Pero a pesar de su genialidad, imagino que esta pregunta de poco o nada sirvió para cambiar la actitud de la reina, que posiblemente abandonó la sala con el mismo interés por la ciencia que tenía al entrar en ella. Seguramente, en aquel momento nadie habría podido convencerla de que en un futuro no tan lejano las personas apenas podrían vivir cinco minutos sin pulsar un interruptor.

Aunque ha pasado más de un siglo, quienes nos dedicamos a la investigación básica aún nos enfrentamos casi a diario a las críticas de quienes, como la reina Victoria, no tienen ningún interés en la ciencia básica ni entienden que se utilice dinero público para financiar un tipo de investigación que no tiene por objetivo directo solucionar ningún problema real o tener un impacto en la vida cotidiana. En algunos ámbitos, como el de la psicología, a menudo somos vistos como bichos raros por parte de quienes dicen investigar, qué sé yo, cómo se adaptan los niños al divorcio de los padres o cuál es la mejor estrategia para dejar de fumar. Tampoco es mejor la actitud de las instituciones que financian la investigación (o solían hacerlo hasta hace tres años), con su permanente insistencia en que cualquier proyecto de investigación debe incluir un apartado sobre posibles aplicaciones, incluso si se trata de un proyecto de investigación básica.

Sin embargo, la realidad nos muestra una y otra vez que las ideas que mayor impacto llegan a tener en la vida cotidiana son precisamente las que surgen de la investigación básica. ¿Alguien se imagina a Watson y Crick pensando en la insulina transgénica mientras descifraban el código de la vida? ¿O a Turing pensando en cómo serían los sistemas operativos de los smartphones? Un estudio reciente de mis compañeros de Labpsico muestra que lo que vale para la genética y la informática también se aplica a la psicología.

Los psicólogos de la memoria, el aprendizaje y el razonamiento llevamos décadas indagando en los procesos cognitivos que nos permiten descubrir patrones en nuestro entorno, almacenar esa información y utilizarla cuando una situación así lo requiere. Casi nada de esa investigación se realiza con el propósito expreso de ayudar a la gente a solucionar sus problemas cotidianos. Sin embargo, a lo largo del camino inevitablemente se van descubriendo hechos que nos ayudan a entender por qué las personas tenemos ciertos problemas y qué se puede hacer para solucionarlos. Un ejemplo perfecto es la literatura sobre supersticiones y sesgos cognitivos. Gracias a cientos de experimentos sabemos que existen situaciones que invitan a casi cualquier persona a razonar de forma errónea, independientemente de su formación, cultura o inteligencia.

Partiendo de esta literatura, Itxaso Barbería, Fernando Blanco, Carmelo Cubillas y Helena Matute han diseñado un programa de intervención que pretende dotar a los niños y adolescentes del escepticismo necesario para no caer en las supersticiones más frecuentes en nuestra sociedad. Yo mismo tuve la suerte de colaborar en un par de sesiones y ser testigo de sus asombrosos resultados. La investigación básica revela que varios mecanismos están involucrados en el desarrollo de este tipo de creencias supersticiosas. Uno de ellos es la insensibilidad a la tasa base con la que suceden ciertos eventos. Por ejemplo, si todas las veces que tenemos un catarro tomamos un remedio homeopático y si siempre que así lo hacemos mejoramos al día siguiente, es tentador pensar que ese remedio es el responsable de la mejoría. Pero la pregunta es: ¿qué habría pasado si no lo hubiéramos tomado? A menudo o no disponemos de esa información (porque si creemos que la homeopatía funciona entonces no probamos a no tomarla) o si la tenemos, la ignoramos.

En la intervención diseñada por Barbería y colaboradores, a los niños se les confrontaba directamente con una situación de este tipo con la esperanza de que cayeran en el error. Imitando al marketing de las famosas pulseras Power Balance, se les decía que estudios recientes habían demostrado que una sustancia con propiedades electromagnéticas peculiares podía aumentar el rendimiento cognitivo y físico. A los niños se les invitaba a realizar diversos ejercicios de fuerza y flexibilidad mientras cogían una pequeña pieza de esa sustancia con la mano. También se les pedía que hicieran ejercicios mentales (por ejemplo, resolver laberintos) mientras sostenían la barrita metálica. Posteriormente, se les preguntaba si les había parecido que la pieza funcionaba. Aunque algunos eran un poco más escépticos, la mayor parte de ellos confesaba que sí. Algunos incluso habrían estado dispuestos a pagar por ella. Sin embargo, era imposible que esa pieza metálica estuviera teniendo ningún efecto. Las piezas estaban sacadas en realidad del motor de un secador de pelo.

A los niños se les confesaba abiertamente que acababan de ser víctimas de un engaño y a continuación se les explicaba por qué muchos de ellos no habían caído en la cuenta. En concreto, se les señalaba que para saber si las piezas tenían algún efecto habría sido fundamental contar con una condición de control: tendrían que haber hecho los ejercicios con y sin la ayuda de la barra metálica y haber comparado su nivel de ejecución en ambas condiciones. Si hubieran hecho los ejercicios sin la barra habrían comprobado cómo en realidad lo hacían igual de bien en ambos casos. También se les aclaraba que no cualquier comparación servía: la condición de control y la “experimental” debían ser exactamente iguales. Eso quiere decir que, por ejemplo, no servía con hacer los ejercicios físicos primero sin la barra metálica y luego con ella, siempre en ese orden, porque en tal caso la mera práctica hace que el rendimiento físico sea mayor con la barra (es decir, cuando ya se tiene cierta práctica) que sin ella (cuando aún no se tiene ninguna práctica).

Lo más interesante del experimento es que tras esta explicación, todos los niños se sometían a una preparación experimental que se sabe que induce cierta ilusión de causalidad. Se trata de un procedimiento en el que los participantes tienen que imaginar que son médicos explorando la evidencia a favor y en contra de la eficacia de un medicamento. Aunque a los participantes no se les avisa de ello, la información que se les presenta sugiere que la medicina no es efectiva. Sin embargo muchas personas caen en el error de pensar que sí lo es. Los resultados de Barbería y colaboradores muestran que los niños que pasaron por este curso de pensamiento crítico luego fueron menos susceptibles a mostrar ilusión de causalidad en esta prueba experimental que otro grupo de niños similar que aún no había pasado por el curso. Por tanto, todo sugiere que esta intervención hizo a los niños más resistentes al tipo de ilusiones causales que se cree que subyacen al pensamiento mágico y supersticioso.

A nadie se le escapa que los resultados de esta investigación tienen un potencial enorme en el sistema educativo actual. Se insiste con frecuencia en que los niños deberían salir del colegio con algo más que un montón de conocimientos enciclopédicos; que deberían convertirse en adultos capaces de pensar críticamente por sí mismos. Sin embargo, hay muy pocos estudios como este que nos indiquen cómo se pueden desarrollar el escepticismo y la actitud científica. A las reinas victorianas de la psicología aplicada tal vez les cause cierto asombro que una vez más las respuestas lleguen del mundo de la investigación básica.

__________

Barbería, I., Blanco, F., Cubillas, C. P., & Matute, H. (2013). Implementation and assessment of an intervention to debias adolescents against causal illusions. PLoS ONE, 8, e71303. doi:10.1371/journal.pone.0071303

La irracionalidad humana al servicio de la caridad

Ante la manifiesta irracionalidad que caracteriza la mayor parte de nuestras decisiones caben varias reacciones. La más frecuente es alertar a la gente de nuestras limitaciones intelectuales e intentar protegerla de sus sesgos cognitivos. Una segunda opción, tal vez más práctica e interesante, es utilizar esas limitaciones en el propio beneficio de las personas y la sociedad. En un estudio que se publicará próximamente en Psychological Science, Hsee y colaboradores han recurrido a esta última estrategia para diseñar un protocolo que permita aumentar la cantidad de dinero que las personas destinan a beneficencia. Una de las características más llamativas de las donaciones es que casi nunca prestamos atención al número de personas que podrían beneficiarse de nuestro desembolso. Si, por ejemplo, nos piden dinero para pagar los materiales de un aula de educación infantil, posiblemente nuestra predisposición a dar algo y la cantidad de dinero que demos serán las mismas si nos dicen que en esa aula estudian veinte niños que si nos dicen que los beneficiarios potenciales son cuarenta. Estudios previos muestran que la disposición a donar dinero depende casi únicamente de la imagen concreta que nos viene a la mente cuando pensamos en un posible beneficiario y de la reacción afectiva que nos provoca esa imagen. El número de personas que se puedan beneficiar no entra en el cómputo, especialmente si se trata de un número elevado. Aprovechándose de lo que en principio es una limitación cognitiva, Hsee y colaboradores proponen que a la hora de pedir dinero para caridad habría que preguntar a los donantes primero cuánto dinero darían a una persona concreta y sólo después preguntarles cuánto donarían al grupo completo. Dado que nuestra inclinación inicial es la misma independientemente del número de alumnos que se vaya a beneficiar de nuestra donación, es mejor que nos pregunten primero cuánto dinero daríamos para pagar los materiales de un estudiante y que después nos pregunten cuánto daremos para el grupo de veinte estudiantes. Lógicamente, la cifra que daremos no será exactamente el resultado de multiplicar el primer número por veinte, porque la cantidad resultante seguramente superará lo que estamos dispuestos a donar. Sin embargo, seguro que tampoco daremos al grupo exactamente lo mismo que daríamos a un solo niño. Intentaremos ser coherentes y dar al grupo completo más de lo que daríamos a un solo individuo. En los tres experimentos que han realizado Hsee y colaboradores, se observa que esta estrategia funciona no sólo en un estudio de laboratorio, sino también en situaciones reales. En uno de sus experimentos de campo, los participantes eran ejecutivos adinerados a los que se pedía ayuda para financiar la carrera investigadora de setenta estudiantes de doctorado. Los ejecutivos dieron cuatro veces más dinero cuando se les preguntó cuánto darían a cada estudiante antes de preguntarles cuánto iban a dar para el grupo completo. Dicho de otra forma, el 75% de esos estudiantes le deben su beca a una simple pregunta adicional que los investigadores pusieron en un formulario. Ojalá siempre fuera tan fácil hacer el mundo cuatro veces mejor.

__________

Hsee, C. K., Zhang, J., Lu, Z. Y., & Xu, F. (in press). Unit asking: A method to boost donations and beyond. Psychological Science.

Pseudociencia en las escuelas

Cuando los divulgadores hablan de los costes que la pseudociencia tiene para la sociedad moderna casi siempre recurren a los mismos sospechosos habituales: la homeopatía, el reiki, la quiropraxia… Todos ellos en el ámbito de la salud. Por desgracia el mundo de la medicina no es el único que se ve acosado por la pseudociencia ni es donde se concentran los mayores peligros. Mientras todas las defensas se concentran en evitar que la seguridad social cubra tratamientos complementarios y alternativos, en las escuelas campan a sus anchas todo tipo de ideas felices que, para sorpresa de profesores y padres, nunca han tenido apoyo empírico ni razón de ser.

Uno puede decir, como el celebérrimo Glenn Doman, que todos los niños son genios y que se les puede enseñar a leer y multiplicar antes de que cumplan un año y quedarse tan ancho. O peor aún, convertirse en un autor de referencia, con decenas miles de seguidores en el mundo entero. Tal vez usted no lo sepa, pero si tiene hijos pequeños o sobrinos en el colegio es más que probable que estas ideas se estén ensayando con ellos. ¿En qué evidencia se basan estas prácticas? En ninguna. Y se trata de un ejemplo entre muchos. No necesariamente el más preocupante.

Por eso son más necesarios que nunca artículos como el que acaban de publicar Scott Lilienfeld, Rachel Ammirati y Michael David en el Journal of School Psychology. El texto comienza con una señal de alarma: una pequeña sección sobre la preocupante distancia que aleja a los psicólogos educativos de la investigación científica. Unos pocos ejemplos bastan para sembrar la preocupación. Sistemas de enseñanza de la lectura que sabemos que son contraproducentes, técnicas diagnósticas sin valor predictivo, programas antidrogas que siguen implantándose en los centros aún sabiendo que no funcionan, todo tipo de creencias falsas sobre el (inexistente) aumento en la prevalencia del autismo…

Aunque Lilienfeld y colaboradores posiblemente lo ignoran, muchas de las prácticas que critican son recibidas con aplausos en los centros escolares españoles mientras escribo estas líneas. El método global de la enseñanza de la lectura es uno de los más sangrantes. Desde hace algunos años, en muchos centros educativos ya no se enseñan las reglas fonéticas. Aquello de que la “b” con la “a”, “ba”. Ahora se enseña a los niños una palabra completa, por ejemplo “árbol”, junto a un dibujo que representa el concepto. La idea es que haciendo esto con muchas palabras, los niños acabarán descifrando las reglas de la lectura. ¿Funciona? Bueno, algunos niños podrían aprender a leer casi sin que los adultos les enseñaran nada. Pero la evidencia señala que el método global falla con muchos niños. El viejo sistema supera con creces al de las palabras completas, pero por desgracia esta evidencia no llega a los colegios.

Tampoco es diferente el veredicto que hacen Lilienfeld y colaboradores de otra idea que se ha hecho fuerte en nuestras escuelas: la llamada teoría de los estilos de aprendizaje. Lo que esta teoría tiene de cierto es sentido común y lo que va más allá es pura pseudociencia. Que cada niño es diferente y que no siempre los métodos que son mejores para enseñar a unos niños son los mejores para enseñar a otros apenas es algo que pueda sorprender. Pero pasar de ahí a decir que disponemos de un buen sistema para diagnosticar cuál es el estilo de aprendizaje de cada alumno o que sabemos cómo trasladar esa información a prácticas educativas personalizadas para cada alumno es otra cosa. Lo cierto es que ni siquiera disponemos de un buen sistema de categorías para “clasificar” a los estudiantes. Las clasificaciones que se usan en las escuelas son tan burdas como decir que unos estudiantes son “visuales” y otros son “auditivos”. De nuevo, no tenemos ninguna evidencia empírica para sostener que estas clasificaciones son útiles y que los niños aprenden mejor cuando se llevan a la práctica estas ideas. Pero esto no impide que sean el último grito en “innovación” educativa. De hecho, no queda muy lejos de estas ideas la llamada teoría de las inteligencias múltiples, cuyo autor ha recibido nada menos que el Príncipe de Asturias de Ciencias Sociales del año 2011.

El artículo de Lilienfeld, Ammirati y David no pretende ser una simple denuncia de esta situación. De hecho, ni siquiera es su principal objetivo. La mayor parte del artículo está destinada a explicar las razones por las que creemos con tanta facilidad en estas teorías erróneas y, lo más importante, dar un pequeño número de consejos para ayudarnos a combatirlas, en nosotros mismos y en los demás. Si una práctica educativa no se a basa en estudios rigurosos sino en evidencia anecdótica, si una teoría está planteada de una forma que no es falsable o no puede ponerse a prueba, si se trata de ideas que no cambian ni se corrigen con el paso del tiempo, si las personas que las sostienen evitan las críticas a toda costa, si hacen “afirmaciones extraordinarias” sin disponer de “evidencia extraordinaria”… lo menos que podemos hacer es recelar.

__________

Lilienfeld, S. O., Ammirati, R., & David, M. (2012). Distinguishing science from pseudoscience in school psychology: Science and scientific thinking as safeguards against human error. Journal of School Psychology, 50, 7-36.

Pensar rápido, pensar despacio

Dicen que hay dos tipos de personas: las que creen que hay dos tipos de personas y las que no. El genial Daniel Kahneman es de los que cree que cada uno de nosotros somos dos tipos de persona. En su último libro, Pensar rápido, pensar despacio, nos invita a conocer a los dos individuos que habitan en nuestro interior, a los que siguiendo una reciente convención en psicología cognitiva nos presenta con los nombres de Sistema 1 y Sistema 2. Si alguien nos pregunta cuánto son 4 x 4, respondemos rápidamente, sin hacer el más mínimo esfuerzo. El Sistema 1 se ha hecho cargo de la tarea. Funciona de forma automática, sin requerir la intervención de la conciencia y por mecanismos puramente asociativos. Apenas podemos controlarlo o saber cómo hace su trabajo. Como por arte de magia, nos proporciona una respuesta al problema en cuestión. Pero a veces no se enciende la bombilla. Multiplicar 4 x 4 es una cosa. ¿Pero multiplicar 121 x 27? Aquí esa “intuición” permanece en silencio y no nos deja más remedio que pararnos a pensar con detenimiento o, directamente, a coger lápiz y papel. Ahora el Sistema 2 toma las riendas. Nos embarcarnos en un procesamiento más exigente, donde las ideas van siendo barajadas, descartadas, y manipuladas una a una en el foco de nuestra conciencia. No es sencillo, pero al final damos con la solución.

Aunque deleguemos muchas tareas sin importancia en el Sistema 1, nos gusta creer que para todo lo importante confiamos en el racional y cuidadoso Sistema 2. No en vano nos hemos bautizado como Homo sapiens. Pero si algo nos demuestran décadas de psicología cognitiva es que casi siempre es el Sistema 1 quien está al mando. Con frecuencia, decisiones cruciales como dónde invertir nuestro dinero, si comprar un seguro de vida y cuál, a quién votar en las próximas elecciones o a quién confiar la educación de nuestros hijos las terminamos afrontando en base a las tentadoras “soluciones” que nos brinda el Sistema 1. Muchas veces acierta. Pero a veces falla estrepitosamente.

La gran contribución de los investigadores de la toma de decisiones, entre quienes Daniel Kahneman y el difunto Amos Tversky brillan con luz propia, es precisamente haber descubierto muchos de los trucos que emplea el Sistema 1 para presentarnos una idea como válida. A menudo, el Sistema 1 no cuenta con la información o la destreza necesaria para responder a una pregunta concreta. Cuando eso sucede, se recurre a una pequeña trampa: se sustituye esa pregunta por otra similar pero más fácil de responder. ¿Subirán más las acciones de la compañía A o las de la compañía B? No lo sé, la verdad; pero lo que sí sé es que el anuncio de la primera es más divertido. Invertiré ahí mis ahorros. ¿Es más seguro viajar en coche o en avión? Pues mira, digan lo que digan las estadísticas, en un accidente aéreo no se salva nadie. Y así sucesivamente…

A lo largo de los años hemos ido descubriendo varios de estos trucos que utiliza el Sistema 1 para buscar soluciones plausibles a diversos problemas. Uno de los más habituales es calcular cómo de probable es un evento en función de lo fácil que sea pensar en ese evento. Este heurístico de la disponibilidad es el responsable, entre otras cosas, de que nos dé miedo viajar en avión simplemente porque nos resulta fácil recordar noticas de accidentes aéreos o porque es fácil formarse una imagen vívida del suceso. Otro “sospechoso habitual” es el llamado heurístico de la representatividad: si un objeto es muy representativo de una categoría, entonces damos por sentado que pertenece a esa categoría e ignoramos cualquier otra información que lo contradiga. Por ejemplo, si en una fiesta coincidimos con alguien a quien le gusta leer y que acaba de visitar la última exposición del museo local, es tentador dar por sentado que es de letras, aunque nos digan que el 80% de las personas que están en la fiesta son ingenieros.

Estos y otros heurísticos que se revisan en el excelente libro de Kahneman nos ayudan a entender muchos de los errores sistemáticos que cometemos en nuestros razonamientos cotidianos. Pensar rápido, pensar despacio es sin duda una de las mejores y más amenas introducciones al estudio de la irracionalidad humana.

Cómo se mantiene el optimismo irrealista

Ser optimista es cansado. Ser irrealistamente optimista es muy cansado. Décadas de dinero atrás no impiden que cada año volvamos a comprar un nuevo décimo de lotería de Navidad y nos deleitemos imaginando qué haríamos si el gordo cayera en nuestras manos. Y afortunadamente ningún fracaso previo nos puede convencer de que el resultado de esta dieta será el mismo que el del todas las anteriores. Ser más optimista de lo que los hechos permiten supone hacer un esfuerzo constante por ignorar toda la información que te indica que estás equivocado.

Curiosamente, estos hechos cotidianos son difíciles de reconciliar con las principales teorías del aprendizaje que se manejan en la psicología actual. Casi todas ellas asumen que el motor del aprendizaje son los errores de predicción: esperamos que algo suceda, ese algo no sucede, consecuentemente modificamos nuestras creencias para rebajar nuestras expectativas en el futuro y cometer así un error menor. Si es así como vamos afinando nuestro conocimiento del entorno, ¿cómo es posible que haya creencias que se mantengan permanentemente a pesar de los errores de predicción que producen?

Un estudio reciente de Tali Sharot, Christoph Korn y Raymond Dolan (2011) nos proporciona algunas claves. En su experimento, los participantes tenían que evaluar cuál era la probabilidad de que a lo largo de su vida padecieran infortunios como tener cáncer, sufrir un accidente de coche o divorciarse. Inmediatamente después de cada respuesta, a los participantes se les decía cuál era de hecho la probabilidad de que le sucedieran esas desgracias a una persona tomada al azar. Todas estas preguntas se repetían en una segunda fase del estudio y los participantes tenían que volver a hacer sus estimaciones. El resultado más interesante es que estas segundas respuestas se ajustaban más a la realidad que las primeras… pero sólo cuando las expectativas iniciales de los participantes habían sido más pesimistas que el feedback que se les había dado después.

Imagina, por ejemplo, que alguien había estimado que su probabilidad de sufrir un cáncer de pulmón era de un 30%. Si a este participante le decían que la probabilidad real de sufrir cáncer de pulmón era de un 10%, entonces la siguiente vez que aparecía la pregunta el participante daba un juicio inferior al 30% inicial. Sin embargo, si se le decía que la probabilidad real de sufrir cáncer de pulmón era de un 50%, su estimación posterior apenas se veía influida por esta información. En otras palabras, sí que ajustamos nuestras expectativas cuando cometemos errores, pero sólo cuando ese ajuste favorece el optimismo.

Más interesante aún. El grado en que la información negativa afectaba o no a los juicios posteriores correlacionaba con la activación de un área cerebral, la circunvolución frontal inferior. Y el grado en que dicha circunvolución se activaba ante la información negativa correlacionaba con el optimismo rasgo (medido mediante un cuestionario independiente que los participantes rellenaban al final del experimento).

Los resultados de este estudio sugieren que para explicar cómo se mantiene el optimismo irrealista, los modelos de aprendizaje tienen que asumir que el impacto de los errores de predicción no es independiente del valor afectivo de esos errores. Los errores “pesimistas” se corrigen más que los “optimistas”. Más aún, nos indica qué zonas cerebrales pueden estar involucradas en este proceso y cómo la mayor o menor activación de esas zonas ante la información negativa se relaciona con características de personalidad relativamente estables. ¡Y todo ello en apenas cinco hojas!

__________

Sharot, T., Korn, C. W., & Dolan, R. J. (2011). How unrealistic optimism is maintained in the face of reality. Nature Neuroscience, 14, 1474-1479. doi: 10.1038/nn.2949

¿Ángeles platónicos o criaturas orwellianas?

Si el 14 de Marzo pasas por Teruel y hace mucho frío, no pierdas la ocasión de pasarte por el salón de actos del vicerrectorado de la Universidad de Zaragoza. Estará caliente y además tendrás la oportunidad de escuchar una magnífica conferencia sobre la psicología de la irracionalidad humana a cargo de un servidor. (Bueno, sólo puedo garantizar que la charla será magnífica; lo de que esté calentito no está en mi mano. Veré qué puedo hacer.) La artífice del encuentro es la profesora Sonsoles Valdivia, que ha tenido la amabilidad de invitarme a colaborar en el III Ciclo de Conferencias en Psicología. Hablaremos de homeopatía, de placebos, de productos milagro, de la hipersensibilidad electromagnética, de por qué creemos en todo ello y de si es bueno o malo que así lo hagamos. Ahí es nada. Para despertar el gusanillo, aquí tenéis un pequeño resumen de lo que me propongo contar:

Uno de los pilares de la cultura occidental es la visión del ser humano como una criatura casi angelical, caracterizada fundamentalmente por la racionalidad y la inteligencia. Grandes sectores de la psicología cognitiva actual comparten esta fe en las capacidades humanas. Sin embargo, basta un vistazo a nuestro alrededor para comprobar lo poco racionales que son muchas de nuestras decisiones. Nuestro enorme desarrollo científico y tecnológico no impide que las pseudociencias campen a sus anchas en nuestra sociedad, con consecuencias dramáticas, a veces: las medicinas alternativas ganan terreno ante la medicina convencional, enfermedades casi extintas se convierten de nuevo en epidemias, empresarios sin escrúpulos se hacen de oro vendiendo productos milagro a gran escala… Afortunadamente, la investigación psicológica realizada en las últimas décadas nos permite empezar a entender cuáles son los mecanismos que subyacen a estas creencias supersticiosas. En la presente conferencia intentaré mostrar que estas ilusiones son el producto inevitable de nuestra tendencia a percibir patrones ordenados y con significado en el entorno. Cuando nos enfrentamos a situaciones ambiguas e inciertas, esta tendencia puede llevarnos detectar relaciones de causalidad que en realidad no existen y que son la base sobre la que se construyen muchas de nuestras supersticiones.

Homo credulus

Aristóteles, al que se suele considerar uno de los padres del empirismo, pensaba que los hombres tenían más dientes que las mujeres. Para someter a prueba esta idea tan sólo es necesario realizar un sencillo estudio empírico con muestra N = 2 y estar en posesión de un sistema numérico que permita contar hasta el 32. Aristóteles no consideró necesario hacerlo. Y tampoco lo hicieron las siguientes generaciones de médicos y filósofos que durante siglos se limitaron a confiar en el juicio del estagirita, “El Filósofo”. ¿Historias del pasado? Nada de eso. Leyendo el genial libro Genoma de Ridley he descubierto que los biólogos dieron por sentado durante décadas que las células humanas tenían 24 pares de cromosomas. La afirmación puede leerse incluso junto a ilustraciones donde pueden contarse claramente 23 pares de cromosomas. No hay mayor ciego que el que no quiere ver.

Hasta los pensadores más educados caen sistemáticamente en el error de dar por sentado que no hace falta buscar evidencia que confirme lo que ya “saben” que es cierto. Se requiere mucha integridad y honestidad para dudar de las propias convicciones, y la mayor parte de nosotros sencillamente no estamos a la altura. O no siempre. Hace pocas semanas, Scott Lilienfeld, uno de los psicólogos clínicos más críticos con las prácticas pseudocientíficas, publicaba en el BPS Research Digest un breve comentario en el que destacaba precisamente el carácter poco intuitivo del método científico. Todos tendemos a buscar sólo evidencia que confirme nuestras creencias y a ignorar o reinterpretar cualquier dato que las desafíe.

Cuando vemos que tanto científicos como legos caen igualmente en estos errores, empezamos a entender mejor por qué triunfan todo tipo de creencias pseudocientíficas. No hay nada más antinatural que pedirle a alguien que ya “sabe” que las pulseras Power Balance funcionan que dude de ello, que lo ponga a prueba, que use una condición de control, o que lea la literatura científica. Detrás de cualquier creencia pseudocientíficas (y de muchas creencias simplemente falsas) se esconde una profunda resistencia a contrastar las ideas con la realidad, resistencia que todos compartimos en mayor o menor grado.

Siempre me ha fascinado que las personas tengamos esta dificultad para abrir los ojos a la verdad y para dudar, aunque sea “metodológicamente”, de nuestras propias creencias, incluso de las que no están firmemente asentadas. Hay incluso algo de anti-Darwiniano en todo ello. Al fin y al cabo, si la mente está al servicio de la supervivencia, como cualquier órgano o función de nuestro cuerpo, ¿en qué sentido puede ser una ventaja ignorar información y caer en errores por ello?

Hace más de dos décadas, Gilbert y sus colegas desarrollaron una línea de investigación que podría proporcionarnos algunas claves para entender cómo y por qué sucede esto. Según Gilbert (1991), la filosofía occidental nos proporciona dos teorías sobre cómo se representan nuestras creencias. Según una de estas posturas, que él vincula a Descartes, la representación de una creencia es independiente de su valor de verdad. Es decir, yo puedo imaginarme que Berlín está en Francia y después juzgar, en un acto independiente, si esa representación es verdadera o falsa. Desde este punto de vista, representar una proposición y juzgar su veracidad son dos procesos cognitivos diferentes. Según la otra teoría, que él vincula a Spinoza, el propio acto de representar algo ya implica afirmarlo, darlo por verdadero. Negarlo supone tener que dar un paso cognitivo adicional; requiere marcar esa representación como falsa. Por tanto, afirmar y negar no son procesos equivalentes: una representación es afirmada por defecto; la afirmación es de hecho parte de la propia representación, salvo que se haga el esfuerzo adicional de negarla.

En una ingeniosa serie de experimentos, Gilbert y sus colegas muestran que nuestra mente parece funcionar de acuerdo con esta segunda teoría. En uno de sus experimentos (Gilbert et al., 1990, Experimento 1) les piden a los participantes que aprendan el vocabulario de un lenguaje imaginario a través de fases como “un mawanga es un árbol” o “un kotchwero es un perro”. Inmediatamente después de cada frase, les dicen a los participantes si la definición que acaban de ver es correcta o errónea. En algunos ensayos, mientras los participantes intentan aprender esta información, el investigador les pide también que hagan una sencilla tarea distractora: pulsar una tecla si oyen un sonido. Los resultados del experimento muestran, como cabría esperar, que la tarea distractora afectó a la capacidad de los participantes de recordar después si una definición era verdadera o falsa. Pero lo más interesante es que la distribución de los errores no era fortuita: las distracciones no solían hacer que las definiciones verdaderas se tomaran por falsas, pero sí hacían que las definiciones falsas se tomaran por verdaderas. Esto sugiere que cuesta más aprender que algo es falso que aprender que es verdadero.

El Experimento 2 es una perfecta réplica con materiales diferentes. Los participantes ven caras sonrientes o tristes, y después de ver cada una, se les dice si la persona que acababan de ver fingía o no esa emoción. Como en el experimento anterior, en algunos ensayos los participantes tenían que realizar una tarea distractora mientras veían esta información. De nuevo, los resultados muestran que la distracción hizo que los participantes juzgaran las emociones fingidas como reales, pero no a la inversa. De nuevo, aprender que una emoción es falsa resulta más difícil que aprender que es genuina.

Este mismo patrón de resultados también se observa en situaciones con más relevancia para la vida real. Por ejemplo, en una serie de artículos posterior (Gilbert et al., 1993), los participantes tenían que evaluar las pruebas de un delito mientras realizaban una tarea distractora. Algunas de las pruebas incriminatorias eran falsas y así se lo hacían saber a los participantes. Sin embargo, todo indica que la sobrecarga cognitiva les hizo a los participantes tomar todos los testimonios por verdaderos, incluso los que eran falsos. Si esos testimonios falsos eran incriminatorios, los participantes recomendaban que ese delincuente pasara más años en prisión y lo juzgaban más peligroso para la sociedad. Así que aquello del “difama, que algo queda” es particularmente cierto cuando estamos sometidos a presión y apenas nos dejan pensar.

Todos estos experimentos y otros similares, indican que, por defecto, tendemos a dar cualquier idea por cierta. Recordar que una idea es falsa o descubrirlo es un proceso adicional que conlleva un esfuerzo y está sujeto a errores. Volviendo al tema que abría esta entrada, no es extraño que a las personas nos cueste tanto cuestionar nuestras propias ideas. Si ya sabemos que nuestras creencias son correctas, ¿por qué molestarnos en buscar información que las apoye o que las falsee?

Pensar como un científico requiere dar la vuelta a nuestra forma espontánea de valorar nuestras creencias. En lugar de dar nuestras teorías por válidas sin necesidad de pruebas, al científico se le entrena para comportarse como si sus ideas fueran falsas salvo que los datos indiquen lo contrario. Lilienfeld tiene razón: el método científico no tiene nada de intuitivo. No hay nada más contrario a nuestra forma natural de entender la realidad.

__________

Gilbert, D. T. (1991). How mental systems believe. American Psychologist, 46, 107-119.

Gilbert, D. T., Krull, D. S., & Malone, P. S. (1990). Unbelieving the unbelievable: Some problems in the rejection of false information. Journal of Personality and Social Psychology, 59, 601-613.

Gilbert, D. T., Tafarodi, R. W., & Malone, P. S. (1993). You can’t not believe everything you read. Journal of Personality and Social Psychology, 65, 221-233.

Cinco más uno son tres

A falta de pocos días para la noche de Reyes, muchos de nosotros seguimos vagando por las calles de tiendas, de escaparate en escaparate, preguntándonos cuál de esos perfumes, bufandas, libros o juegos harán más felices a nuestros seres queridos. Muchas veces nos asignamos un presupuesto para un regalo concreto y, si nos sobra algo, decidimos comprar un pequeño detalle extra con ese inesperado margen. Con esos diez euros que nos han sobrado de lo que teníamos pensado gastar en una cámara de fotos para nuestra madre le compramos, por ejemplo, un libro de bolsillo que sospechamos que también puede gustarle. Craso error.

Según un estudio de Weaver, Garcia y Schwarz que se publicará próximamente en el Journal of Consumer Research, quien recibe un regalo compuesto por varias partes no lo evalúa sopesando el valor de cada elemento y luego sumando esos valores, sino que más bien viene a realizar una especie de media aritmética. Esto implica que, curiosamente, disfrutamos más cuando recibimos un único regalo bueno, que cuando recibimos ese mismo regalo junto con otro de menos valor. En este caso, menos puede ser más.

Lo curioso es que cuando actuamos como “regaladores” nos olvidamos rápidamente de que esa es la forma en la que valoramos los regalos cuando los recibimos, y damos por supuesto que añadir un pequeño regalo a un regalo grande no puede sino mejorar el regalo. En cierto sentido se trata de la estrategia más racional: A más B siempre será más valioso que A solo. Pero si nuestro objetivo no es maximizar el valor de lo regalado, sino maximizar la felicidad de quien lo recibe, debemos invertir esa lógica al decidir qué regalar.

El estudio de Weaver y colaboradores muestra que esta misma idea se aplica a la hora de evaluar la eficacia de los castigos: un único castigo puede parecer más negativo que ese mismo castigo junto con otro menor. Por ejemplo, a los participantes de su estudio les parecía que multar con 750 dólares a los conductores que tiraban basura a la carretera era más severo que multarles con 750 dólares más dos días de trabajos para la comunidad. De modo que si alguien en su casa se merece carbón, no lo complique buscando más castigos.

__________

Weaver, K., Garcia, S. M., & Schwarz, N. (en prensa). The presenter’s paradox. Journal of Consumer Research.

No hay mal que cien años dure

Buceando entre las referencias de Bad Science, el excelente libro de Ben Goldacre, me he topado con un magnífico estudio sobre ilusión de control publicado por Schaffner en el volumen de 1985 del Journal of Personality and Social Psychology. En este experimento, los participantes tenían que hacer las veces de un profesor de escuela que debía enseñar a sus alumnos a no llegar tarde a clase. Para ello cada día podían observar en la pantalla de un ordenador a qué hora había llegado un niño y decidir si suministrarle un premio, un castigo o no decirle nada. En realidad, la hora a la que llegaban los niños no dependía en absoluto de lo que hiciera el participante: se limitaba a oscilar al azar de un día a otro. Sin embargo, lo curioso es que esto no impedía que los participantes pensaran que sí ejercían cierto control. No sólo pensaban que estaban influyendo en la conducta de los niños sino que además desarrollaban creencias más específicas sobre cómo ejercer mejor ese control: les parecía que los castigos habían sido más efectivos que los premios a la hora de modificar la conducta de los niños. Este sesgo de preferencia hacia el castigo puede parecer extraño, pero resulta sencillo entenderlo si uno tiene en cuenta una propiedad importante de los procesos sometidos al azar, la regresión a la media.

Imagina que en un examen de matemáticas un estudiante saca un 9. Si tuvieras que apostar qué nota va a sacar en el examen siguiente, ¿dirías que va a sacar una nota más alta o más baja? La apuesta más sensata es que la siguiente nota estará más cerca de la media de la clase y, por tanto, será más baja. Es muy posible que el estudiante sea excepcionalmente bueno y merezca ese sobresaliente. Pero también es muy probable que se trate de un alumno no tan bueno que ha sido favorecido por la suerte. ¿Cuál de estas dos cosas es más probable? Bueno, por definición es más probable ser normal que ser excepcional; así que salvo que tengamos más información, lo primero parece más plausible. De modo que si al menos parte de ese 9 se debe al azar, es poco probable que esa suerte siga favoreciendo sistemáticamente al alumno en los siguientes exámenes en la misma medida. Si hay que apostar, es más seguro pensar que puntuará más bajo la siguiente vez. Lo mismo se aplicaría a un estudiante que saca una nota sorprendentemente baja en un examen. Si hubiera que apostar, lo más probable es que en el siguiente examen saque más nota. En otras palabras, las puntuaciones que se alejan de la media son excepcionales y lo más probable es que con el tiempo vuelvan al promedio.

¿Qué tiene esto que ver con el experimento anterior sobre ilusión de control? Veamos. Si la hora a la que llegan los niños tenía un componente aleatorio, habría momentos en los que los niños tenderían a ser más puntuales (por simple azar) y momentos en los que tenderían a llegar más tarde (también por simple azar). Ahora bien, tras una racha de días en los que un niño ha sido más puntual de lo normal, lo más probable es que vuelva a llegar tarde (por regresión a la media), y tras una racha de días en los que ha sido excepcionalmente tardón, lo más probable es que empiece a ser más puntual. Si lo que intentas es que el niño sea cada vez más puntual suministrando premios cuando lo hace bien, te encontrarás con que la estrategia sencillamente no funciona: tras una buena racha y un montón de premios, la conducta del niño tenderá a volver a la media, empeorando sin remedio. Sin embargo, si el niño ha llegado tarde unos cuantos días y comienzas a castigarle, lo más probable es que su conducta posterior vuelva a la media, lo que en este caso sería una mejoría. Eso te produciría la falsa sensación de que los castigos han sido efectivos a la hora de corregir la mala conducta, mientras que los premios han sido poco efectivos.

Este sencillo ejemplo es particularmente interesante porque a menudo se ha aducido que nuestra incapacidad para comprender el concepto de regresión a la media es la fuente de muchas supersticiones que mantenemos en nuestra vida cotidiana, a veces con importantes consecuencias sociales. En general, si un proceso depende completamente del azar, cualquier intento de mantener una situación excepcionalmente positiva se verá abocado al fracaso, mientras que por el contrario los intentos de corregir una situación excepcionalmente negativa parecerán (pero sólo ilusoriamente) ser más fructíferos. Unos pocos ejemplos nos permitirán ver cómo puede esto provocar errores en nuestras atribuciones causales.

Suele decirse que las medicinas alternativas parecen efectivas por el simple efecto placebo. Pero la regresión a la media interviene igualmente en producir cierta sensación de eficacia. Muchas enfermedades crónicas se caracterizan porque su intensidad varía constantemente debido al azar. A las temporadas de mayor malestar muchas veces les suceden buenas rachas sin motivo aparente o al menos sin motivos conocidos. Teniendo esto en cuenta, si recurrimos a cualquier remedio cuando peor nos sentimos, lo más probable es que luego nos sintamos mejor. No porque el remedio haya funcionado, sino porque después de una temporada especialmente mala lo más habitual es que la enfermedad nos dé una tregua.

Esta es una de las razones por las que cuando se pone a prueba la eficacia de una medicina necesitamos utilizar un grupo de control que no tome la medicina real. Los pacientes que se someten a un tratamiento experimental, lo hacen muchas veces tras pasar por una temporada en la que la enfermedad ha sido especialmente dura. Cualquier mejoría de estos pacientes podría deberse simplemente al curso natural de la enfermedad. Por tanto, no basta con saber que han mejorado tras someterse al tratamiento experimental. Hace falta un grupo de referencia donde ese curso natural sea equivalente para poder hacer comparaciones y ver cuánto de la mejoría se debe al azar y cuánto a la efectividad de la medicina que se está probando.

El principio de regresión a la media también es relevante cuando se trata de evaluar el impacto de intervenciones políticas y económicas. No hay prácticamente ninguna variable macroeconómica o social cuyo comportamiento no esté altamente influido por el azar. Las cotizaciones en bolsa, la evolución del PIB, incluso las cifras del paro tienen que ver con las políticas económicas, pero también tienen un importante componente de aleatoriedad. Esto implica que con frecuencia se sucederán rachas inusualmente positivas y rachas inusualmente negativas por simple azar. Sin embargo, siempre que las cosas empeoran, nuestra tendencia es hacer algo al respecto. Buscamos culpables, le pedimos al gobierno que haga algo, y si lo que hace no nos gusta o parece no funcionar, directamente lo cambiamos en las siguientes elecciones. En algún momento, tarde o temprano, las cosas mejoran, precisamente porque ese componente aleatorio no puede alimentar sistemática y perpetuamente la crisis. Cuando ese momento llega, es tentador pensar que lo último que hemos hecho ha sido lo que ha solucionado el problema. Pero no nos engañemos. En muchas ocasiones lo que nos saca de una crisis es exactamente lo mismo que nos mete en ella: el simple azar.

__________

Schaffner, P. E. (1985). Specious learning about reward and punishment. Journal of Personality and Social Psychology, 48, 1377-1386.