Ciegos ante la evidencia

Se han publicado decenas de artículos sobre la reticencia de los anti-vacunas o los negadores del cambio climático a aceptar la evidencia contraria a sus ideas. Casi todas las estrategias de intervención que se diseñan para luchar contra estas creencias fracasan una y otra vez. Las perspectivas de éxito resultan más desalentadoras, si cabe, cuando tenemos en cuenta que incluso las personas especializadas en cuestionar teorías y someterlas a prueba empírica son terriblemente reacias a cambiar sus ideas cuando los datos les llevan la contraria. Me refiero, cómo no, a los propios científicos.

O eso sugieren Clark Chinn y William Brewer en un sugerente artículo con el que acabo de toparme por casualidad. Según estudios previos que revisan en ese artículo, cuando los científicos se dan de bruces con un dato contrario a sus teorías, sólo ocasionalmente cambian sus creencias. En concreto, según la taxonomía de Chinn y Brewer, las ocho reacciones posibles ante la evidencia contraria son (a) ignorar los datos, (b) negar los datos, (c) excluir los datos, (d) suspender el juicio, (e) reinterpretar los datos, (f) aceptar los datos y hacer cambios periféricos en la teoría, y (g) aceptar los datos y cambiar las teorías.

Los autores utilizan un ejemplo real para ilustrar estas ocho reacciones. En la década de los 80 el premio Nobel Luis Álvarez y sus colaboradores propusieron que la extinción masiva del cretácico, en la que desaparecieron los dinosaurios, se había debido al impacto de un meteorito. El principal dato a favor de esta hipótesis era la alta concentración de iridio en el llamado límite KT, un estrato sedimentario que separaba el periodo cretácico de la era terciaria. El análisis de las citas que recibieron Álvarez y colaboradores durante los años siguientes a la publicación del artículo muestra que gran parte de la comunidad científica simplemente ignoró este descubrimiento (a). Durante algún tiempo incluso el propio equipo de Álvarez tuvo la sospecha de que los altos niveles de iridio en el límite KT podrían deberse a una contaminación de la muestra (b), lo que les obligó a tomar nuevas muestras. Algunos científicos sugirieron que los dinosaurios se habían extinguido 10.000 años antes del impacto del meteorito, con lo cual la capa de iridio no explicaba la extinción (c). Otros opinaban que la química del iridio no se conocía lo suficientemente bien como para poder extraer conclusiones (d). Tal vez algún día se podrían explicar esos altos niveles de iridio sin tener que asumir el impacto de un meteorito. Otro grupo de científicos reinterpretó los datos de Álvarez sugiriendo que el iridio del límite KT en realidad se habían filtrado de capas de sedimentos más recientes (e). También hubo quienes asumieron que el impacto del meteorito podría ser responsable de algunas de las extinciones del cretácico, pero no de todas ellas (f). Esto les permitía aceptar la evidencia encontrada por Álvarez pero sin renunciar a sus hipótesis previas sobre las causas de la extinción de los dinosaurios. Finalmente, algunos científicos renunciaron a sus hipótesis previas y aceptaron la nueva teoría sobre la extinción del cretácico (g).

No recuerdo si fue Thomas Kuhn o Max Planck quien dijo que la ciencia no evoluciona porque las teorías nuevas triunfen, sino porque quienes se oponen a ellas acaban muriéndose. Tal vez esa sea la novena y última reacción ante la evidencia contraria.

__________

Chinn, C. A., & Brewer, W. F. (1998). An empirical test of a taxonomy of responses to anomalous data in science. Journal of Research in Science Teaching, 35, 623-654.

La irracionalidad humana al servicio de la caridad

Ante la manifiesta irracionalidad que caracteriza la mayor parte de nuestras decisiones caben varias reacciones. La más frecuente es alertar a la gente de nuestras limitaciones intelectuales e intentar protegerla de sus sesgos cognitivos. Una segunda opción, tal vez más práctica e interesante, es utilizar esas limitaciones en el propio beneficio de las personas y la sociedad. En un estudio que se publicará próximamente en Psychological Science, Hsee y colaboradores han recurrido a esta última estrategia para diseñar un protocolo que permita aumentar la cantidad de dinero que las personas destinan a beneficencia. Una de las características más llamativas de las donaciones es que casi nunca prestamos atención al número de personas que podrían beneficiarse de nuestro desembolso. Si, por ejemplo, nos piden dinero para pagar los materiales de un aula de educación infantil, posiblemente nuestra predisposición a dar algo y la cantidad de dinero que demos serán las mismas si nos dicen que en esa aula estudian veinte niños que si nos dicen que los beneficiarios potenciales son cuarenta. Estudios previos muestran que la disposición a donar dinero depende casi únicamente de la imagen concreta que nos viene a la mente cuando pensamos en un posible beneficiario y de la reacción afectiva que nos provoca esa imagen. El número de personas que se puedan beneficiar no entra en el cómputo, especialmente si se trata de un número elevado. Aprovechándose de lo que en principio es una limitación cognitiva, Hsee y colaboradores proponen que a la hora de pedir dinero para caridad habría que preguntar a los donantes primero cuánto dinero darían a una persona concreta y sólo después preguntarles cuánto donarían al grupo completo. Dado que nuestra inclinación inicial es la misma independientemente del número de alumnos que se vaya a beneficiar de nuestra donación, es mejor que nos pregunten primero cuánto dinero daríamos para pagar los materiales de un estudiante y que después nos pregunten cuánto daremos para el grupo de veinte estudiantes. Lógicamente, la cifra que daremos no será exactamente el resultado de multiplicar el primer número por veinte, porque la cantidad resultante seguramente superará lo que estamos dispuestos a donar. Sin embargo, seguro que tampoco daremos al grupo exactamente lo mismo que daríamos a un solo niño. Intentaremos ser coherentes y dar al grupo completo más de lo que daríamos a un solo individuo. En los tres experimentos que han realizado Hsee y colaboradores, se observa que esta estrategia funciona no sólo en un estudio de laboratorio, sino también en situaciones reales. En uno de sus experimentos de campo, los participantes eran ejecutivos adinerados a los que se pedía ayuda para financiar la carrera investigadora de setenta estudiantes de doctorado. Los ejecutivos dieron cuatro veces más dinero cuando se les preguntó cuánto darían a cada estudiante antes de preguntarles cuánto iban a dar para el grupo completo. Dicho de otra forma, el 75% de esos estudiantes le deben su beca a una simple pregunta adicional que los investigadores pusieron en un formulario. Ojalá siempre fuera tan fácil hacer el mundo cuatro veces mejor.

__________

Hsee, C. K., Zhang, J., Lu, Z. Y., & Xu, F. (in press). Unit asking: A method to boost donations and beyond. Psychological Science.

¿Es irracional ser irracional?

Los psicólogos experimentales somos expertos en diseñar tareas que desafíen las capacidades de memoria, aprendizaje o percepción de cualquier persona. Pero pocas tareas son tan endiabladamente difíciles como la que acabo de conocer gracias a un artículo recién publicado en Psychological Review. Se trata del llamado Harvard Game. Al participante se le pone delante de un ordenador y se le dice que el juego consiste en elegir en cada ensayo si va a pulsar el botón A o el botón B. Si pulsa el botón A, su probabilidad de ganar depende de lo que haya hecho en los diez ensayos anteriores: cuantas más veces haya pulsado el botón A en el pasado, más probabilidades tiene de volver a ganar si vuelve a pulsar el botón A. Por ejemplo, si en los 10 ensayos anteriores ha pulsado 10 veces la A, su probabilidad de ganar si vuelve a pulsar la A puede ser, por ejemplo, de un 70%. Sin embargo, si en ninguno de los 10 ensayos anteriores ha pulsado la A, entonces su probabilidad de ganar si vuelve a pulsar la A es cero. Hasta aquí sencillo. ¿Pero qué sucede con el botón B? Pues bien, si el participante pulsa el botón B sus probabilidades de ganar en cualquier ensayo son, por ejemplo, un 20% mayores que las que tendría si pulsara el botón A. Es decir, si la probabilidad de ganar en un ensayo pulsando el botón A es del 50%, entonces la probabilidad de ganar pulsando B en ese ensayo es del 70%.

El lector tal vez no se haya dado cuenta todavía, pero esta situación supone un auténtico dilema para la toma de decisiones. En cualquier momento determinado, siempre es más probable ganar si se pulsa el botón B. Sin embargo, cuantas más veces se pulse el botón B, menos veces se habrá pulsado el botón A, y es este número de veces que se ha pulsado A en los 10 ensayos anteriores el que determina las probabilidades de ganar tanto para A como para B. Es decir, que si se pulsa A con poca frecuencia, la probabilidad de ganar pulsando cualquier botón baja dramáticamente. Por tanto, se trata de una situación en la que perseguir el interés a corto plazo pulsando el botón B reduce las posibilidades de ganar premios a largo plazo pulsando cualquier botón. El jugador inteligente debería pulsar siempre A, porque esa es la forma de maximizar el número total de premios que se pueden conseguir a lo largo de la partida.

Lógicamente, las personas rara vez se comportan así. Y la inferencia lógica que los psicólogos experimentales suelen extraer es que las personas no somos racionales y que sacrificamos el beneficio a largo plazo en favor de la satisfacción inmediata, como cuando hipotecamos nuestra salud fumando o comiendo más de la cuenta en Navidad.

El artículo publicado en Psychological Review que firman Chris Sims y sus colaboradores se propone desafiar esta idea de que una ejecución pobre en el Harvard Game puede tomarse como un indicador de irracionalidad. El desarrollo de sus ideas es complejo, pero el punto de partida es bien sencillo. Cuando el experimentador programa esta tarea, él sabe cómo funciona. Sabe que la probabilidad de ganar premios depende de cuántas veces se pulsa A y sabe que es en concreto el número de respuestas A en los últimos 10 ensayos lo que cuenta. Y sabe que la mayor probabilidad de ganar con B es una trampa a largo plazo. Pero el participante que se sienta ante el ordenador no sabe nada de todo esto. Lo tiene que aprender a partir de su interacción con el programa de ordenador. Y según Sims y colaboradores esta “sencilla” tarea de aprender lo que sucede en el programa tiene una elevadísima complejidad desde un punto de vista computacional.

Para demostrarlo, estos autores han diseñado un modelo de aprendizaje basado en principios de inferencia bayesiana. Este modelo representa lo que una persona inteligente debería hacer y aprender sobre el funcionamiento del programa desde un punto de vista racional. En otras palabras, este modelo representa cómo debería enfrentarse a la tarea un ser humano perfecto. A este modelo se le proporciona como input la información que ven los participantes reales a lo largo del experimento y su tarea es construir una representación exacta de cuáles son las reglas que determinan cuánto dinero se gana en el juego. Pues bien, el resultado de sus simulaciones es que en la mayor parte de los casos el modelo apenas es capaz de aprender cuáles son esas reglas. Si acaso, a base de proporcionarle cantidades masivas de evidencia finalmente llega a atisbar, pero con dudas, cuáles son esas reglas. Si este programa sofisticado y racional no es capaz de aprender a desempeñarse efectivamente en el Harvard Game, ¿cómo podemos culpar a los seres humanos de no ser capaz de hacerlo mejor? Cuando un agente perfectamente inteligente no es capaz de solucionar un problema, ¿podemos tachar de irracionales a las personas que no consiguen hacerlo mejor?

__________

Sims, C. R., Neth, H., Jacobs, R. A., & Gray, W. D. (2013). Melioration as rational choice: Sequential decision making in uncertain environments. Psychological Review, 120, 139-154.

¿Ángeles platónicos o criaturas orwellianas?

Si el 14 de Marzo pasas por Teruel y hace mucho frío, no pierdas la ocasión de pasarte por el salón de actos del vicerrectorado de la Universidad de Zaragoza. Estará caliente y además tendrás la oportunidad de escuchar una magnífica conferencia sobre la psicología de la irracionalidad humana a cargo de un servidor. (Bueno, sólo puedo garantizar que la charla será magnífica; lo de que esté calentito no está en mi mano. Veré qué puedo hacer.) La artífice del encuentro es la profesora Sonsoles Valdivia, que ha tenido la amabilidad de invitarme a colaborar en el III Ciclo de Conferencias en Psicología. Hablaremos de homeopatía, de placebos, de productos milagro, de la hipersensibilidad electromagnética, de por qué creemos en todo ello y de si es bueno o malo que así lo hagamos. Ahí es nada. Para despertar el gusanillo, aquí tenéis un pequeño resumen de lo que me propongo contar:

Uno de los pilares de la cultura occidental es la visión del ser humano como una criatura casi angelical, caracterizada fundamentalmente por la racionalidad y la inteligencia. Grandes sectores de la psicología cognitiva actual comparten esta fe en las capacidades humanas. Sin embargo, basta un vistazo a nuestro alrededor para comprobar lo poco racionales que son muchas de nuestras decisiones. Nuestro enorme desarrollo científico y tecnológico no impide que las pseudociencias campen a sus anchas en nuestra sociedad, con consecuencias dramáticas, a veces: las medicinas alternativas ganan terreno ante la medicina convencional, enfermedades casi extintas se convierten de nuevo en epidemias, empresarios sin escrúpulos se hacen de oro vendiendo productos milagro a gran escala… Afortunadamente, la investigación psicológica realizada en las últimas décadas nos permite empezar a entender cuáles son los mecanismos que subyacen a estas creencias supersticiosas. En la presente conferencia intentaré mostrar que estas ilusiones son el producto inevitable de nuestra tendencia a percibir patrones ordenados y con significado en el entorno. Cuando nos enfrentamos a situaciones ambiguas e inciertas, esta tendencia puede llevarnos detectar relaciones de causalidad que en realidad no existen y que son la base sobre la que se construyen muchas de nuestras supersticiones.