Aristóteles, al que se suele considerar uno de los padres del empirismo, pensaba que los hombres tenían más dientes que las mujeres. Para someter a prueba esta idea tan sólo es necesario realizar un sencillo estudio empírico con muestra N = 2 y estar en posesión de un sistema numérico que permita contar hasta el 32. Aristóteles no consideró necesario hacerlo. Y tampoco lo hicieron las siguientes generaciones de médicos y filósofos que durante siglos se limitaron a confiar en el juicio del estagirita, “El Filósofo”. ¿Historias del pasado? Nada de eso. Leyendo el genial libro Genoma de Ridley he descubierto que los biólogos dieron por sentado durante décadas que las células humanas tenían 24 pares de cromosomas. La afirmación puede leerse incluso junto a ilustraciones donde pueden contarse claramente 23 pares de cromosomas. No hay mayor ciego que el que no quiere ver.
Hasta los pensadores más educados caen sistemáticamente en el error de dar por sentado que no hace falta buscar evidencia que confirme lo que ya “saben” que es cierto. Se requiere mucha integridad y honestidad para dudar de las propias convicciones, y la mayor parte de nosotros sencillamente no estamos a la altura. O no siempre. Hace pocas semanas, Scott Lilienfeld, uno de los psicólogos clínicos más críticos con las prácticas pseudocientíficas, publicaba en el BPS Research Digest un breve comentario en el que destacaba precisamente el carácter poco intuitivo del método científico. Todos tendemos a buscar sólo evidencia que confirme nuestras creencias y a ignorar o reinterpretar cualquier dato que las desafíe.
Cuando vemos que tanto científicos como legos caen igualmente en estos errores, empezamos a entender mejor por qué triunfan todo tipo de creencias pseudocientíficas. No hay nada más antinatural que pedirle a alguien que ya “sabe” que las pulseras Power Balance funcionan que dude de ello, que lo ponga a prueba, que use una condición de control, o que lea la literatura científica. Detrás de cualquier creencia pseudocientíficas (y de muchas creencias simplemente falsas) se esconde una profunda resistencia a contrastar las ideas con la realidad, resistencia que todos compartimos en mayor o menor grado.
Siempre me ha fascinado que las personas tengamos esta dificultad para abrir los ojos a la verdad y para dudar, aunque sea “metodológicamente”, de nuestras propias creencias, incluso de las que no están firmemente asentadas. Hay incluso algo de anti-Darwiniano en todo ello. Al fin y al cabo, si la mente está al servicio de la supervivencia, como cualquier órgano o función de nuestro cuerpo, ¿en qué sentido puede ser una ventaja ignorar información y caer en errores por ello?
Hace más de dos décadas, Gilbert y sus colegas desarrollaron una línea de investigación que podría proporcionarnos algunas claves para entender cómo y por qué sucede esto. Según Gilbert (1991), la filosofía occidental nos proporciona dos teorías sobre cómo se representan nuestras creencias. Según una de estas posturas, que él vincula a Descartes, la representación de una creencia es independiente de su valor de verdad. Es decir, yo puedo imaginarme que Berlín está en Francia y después juzgar, en un acto independiente, si esa representación es verdadera o falsa. Desde este punto de vista, representar una proposición y juzgar su veracidad son dos procesos cognitivos diferentes. Según la otra teoría, que él vincula a Spinoza, el propio acto de representar algo ya implica afirmarlo, darlo por verdadero. Negarlo supone tener que dar un paso cognitivo adicional; requiere marcar esa representación como falsa. Por tanto, afirmar y negar no son procesos equivalentes: una representación es afirmada por defecto; la afirmación es de hecho parte de la propia representación, salvo que se haga el esfuerzo adicional de negarla.
En una ingeniosa serie de experimentos, Gilbert y sus colegas muestran que nuestra mente parece funcionar de acuerdo con esta segunda teoría. En uno de sus experimentos (Gilbert et al., 1990, Experimento 1) les piden a los participantes que aprendan el vocabulario de un lenguaje imaginario a través de fases como “un mawanga es un árbol” o “un kotchwero es un perro”. Inmediatamente después de cada frase, les dicen a los participantes si la definición que acaban de ver es correcta o errónea. En algunos ensayos, mientras los participantes intentan aprender esta información, el investigador les pide también que hagan una sencilla tarea distractora: pulsar una tecla si oyen un sonido. Los resultados del experimento muestran, como cabría esperar, que la tarea distractora afectó a la capacidad de los participantes de recordar después si una definición era verdadera o falsa. Pero lo más interesante es que la distribución de los errores no era fortuita: las distracciones no solían hacer que las definiciones verdaderas se tomaran por falsas, pero sí hacían que las definiciones falsas se tomaran por verdaderas. Esto sugiere que cuesta más aprender que algo es falso que aprender que es verdadero.
El Experimento 2 es una perfecta réplica con materiales diferentes. Los participantes ven caras sonrientes o tristes, y después de ver cada una, se les dice si la persona que acababan de ver fingía o no esa emoción. Como en el experimento anterior, en algunos ensayos los participantes tenían que realizar una tarea distractora mientras veían esta información. De nuevo, los resultados muestran que la distracción hizo que los participantes juzgaran las emociones fingidas como reales, pero no a la inversa. De nuevo, aprender que una emoción es falsa resulta más difícil que aprender que es genuina.
Este mismo patrón de resultados también se observa en situaciones con más relevancia para la vida real. Por ejemplo, en una serie de artículos posterior (Gilbert et al., 1993), los participantes tenían que evaluar las pruebas de un delito mientras realizaban una tarea distractora. Algunas de las pruebas incriminatorias eran falsas y así se lo hacían saber a los participantes. Sin embargo, todo indica que la sobrecarga cognitiva les hizo a los participantes tomar todos los testimonios por verdaderos, incluso los que eran falsos. Si esos testimonios falsos eran incriminatorios, los participantes recomendaban que ese delincuente pasara más años en prisión y lo juzgaban más peligroso para la sociedad. Así que aquello del “difama, que algo queda” es particularmente cierto cuando estamos sometidos a presión y apenas nos dejan pensar.
Todos estos experimentos y otros similares, indican que, por defecto, tendemos a dar cualquier idea por cierta. Recordar que una idea es falsa o descubrirlo es un proceso adicional que conlleva un esfuerzo y está sujeto a errores. Volviendo al tema que abría esta entrada, no es extraño que a las personas nos cueste tanto cuestionar nuestras propias ideas. Si ya sabemos que nuestras creencias son correctas, ¿por qué molestarnos en buscar información que las apoye o que las falsee?
Pensar como un científico requiere dar la vuelta a nuestra forma espontánea de valorar nuestras creencias. En lugar de dar nuestras teorías por válidas sin necesidad de pruebas, al científico se le entrena para comportarse como si sus ideas fueran falsas salvo que los datos indiquen lo contrario. Lilienfeld tiene razón: el método científico no tiene nada de intuitivo. No hay nada más contrario a nuestra forma natural de entender la realidad.
__________
Gilbert, D. T. (1991). How mental systems believe. American Psychologist, 46, 107-119.
Gilbert, D. T., Krull, D. S., & Malone, P. S. (1990). Unbelieving the unbelievable: Some problems in the rejection of false information. Journal of Personality and Social Psychology, 59, 601-613.
Gilbert, D. T., Tafarodi, R. W., & Malone, P. S. (1993). You can’t not believe everything you read. Journal of Personality and Social Psychology, 65, 221-233.