La generación privilegiada y el cerebro de Broca

En Octubre de 1978 Carl Sagan cerraba con estas palabras la introducción a su magnífico libro El cerebro de Broca.

Este libro se escribe poco antes -por lo menos, yo creo que pocos años o décadas antes- de que arranquemos del cosmos las respuestas a muchas de nuestras engorrosas y algo reverenciales interrogaciones sobre orígenes y destinos. Si antes no nos autodestruimos, buena parte de nosotros llegará a conocer las respuestas. Si hubiésemos nacido cincuenta años antes, hubiéramos podido maravillarnos, meditar y especular sobre los temas indicados, pero sin poder hacer nada por descifrarlos. Si naciéramos dentro de cincuenta anos, creo que ya se habrían descubierto los enigmas. Nuestros hijos conocerán y aprenderán las respuestas antes de que hayan tenido ni la menor posibilidad de formularse las preguntas. La época más exquisita, satisfactoria y estimulante para vivir es aquella en la que pasemos de la ignorancia al conocimiento de estas cuestiones fundamentales, la época en que comencemos maravillándonos y terminemos por comprender. Dentro de los 4.000 millones de años de historia de la vida sobre nuestro planeta, dentro de los 4 millones de años de historia de la familia humana, hay una sola generación privilegiada que podrá vivir este momento único de transición: la nuestra.

Al privilegio de vivir en una época tan emocionante yo le añadiría otro: haber tenido la fortuna de vivir después y no antes de que Carl Sagan escribiera sus libros.

Las neurociencias y el gatillazo estadístico

Los estudios de neurociencias son al clásico experimento de psicología lo que un crucero por las Bahamas a un viaje en interrail. Extremadamente caros. Pagar a los participantes por desplazarse hasta el laboratorio, pagar por el uso del fMRI, pasar cientos de horas analizando datos… Todo ello supone dinero, dinero y más dinero. En muchos laboratorios donde se hacen experimentos con ERPs hasta contratan un servicio de peluquería para adecentar al pobre participante, que termina el experimento con la cabeza llena de gel. Una consecuencia directa del elevado coste es que los investigadores, lógicamente, intentan ahorra dinero por todas partes. Si el experimento puede hacerse con diez personas, mejor que con treinta. ¿Verdad? Continúa leyendo en Psicoteca

p-curves, p-hacking, and p-sychology

replicationPruebe a hacer el siguiente experimento. Haga click sobre el cuadro de texto de Google y comience a escribir “replication crisis”. Con su habitual don de gentes, el buscador enseguida se ofrecerá a auto-completar el término de búsqueda. En ningún caso leerá “replication crisis in physics” o “replication crisis in biology”. No. Google es más listo que eso. Quienes han buscado esos términos en el pasado por lo general han terminado escribiendo “replication crisis in psychology”. Y así nos lo arroja a la cara el simpático rastreador de la web.

El mundo de la psicología se ha hecho un hueco en todas las portadas con sus recientes casos de fraude, sus misteriosas incursiones en el mundo de lo paranormal y, más recientemente, la imposibilidad de replicar uno o dos de sus más famosos y audaces experimentos. La otra parte de esta historia, menos sensacionalista pero más reveladora, es que la psicología también está en la primera línea de combate contra todo aquello que amenace a la integridad de la ciencia, dentro y fuera de sus fronteras. Algunas de las propuestas más ingeniosas para detectar y medir el impacto de las malas prácticas científicas se las debemos a la propia comunidad de investigadores de las ciencias del comportamiento. Una de mis favoritas tiene que ver con el estudio de la llamada curva de valores p.

En la estadística tradicional se procede de una forma un tanto retorcida. Para demostrar que un efecto existe lo que uno hace es asumir que no existe y luego ver cómo de rara sería la evidencia que hemos recogido si se parte de ese supuesto. El parámetro que mide cómo de extraño sería un dato bajo el supuesto de que un efecto no existe es lo que llamamos valor p. (En rigor, lo que mide el valor p es cómo de probable es encontrar un valor tan alejado o más de lo que cabría esperar bajo el supuesto de que la hipótesis nula es cierta.) Para lo que aquí nos interesa, basta con tener en cuenta que, por convención, se considera que uno ha observado un efecto significativo si el valor p de ese efecto es inferior a 0.05. Un valor tan pequeño quiere decir que es muy poco probable que el efecto se deba al puro azar. Que posiblemente hay un efecto real tras esos datos.

Imagine que queremos saber si una píldora reduce el dolor de cabeza. Para ello, hacemos el siguiente experimento. Le pedimos a un grupo de 50 personas que tome esa píldora todos los días y que apunte en una libreta cuándo le duele la cabeza. A otro grupo de personas le pedimos que haga exactamente lo mismo, pero sin que ellos lo sepan le damos un placebo. Después de un par de meses les pedimos que nos envíen las libretas y observamos que a los que han tomado la píldora les ha dolido la cabeza una media de 10 días. Sin embargo a los que han tomado el placebo les ha dolido la cabeza una media de 15 días. ¿Quiere esto decir que la píldora funciona? Bueno. Pues parece que sí. Pero la verdad es que este resultado podría deberse al puro azar. Para saber hasta qué punto se puede deber al azar o no, hacemos un análisis estadístico y nos dice que el valor p que obtenemos al comparar los grupos es, por ejemplo, 0.03. Como ese valor es inferior a 0.05, consideraríamos poco probable que la diferencia entre ambos grupos se deba al simple azar.

Aquí viene lo interesante. ¿Qué pasaría si la píldora realmente funciona y hacemos ese experimento muchas veces? Sin duda, aunque la píldora sea efectiva, el azar también influirá en los resultados. De modo que no siempre obtendremos los mismos datos. Y los análisis estadísticos no siempre arrojarán el mismo valor p. Unas veces será más alto y otras más bajo. Si el experimento se repitiera una y otra vez, la distribución de los valores p que obtendríamos debería parecerse a una curva exponencial en la que la mayor parte de los valores p serían muy pequeños y, sin embargo, habría relativamente menos experimentos que arrojaran valores p cercanos a 0.05. Esa gráfica, representando la distribución ideal de los valores p es lo que se denomina curva-p.

pcurves_psychSciEn condiciones normales, si uno coge los artículos que se publican en las revistas y registra sus valores p, deberían seguir una distribución similar a la que muestra esa curva. Pero, como ya puede imaginarse, no es eso lo que sucede. En el caso de algunas revistas la distribución real de valores p se aleja muy sustancialmente de la distribución ideal. En un estudio reciente, Masicampo y Lalande (2012) trazaron la curva de valores p de tres revistas extremadamente importantes en el ámbito de la psicología: Journal of Experimental Psychology: General, Journal of Personality and Social Psychology y Psychological Science. Los resultados indicaron que en los tres casos los valores p observados diferían significativamente de la distribución ideal. En concreto, en todas ellas había un número sospechosamente alto de valores inmediatamente inferiores a 0.05, que según la distribución ideal deberían ser los más infrecuentes. Como puede verse en la figura de la izquierda, en el caso de Psychological Science, la prevalencia de estos valores apenas significativos es realmente escalofriante.

¿A qué se debe esta distribución anómala de valores p? A que algo huele a podrido en Dinamarca, claro. Estas distribuciones son probablemente el producto de muchas prácticas malsanas en el mundo de la investigación. Una buena parte de la responsabilidad la tienen las propias revistas y sus equipos editoriales. Si un estudio tiene un valor p de 0.049 se publica, pero si tiene un valor p de 0.051 no se publica. No es significativo. ¿Se hace esto porque hay alguna barrera infranqueable entre lo que es mayor o menor de 0.05? En absoluto. El umbral del 0.05 es una pura convención social. La mayor parte de las veces la diferencia entre un estudio con una p = 0.045 y otro con p = 0.055 es el puro azar y nada más. Pero para el investigador hay una diferencia fundamental entre ambos: obtener un 0.045 significa que su trabajo cae dentro de lo convencionalmente aceptado y por tanto se publicará. Y publicarlo supone que el trabajo que ha hecho será conocido y reconocido por la comunidad científica. Y cuando quiera presentarse a una plaza de profesor o pedir un proyecto de investigación su contribución a la ciencia será tenida en cuenta. Obtener un 0.055 significa que el trabajo cae dentro de lo convencionalmente inaceptable. Costará horrores publicarlo o, más probablemente, no se publicará. La comunidad científica no lo conocerá y difícilmente se le valorará al investigador por haber dedicado meses o años de su trabajo a ese estudio.

Lógicamente el investigador que obtienen un valor p feo no se mete las manos en los bolsillos y se queda esperando a tener más suerte con su siguiente proyecto de investigación. Es muy probable que empiece a juguetear con los datos para ver si hay algo que pueda explicar por qué sus resultados no son significativos. Por ejemplo, es posible que descubra que uno de sus pacientes en el grupo que tomaba la píldora tenía un cáncer terminal y que por eso le dolía la cabeza mucho más que al resto. Al meter a ese participante en los análisis se está inflando el dolor de cabeza medio que sienten los miembros del grupo experimental que toma la píldora. ¡Normal que las diferencias no sean del todo significativas! Lo más probable es que el investigador elimine a este participante de la muestra dando por sentado que es un caso anómalo que está contaminando los resultados. Parece algo tan de sentido común que cuesta ver dónde está el problema en hacerlo. Pues bien, el problema es que si ese participante anómalo hubiera resultado estar en el grupo control, el que tomaba el placebo, posiblemente el investigador ni se habría dado cuenta de que existía. Los resultados habrían parecido bonitos desde el principio: habría encontrado las diferencias significativas que esperaba.

En otras palabras, los datos feos tienen más probabilidad de mantenerse en el estudio cuando favorecen la hipótesis del investigador que cuando van en contra. Y lo que esto supone es que si el azar resulta ir en contra del investigador se hacen más intentos por corregirlo que si la suerte conspira para “ayudarle”. Todas estas prácticas de análisis de los datos que permiten al investigador inclinar la balanza a su favor es lo que en la literatura se conoce como p-hacking. Todas ellas suponen una importante amenaza para la integridad de los resultados científicos porque incrementan la probabilidad de que un resultado aparentemente significativo refleje en realidad un falso positivo.

¿Cómo solucionar el problema? Lo cierto es que afortunadamente pueden ensayarse varias soluciones. Pero eso ya es una historia para otra entrada en este blog…

__________

Masicampo, E. J., & Lalande, D. R. (2012). A peculiar prevalance of p values just below .05. Quarterly Journal of Experimental Psychology, 65, 2271-2279.

¿El ocaso del priming social?

Durante las dos últimas décadas, la psicología social ha sido un hervidero de incesantes descubrimientos, cada cual más sorprendente que el anterior. Juzguen ustedes mismos. Utilizar palabras relacionadas con la tercera edad nos hace movernos más despacio. Al ver el logo de Apple repentinamente nos volvemos más creativos. Rendimos más en una prueba de cultura general si antes hemos pensado en un catedrático universitario. Es más probable que nos prestemos voluntarios a participar en un estudio de psicología si justo antes hemos tocado un osito de peluche… Estos y otros experimentos similares vendrían a confirmar la omnipresencia de lo que se ha venido a llamar priming social: la fuerte influencia que, conforme a esta literatura, ejercen sobre nuestra conducta claves sutiles, por mecanismos que escapan a nuestro control consciente.

No es extraño que este tipo de resultados se haya abierto camino rápidamente en los manuales de psicología social y que actualmente se expliquen en cualquier curso universitario sobre la materia. Se trata de hallazgos interesantes e incluso perturbadores. Sin embargo, el adjetivo que mejor los define es “sorprendentes”. Primero, porque cuestionan nuestra concepción general sobre qué determina nuestra conducta y qué papel juega la voluntad consciente en ella. Y, segundo, porque aunque en el área de la psicología cognitiva también se han encontrado diversos ejemplos de priming, estos fenómenos casi siempre tienen un efecto pequeño, breve y sumamente efímero. Por ejemplo, resulta más fácil reconocer que la palabra “león” se refiere a un animal si antes hemos sido brevemente expuestos al nombre de otro animal. Sin embargo, pequeñas alteraciones del procedimiento experimental son suficientes para que esos efectos desaparezcan. A la luz de lo difícil que es observar el priming semántico o afectivo en el laboratorio, los experimentos que documentan que observar el logo de Apple o tocar un osito de peluche pueden influir en nuestra conducta social parecen sencillamente extraordinarios. Y ya se sabe lo que sucede con las afirmaciones extraordinarias: que requieren pruebas extraordinarias.

¿Demasiado bonito para ser cierto? Varios estudios realizados en los últimos meses así lo sugieren. La polémica sobre la credibilidad de estos resultados se desató cuando Doyen, Klein, Pichon y Cleeremans, de la Universidad Libre de Bruselas, publicaron en PLoS ONE un breve informe en el que describían dos experimentos en los que no habían conseguido replicar un famoso ejemplo de priming. Cuando apenas se ha calmado el revuelo causado por aquel artículo, PLoS ONE publica ahora un estudio similar de Shanks, Newell y colaboradores que echa otro jarro de agua fría a los investigadores del llamado priming social. En esta ocasión se han realizado nada menos que nueve experimentos en los que se intentaba replicar, sin éxito, otro estudio particularmente popular. El dudoso honor le ha correspondido esta vez al hallazgo de Dijksterhuis y van Knippenberg de que las personas puntúan más en una prueba de cultura general si antes han pasado un tiempo pensando en un profesor universitario que si han estado pensando en un grupo de hooligans.

A la publicación del artículo de Shanks y colaboradores le ha seguido una agria polémica, desgraciadamente similar a la que tuvo lugar en ocasiones anteriores. La reacción de Dijksterhuis ante estos resultados es ligeramente más diplomática, pero en lo sustancial se diferencia poco de la defensa que Bargh hizo de sus propios experimentos cuando fueron cuestionados por Doyen y colaboradores. También en esta ocasión, Dijksterhuis achaca la divergencia de resultados a “los extremadamente poco profesionales” experimentos de Shanks, a los que califica de “sub-standard”, y a la posible existencia de moderadores (aún desconocidos) que tal vez estén determinando si el efecto se observa o no. No han faltado tampoco en esta ocasión los habituales ataques a la política de revisión de PLoS ONE. Dijksterhuis ha señalado también que el efecto de priming de conductas inteligentes se ha replicado en numerosas ocasiones.

A mi juicio, una de las intervenciones más destacadas en este debate se la debemos a Gregory Francis, que recientemente ha publicado una nota en el foro de PLoS ONE cuestionando la integridad de las publicaciones originales sobre el priming de conductas inteligentes. Aplicando un sencillo análisis, Francis observa que la potencia estadística de los experimentos originales de Dijksterhuis es relativamente baja, en torno a un 50%. Esto supone que aunque el efecto existiera realmente, uno sólo esperaría observarlo realmente en aproximadamente la mitad de los experimentos realizados con esa potencia estadística. Sin embargo, en el artículo original de Dijksterhuis y van Knippenberg el efecto resultó ser significativo en los cuatro experimentos que allí se publicaban. Respondiendo a la pregunta de más arriba, estos datos son demasiado bonitos para ser ciertos. Esto no quiere decir que los autores hayan mentido sobre los resultados, pero sí invita a sospechar que o bien los experimentos en los que no se observaba el efecto no se publicaron o bien que en el análisis de los datos se utilizaron diversas estratagemas que sabemos que aumentan la posibilidad de obtener un falso positivo.

__________

Doyen S., Klein O., Pichon C.-L., & Cleeremans, A. (2012). Behavioral priming: It’s all in the mind, but whose mind? PLoS ONE, 7, e29081.

Shanks, D. R., Newell, B. R., Lee, E. H., Balakrishnan, D., Ekelund, L., Cenac, Z., Kavvadia, F., & Moore, C. (2013). Priming intelligent behavior: An elusive phenomenon. PLoS ONE, 8, e56515.

Psicología de las nuevas tecnologías, ahora en eBook

Si eres de los que creen que la vivienda está demasiado cara como para dedicar tres metros cuadrados a una biblioteca, estás de enhorabuena. Nuestro fantástico libro Psicología de las nuevas tecnologías: De la adicción a Internet a la convivencia con robots ya está disponible en eBook. Toda la información sobre ambas ediciones, en papel y electrónica, está disponible en la web de la editorial. Y si aún no nos has escuchado hablar del libro en la radio, no dejes de hacer click  aquí y aquí.

La política de I+D y el marshmallow

En uno de los experimentos más famosos de la historia de la psicología, Walter Mischel les planteó  a un grupo de niños un serio dilema. Les preguntó si preferirían comer un marshmallow (vamos, una nube de toda la vida) o un  pretzel. Si el niño elegía la nube, Walter le decía a continuación que tenía que salir un momento del despacho y que si podía esperar unos minutos, a la vuelta le traería la nube. Pero si no era capaz de esperar, podía llamarle y él vendría en el acto y le traería un pretzel. Es decir, el niño tenía que elegir si quería comer la nube aunque tuviera que esperar a cambio o si quería comer el pretzel inmediatamente. Lógicamente algunos niños se rindieron a la tentación de coger el pretzel y otros fueron capaces de esperar. Lo interesante es lo que esta sencilla decisión revelaba sobre el futuro de esos niños. En una serie de estudios, Mischel y sus colaboradores comprobaron que los niños que habían sido capaces de esperar sacaban mejores notas 10 años después, puntuaban mejor en los tests de inteligencia, sus padres los describían más favorablemente, soportaban mejor la ansiedad y el estrés, tenían más habilidades sociales… Un estudio reciente muestra que incluso su índice de masa corporal es menor. ¡Toda una lección sobre la naturaleza humana!

Mientras escribo estas líneas me pregunto qué tipo de niños habrán sido las personas que nos gobiernan y que toman decisiones sobre nuestro futuro. Leo en la prensa, una vez más, que este año no habrá una convocatoria nacional para pedir subvenciones a proyectos de I+D, a la vez que se siguen estrangulando los sistemas de contratación de personal investigador, como el programa Ramón y Cajal o el programa Juan de la Cierva. Comparados con otro tipo de recortes, suprimir el gasto en investigación es terriblemente sencillo para cualquier gobierno. Si se hacen recortes en educación o en sanidad, si se bajan los sueldos a los funcionarios, las calles lógicamente se llenan de gente. Por el contrario, si uno no sólo recorta, sino que aniquila completamente el sistema nacional de I+D, no pasa nada. La sociedad no paga ningún precio a corto plazo. Hay cuatro manifestaciones pequeñitas de jovenzuelos con camisetas naranjas y poco más. Nadie duda de que esta política tenga un coste enorme a largo plazo, pero mientras tanto vamos tirando. No hay que olvidar tampoco que este “sacrificio” resulta tanto más fácil para quienes no comparten los valores de la ciencia. Al fin y al cabo, bajo toda su aparente complejidad técnica, la ciencia se asienta en una idea singularmente sencilla: Valorar más la verdad que la tradición.

Es muy interesante ver que en otros países europeos donde la crisis también está golpeando fuerte, el gasto en I+D no se ha recortado nada e incluso se ha ampliado. Muchos pueden decir que esos países están incrementando el gasto porque les ha ido algo mejor que a nosotros. Pero es difícil no preguntarse si no será que les va mejor porque incrementan el gasto en ciencia. No porque lo incrementen ahora, claro está, sino porque cada vez que en el pasado se han enfrentado a dilemas como estos, sistemáticamente han decidido no poner en riesgo lo que en el futuro pudiera darles de comer.

Los médicos suelen achacar nuestros problemas de salud a la obesidad, el sedentarismo, o el tabaquismo. Muchas de nuestras enfermedades se deben a la simple incapacidad para sacrificar el placer inmediato en favor de la salud futura. Me pregunto cuál de estas enfermedades matará a nuestro país.

__________

Mischel, W., Ebbesen, E. B., & Zeiss, A. R. (1972). Cognitive and attentional mechanisms in delay of gratification. Journal of Personality and Social Psychology, 21, 204-218.

Mischel, W., Shoda, Y., & Rodríguez, M. L. (1989). Delay of gratification in children. Science, 244, 933-938.

Schlam, T. R., Wilson, N. L., Shoda, Y., Mischel, W., & Ayduk, O. (2013). Preschoolers’ delay of gratification predicts their body mass 30 years later. Journal of Pediatrics, 162, 90-93.

In memoriam John Garcia

garcia-lorenzEntre mis correos matutinos, tuve hoy la mala fortuna de descubrir que desde el pasado Octubre ya no estaba con nosotros quien fuera uno de los más importantes investigadores del condicionamiento clásico. John Garcia (1917-2012), que en esta foto aparece junto a Konraz Lorenz, pasará a la posteridad por sus famosos estudios sobre el carácter selectivo del aprendizaje asociativo. No hay un solo manual de psicología del aprendizaje que no se detenga unas páginas a describir su obra. Según la visión que se tenía del condicionamiento clásico antes de John García, cualquier estímulo se podía asociar con otro si ambos se emparejaban de forma repetida y consistente. Luces, sonidos, descargas, comida… todos ellos se consideraban funcionalmente equivalentes. Esta visión relativamente simplista del aprendizaje asociativo hundía sus raíces en el empirismo inglés y se remontaba a las leyes de la memoria planteadas por Aristóteles. John Garcia fue uno de los primeros en observar que, al contrario, los organismos están fuertemente predispuestos a aprender ciertas asociaciones y no otras. Aprender la relación entre una luz y una descarga es más fácil que aprender una posible relación entre, por ejemplo, un sabor y una descarga. Inspirados por la obra de Garcia, numeros experimentos posteriores han demostrado la existencia de este tipo de predisposiciones en nuestra propia especie. Por ejemplo, a las personas nos cuesta menos aprender una asociación entre la imagen de una serpiente y una descarga, que entre la imagen de un cuchillo y la misma descarga. Esta predisposición resulta lógica a la luz de nuestro pasado evolutivo, habida cuenta de que en nuestro hábitat natural la visión de una serpiente u otro animal peligroso tenía muchas probabilidades de acabar en un mal desenlace. Somos descendientes de los primates que resultaron ser más rápidos a la hora de aprender estas relaciones. Por desgracia, en nuestro entorno moderno nos sería más ventajoso aprender a evitar armas blancas y pistolas que arañas y serpientes. Pero no es así como funciona la mente humana. Y tampoco la del resto de animales. Los experimentos de Garcia planteaban una visión innovadora de la conducta que ponía de manifiesto hasta qué punto los mecanismos genéticos y la experiencia interactúan para producir las formas más rudimentarias de aprendizaje. El estudio moderno del aprendizaje asociativo no puede entenderse sin él.

El carácter psicológico de la explicación científica

El libro que Lewandowsky y Farrel han publicado bajo el título de Computational models in cognition vale su peso en oro (y así lo cobran las librerías). Juzguen ustedes a partir de mi pobre traducción de los párrafos con los que cierran el segundo capítulo.

Hay un último atributo de las explicaciones científicas que rara vez se hace explícito: Las explicaciones son “epistémicamente valiosas sólo si podemos entenderlas, ya sea implícita o explícitamente. Como resultado de ello, una explicación debe mantener algún contacto con nuestras capacidades psicológicas de comprensión” (Trout, 2007, p. 565). Se sigue de esto que cualquier explicación científica […] necesariamente debe evaluarse también en términos psicológicos. Esta sorprendente idea tiene numerosas implicaciones.

Primero, una explicación que no puede entenderse no es una explicación. Se sigue de ello que algunos fenómenos del universo podrían permanecer siendo un misterio para los humanos de forma irremediable –no porque en principio no existan explicaciones para ellos, sino porque esas explicaciones no pueden ser entendidas humanamente y por tanto no pueden formularse (Trout, 2007). También se sigue que los modelos usados en psicología se benefician de simplificar la realidad que pretenden explicar, incluso si esa simplificación hace que el modelo sea erróneo. A riesgo de ser provocativos, nos atrevemos a proponer que los modelos son útiles precisamente porque son falsos. Esto es lo que se conoce como la paradoja de Bonini (Dutton & Starbuck, 1971), según la cual a medida que un modelo se aproxima  más a la realidad, se hace más difícil de entender. En el caso más extremo, el modelo puede ser tan difícil de entender como aquello que pretende explicar –en cuyo caso, nada se gana con él.

Segundo, cuando hay varias explicaciones potencialmente comprensibles, se puede preferir algunas de ellas sobre otras por razones que son exclusivamente psicológicas y que no tienen nada que ver con sus propiedades objetivas. En un artículo con el evocador título de “Explanation as orgasm”, Gopnik (1998) subrayó la peculiar fenomenología […] que acompaña a las explicaciones; en concreto, propuso que la sensación gratificante que acompaña al descubrimiento de una explicación […] podría ser un mecanismo evolutivo para asegurar el impulso hacia la exploración y el descubrimiento –de la misma forma que los orgasmos proporcionan el impulso necesario para la reproducción. Aunque esta “emoción cognitiva” pueda tener beneficios para la especie en su conjunto, ya que asegura una exploración constante del entorno, podría no ser suficiente para asegurar que los individuos –incluyendo a los científicos– acepten las mejores explicaciones. Así pues, Trout (2007) identifica varios factores cognitivos, como el sesgo de retrodicción o el exceso de confianza, que podrían producir una falsa o exagerada sensación de satisfacción intelectual […] cuando un científico opta por una explicación. De la misma forma, la gente tiende a preferir explicaciones que son más sencillas de lo que permiten los datos (Lombrozo, 2007) y tienden a encontrar las explicaciones adaptacionistas particularmente seductoras […] (Lombrozo, 2005). Hintzman (1991) se atrevió a sugerir que un simple acrónimo puede llegar a aceptarse como una explicación de algo, incluso si el propio acrónimo implica que el fenómeno no tiene explicación (por ejemplo, OVNI) (Lewandowsky & Farrell, 2011, p. 68-69).

Lysenko, el cambio climático y el libre mercado

ilysenk001p1Una cara de la ignorancia humana tiene que ver con todas aquellas cosas en las que creemos y que resultan ser falsas. Usar “medicinas” alternativas que se sabe que no funcionan o prepararse para la llegada inminente de extraterrestres son buenos ejemplos de esta faceta de la irracionalidad. Pero más asombrosas si caben son las numerosas manifestaciones de la cara contraria: la profunda tendencia a rechazar como falsas ideas que son manifiestamente verdaderas.

Entre los innumerables ejemplos de esta ceguera intelectual, mi favorito lo protagoniza Trofin Denisovich Lysenko (1898-1976). De haber sido ciertas, sus teorías agronómicas habrían terminado con el hambre en el mundo. Los experimentos que supuestamente realizó en su juventud le llevaron a concluir que podían mejorarse las semillas de los cereales para conseguir que pudieran cultivarse en climas más fríos o más cálidos de lo normal y así multiplicar el número de cosechas a lo largo del año. El proceso para conseguirlo se denominaba vernalización. Se trataba de mantener las semillas durante cierto tiempo a temperaturas muy bajas y a niveles de humedad determinados para mejorar su adaptación al frío. Según Lysenko, este proceso no sólo cambiaba las propiedades de las semillas manipuladas, sino que también producía cambios en toda su descendencia. Es decir, que una vez vernalizada una semilla, todas las semillas que descendieran de ella estarían automáticamente vernalizadas sin necesidad de repetir el proceso. Esta teoría y su puesta en práctica le valieron a Lysenko numerosos honores, entre ellos ser nombrado director del Instituto de Genética de la Academia de Ciencias de la URSS y estar a cargo de la política agraria del país durante décadas.

Si el lector recuerda algo de las clases de biología de secundaria, se dará cuenta de que lo que Lysenko estaba defendiendo era aquello de la herencia de los caracteres adquiridos, la teoría de la herencia lamarckiana que hoy cualquier niño de 12 años sabe que es falsa. Si a una mosca le arrancas las alas (el ejemplo no es mío), no por ello su descendencia dejará de tener alas. La teoría es manifiestamente falsa y se sabía en la época. Sin embargo, las prácticas basadas en ella continuaron porque criticarlas era ilegal. La teoría darwinista de la evolución y la genética mendeliana se consideraban hijas del pensamiento capitalista y no podían ser reconocidas como ciertas en un estado soviético. Abrazar el darwinismo o criticar las teorías de Lynsenko se consideraban traición a los ideales del comunismo y eran condenados como tal. Eran una “verdad incómoda”.

No puedo evitar recordar esta historia mientras leo el nuevo artículo de Stephan Lewandowsky, Klaus Oberauer y Gilles Gignac que está a punto de publicarse en Psychological Science. El artículo trata de la “verdad incómoda” de nuestro tiempo: el cambio climático. Como explican los autores en la introducción, el 90% de los científicos está de acuerdo en que el clima está cambiado como resultado de las emisiones de CO2 y todo indica que los informes que están publicando los comités sobre cambio climático son más conservadores que alarmistas. Sin embargo, la “manufactura de la duda” ha conseguido convencer a una gran parte de la población de que el problema no existe y que los propios científicos no están de acuerdo. En España tenemos la suerte de contar con importantes políticos cuyos primos sabían mucho de este asunto.

No pretendo resumir aquí todos los resultados del estudio de Lewandowsky y colaboradores. Pero sí el más importante: entre los numerosos predictores de la tendencia a negar el cambio climático el que más peso tiene, con mucha diferencia, es la creencia en la ideología de libre mercado. Al igual que sucedía con los efectos nocivos del tabaco o con el agujero de la capa de ozono, la realidad del cambio climático pide a gritos un mayor intervencionismo que resulta intolerable para quienes creen firmemente en la economía de libre mercado. También aquí, si la verdad choca con la ideología, tanto peor para la verdad.

Si la ceguera de Lysenko tuvo un gran precio para la antigua URSS (décadas de hambruna y un atraso científico en todo lo relacionado con la biología que apenas hoy se empieza a superar), imaginen el precio que pagaremos por esta otra ceguera…

__________

Lewandowsky, S., Oberauer, K., & Gignac, G. E. (in press). NASA faked the moon landing –Therefore, (climate) science is a hoax: An anatomy of the motivated rejection of science. Psychological Science.

Gilbert Ryle y el concepto de lo mental

Hay turistas que cuando visitan una ciudad por primera vez no se conforman con entrar en el museo o sacarse fotos en los lugares más famosos, sino que intentan mezclarse con la gente del lugar en busca de los rincones menos transitados que conservan un encanto más genuino. Para quienes desean viajar por la historia de la psicología de esta manera, Gilbert Ryle es parada obligatoria. Su nombre no aparece en los grandes manuales de psicología. Sólo así se explica que pudiera comprar su genial The concept of mind por apenas dos libras en un mercadillo de Londres. Pero basta recordar que el filósofo de Oxford fue el director de tesis de un joven Daniel Dennett para empezar a sospechar que no hablamos de un personaje cualquiera.

RyleSu libro es un ataque frontal a lo que él denomina el “mito de Descartes”, a cuya descripción dedica las primeras páginas. Se trata de la idea de que los seres humanos se componen de un cuerpo y un alma, ambos de naturaleza radicalmente diferente y hasta cierto punto independiente. La mente se convierte así en una suerte de “fantasma en la máquina”, una entidad misteriosa y enigmática diferente del cuerpo mecánico que habita, pero unida íntimamente a él. Toda la filosofía y la psicología modernas están profundamente contaminadas por esta visión errónea, dice Ryle, del ser humano.

Para Ryle, contraponer cuerpo y mente implica caer en un grave error categorial. Se trata del tipo de error que uno comete cuando trata como equivalentes conceptos con propiedades lógicas diferentes. Para explicarnos en qué consiste un error categorial, nos invita a pensar en una persona que viaja hasta Oxford a visitar a un amigo y le pide que le enseñe la universidad. El amigo le lleva a la biblioteca, le presenta a los profesores y a los alumnos, le acompaña por los jardines y le enseña los laboratorios y las aulas. Cuando el día termina, el viajero se vuelve a su amigo y le dice: “Todos los edificios que hemos visto son preciosos, pero ¿cuándo veremos la universidad?”. El error de nuestro personaje reside en no darse cuenta de que la universidad no es un edificio más, sino que es una entidad más abstracta que engloba todos los edificios y a las personas que han visto durante el día. Lo mismo le sucede a quien asiste a un desfile militar y tras ver a la infantería y a la caballería se pregunta cuándo pasará el ejército; o a quien asiste a un partido de cricket y ve a los jugadores y el campo, pero busca en vano el espíritu de equipo.

Decir que una persona es un cuerpo y una mente es tan extraño como decir que uno ha visitado una universidad y su biblioteca o que ha conocido a un equipo de fútbol y a sus jugadores. A lo largo de El concepto de lo mental, Ryle va analizando meticulosamente el significado de las palabras que utilizamos para describir la actividad de la mente. Pensamiento, emociones, inteligencia… Todos ellos se refieren a procesos que a menudo se entienden como causas internas de la conducta observable. Sin embargo, este uso de los términos nos lleva a caer en errores lógicos.

Cuando alguien grita a otra persona, decimos que lo hace porque está enfadado y nos contentamos con esta explicación. Pero según Ryle, se trata de una explicación muy peculiar. Cuando decimos que alguien grita porque está enfadado, no se trata del mismo tipo de explicación que cuando decimos que un cristal se ha roto porque lo ha golpeado una piedra. Se trata más bien del tipo de afirmación que hacemos cuando decimos que el cristal se rompió porque era frágil. Se trata de una explicación, sí. Pero es una explicación muy diferente de la primera. Explica por qué se  rompió el cristal pero no mediante un relato mecánico de los procesos que condujeron a ello, sino llamando la atención sobre el hecho de que los cristales se rompen con facilidad. De la misma forma, sabemos que alguien está enfadado porque hace cosas como gritar. Luego, decir que grita porque está enfadado no nos ofrece una explicación causal. Casi podríamos decir que se trata de una explicación circular: sabemos que está enfadado porque grita y explicamos que grite diciendo que está enfadado.

Aunque no oculta su simpatía por cierto tipo de conductismo, Ryle en ningún momento afirma que no existan los procesos mentales o que no puedan ser útiles para entender la conducta. Se limita a llamar la atención de que la mayor parte de nuestros conceptos “mentales” son en realidad etiquetas que utilizamos para categorizar diferentes tipos de conducta. No podemos utilizar esas etiquetas para explicar la conducta, porque son descripciones de la propia conducta.

¿Es irracional ser irracional?

Los psicólogos experimentales somos expertos en diseñar tareas que desafíen las capacidades de memoria, aprendizaje o percepción de cualquier persona. Pero pocas tareas son tan endiabladamente difíciles como la que acabo de conocer gracias a un artículo recién publicado en Psychological Review. Se trata del llamado Harvard Game. Al participante se le pone delante de un ordenador y se le dice que el juego consiste en elegir en cada ensayo si va a pulsar el botón A o el botón B. Si pulsa el botón A, su probabilidad de ganar depende de lo que haya hecho en los diez ensayos anteriores: cuantas más veces haya pulsado el botón A en el pasado, más probabilidades tiene de volver a ganar si vuelve a pulsar el botón A. Por ejemplo, si en los 10 ensayos anteriores ha pulsado 10 veces la A, su probabilidad de ganar si vuelve a pulsar la A puede ser, por ejemplo, de un 70%. Sin embargo, si en ninguno de los 10 ensayos anteriores ha pulsado la A, entonces su probabilidad de ganar si vuelve a pulsar la A es cero. Hasta aquí sencillo. ¿Pero qué sucede con el botón B? Pues bien, si el participante pulsa el botón B sus probabilidades de ganar en cualquier ensayo son, por ejemplo, un 20% mayores que las que tendría si pulsara el botón A. Es decir, si la probabilidad de ganar en un ensayo pulsando el botón A es del 50%, entonces la probabilidad de ganar pulsando B en ese ensayo es del 70%.

El lector tal vez no se haya dado cuenta todavía, pero esta situación supone un auténtico dilema para la toma de decisiones. En cualquier momento determinado, siempre es más probable ganar si se pulsa el botón B. Sin embargo, cuantas más veces se pulse el botón B, menos veces se habrá pulsado el botón A, y es este número de veces que se ha pulsado A en los 10 ensayos anteriores el que determina las probabilidades de ganar tanto para A como para B. Es decir, que si se pulsa A con poca frecuencia, la probabilidad de ganar pulsando cualquier botón baja dramáticamente. Por tanto, se trata de una situación en la que perseguir el interés a corto plazo pulsando el botón B reduce las posibilidades de ganar premios a largo plazo pulsando cualquier botón. El jugador inteligente debería pulsar siempre A, porque esa es la forma de maximizar el número total de premios que se pueden conseguir a lo largo de la partida.

Lógicamente, las personas rara vez se comportan así. Y la inferencia lógica que los psicólogos experimentales suelen extraer es que las personas no somos racionales y que sacrificamos el beneficio a largo plazo en favor de la satisfacción inmediata, como cuando hipotecamos nuestra salud fumando o comiendo más de la cuenta en Navidad.

El artículo publicado en Psychological Review que firman Chris Sims y sus colaboradores se propone desafiar esta idea de que una ejecución pobre en el Harvard Game puede tomarse como un indicador de irracionalidad. El desarrollo de sus ideas es complejo, pero el punto de partida es bien sencillo. Cuando el experimentador programa esta tarea, él sabe cómo funciona. Sabe que la probabilidad de ganar premios depende de cuántas veces se pulsa A y sabe que es en concreto el número de respuestas A en los últimos 10 ensayos lo que cuenta. Y sabe que la mayor probabilidad de ganar con B es una trampa a largo plazo. Pero el participante que se sienta ante el ordenador no sabe nada de todo esto. Lo tiene que aprender a partir de su interacción con el programa de ordenador. Y según Sims y colaboradores esta “sencilla” tarea de aprender lo que sucede en el programa tiene una elevadísima complejidad desde un punto de vista computacional.

Para demostrarlo, estos autores han diseñado un modelo de aprendizaje basado en principios de inferencia bayesiana. Este modelo representa lo que una persona inteligente debería hacer y aprender sobre el funcionamiento del programa desde un punto de vista racional. En otras palabras, este modelo representa cómo debería enfrentarse a la tarea un ser humano perfecto. A este modelo se le proporciona como input la información que ven los participantes reales a lo largo del experimento y su tarea es construir una representación exacta de cuáles son las reglas que determinan cuánto dinero se gana en el juego. Pues bien, el resultado de sus simulaciones es que en la mayor parte de los casos el modelo apenas es capaz de aprender cuáles son esas reglas. Si acaso, a base de proporcionarle cantidades masivas de evidencia finalmente llega a atisbar, pero con dudas, cuáles son esas reglas. Si este programa sofisticado y racional no es capaz de aprender a desempeñarse efectivamente en el Harvard Game, ¿cómo podemos culpar a los seres humanos de no ser capaz de hacerlo mejor? Cuando un agente perfectamente inteligente no es capaz de solucionar un problema, ¿podemos tachar de irracionales a las personas que no consiguen hacerlo mejor?

__________

Sims, C. R., Neth, H., Jacobs, R. A., & Gray, W. D. (2013). Melioration as rational choice: Sequential decision making in uncertain environments. Psychological Review, 120, 139-154.

La psicología a la escuela

Hubo un tiempo en el que los psicólogos quisieron cambiar el mundo empezando por las escuelas. Mientras William James escribía sus populares Talks to teachers, Binet desarrollaba el primer gran test de inteligencia y Lightner Witmer creaba la psicología clínica, no para tratar casos de ansiedad y depresión, como hoy la conocemos, sino para ayudar a los niños con problemas de aprendizaje. A manos de Thorndike y Dewey la ciencia de Wundt, la ciencia de la mente, el aprendizaje y la memoria estaba llamada a revolucionar la sociedad desde las aulas. Un siglo después el mundo ha cambiado mucho, sí, pero las escuelas no tanto. En algún momento se perdieron el ímpetu y el entusiasmo. Los psicólogos del aprendizaje, la memoria y el pensamiento, enfundados en sus batas blancas, olvidaron que había un mundo real más allá del laboratorio. Y si quedaban psicólogos que quisieran cambiar el mundo, ya no miraban a los pupitres como línea de salida. En pleno siglo XXI, la psicología no es a la educación lo que la biología es a la medicina. Continúa leyendo en Psicoteca

El TDAH se sobrediagnostica

Leo, un niño de 10 años, es muy activo y está lleno de energía. Le gusta moverse, y habla y se ríe un montón. Es popular en su clase, un líder entre los niños. Sin embargo, su temperamento causa problemas, sobre todo con el profesor de matemáticas y biología. El profesor dice que Leo se distrae con facilidad por cualquier cosa. A veces parece que no escucha cuando habla el profesor. Tiene problemas para mantener la atención en una misma tarea durante un tiempo prolongado. Leo siempre se está moviendo. Juguetea constantemente con los pies y se revuelve en el asiento. Esto produce verdaderos problemas en esas dos asignaturas. Por eso, el profesor ha contactado con los padres. Los problemas empezaron hace aproximadamente un año, al principio del cuarto curso, cuando este profesor comenzó a encargarse de la clase de Leo. Otros profesores también se han fijado en el temperamento de Leo y en su nivel de actividad, pero esto no ha provocado problemas en otras asignaturas. Los padres de Leo han consultado a un pediatra y no ha encontrado ninguna enfermedad somática. Fuera de la escuela, Leo no tiene ninguno de estos problemas. Obedece a sus padres y respeta las normas de casa. Le gusta jugar con su hermana y se lleva bien con sus amigos. ¿Qué le pasa a Leo?

Si usted opina como el 17% de los psicoterapeutas interrogados por Bruchmüller y sus colaboradores responderá que Leo presenta un trastorno por déficit de atención e hiperactividad (TDAH). Lo preocupante es que, de hecho, Leo no presenta los síntomas necesarios para diagnosticar el tal vez demasiado popular TDAH. Según el Manual diagnóstico y estadístico de trastornos mentales (DSM-IV) y el Sistema internacional de clasificación de enfermedades (ICD-10), para poder diagnosticar el TDAH debe cumplirse, entre otros criterios, que haya al menos seis síntomas diferentes de inatención y otros seis síntomas de hiperactividad, que la aparición de esos síntomas sea anterior a los siete años de edad y que den lugar a problemas en al menos dos ámbitos diferentes. Estos criterios no se cumplen en el caso de Leo, que por tanto nunca debería ser diagnosticado con TDAH.

Si Leo resulta llamarse Lea, está de suerte. Los resultados muestran que este inocente cambio en la historia supone una diferencia radical en la tasa de sobrediagnóstico. La versión femenina tiene la mitad de probabilidades de ser diagnosticada con TDAH. Esto sugiere, entre otras cosas, que muchos psicoterapeutas pueden estar basando sus diagnósticos más en el estereotipo que tienen de los pacientes con un trastorno –que en el caso del TDAH encaja mejor con la imagen de un niño varón–que en los genuinos criterios diagnósticos que deben usarse según el DSM-IV y el ICD-10.

La situación podría ser bastante más grave de lo que los datos anteriores dan a entender, habida cuenta de que ese 17% de sobrediagnóstico del TDAH posiblemente subestima la tasa real de sobrediagnóstico. Los terapeutas que participaron en este estudio sabían que sus respuestas estaban siendo escrutadas con detalle y que iban a ser objeto de análisis por parte de los autores del estudio. Cabe pensar que sus diagnósticos habrán sido más cuidadosos que si nadie les hubiera supervisado. Es más, ese 17% no incluye a todos los psicoterapeutas que no terminaron de dar el diagnóstico de TDAH, pero decían sospechar que podría ser un caso de TDAH. Es más que probable que en estos casos dudosos, algunos de estos terapeutas se habrían inclinado finalmente por suscribir el diagnóstico. Lo más grave es que estos terapeutas que diagnosticaron erróneamente el TDAH también fueron los más proclives a proponer tratamientos psicológicos y farmacológicos, exponiendo así a los pacientes a un innecesario riesgo de padecer efectos secundarios y trasladando a la sociedad un coste médico igualmente prescindible.

__________

Bruchmüller, K., Margraf, J., & Schneider, S. (2012). Is ADHD diagnosed in accord with diagnostic criteria? Overdiagnosis and influence of client gender on diagnosis. Journal of Consulting and Clinical Psychology, 80, 128-138.

Nuestros mejores ángeles

Cada vez que Steven Pinker se pone a escribir un libro, sólo cabe esperar lo mejor. Pero a veces consigue superar todas las expectativas. Su última obra, The better angels of our nature es de esos libros que no queda más remedio que leer, antes o después. Se trata de un profundo y meticuloso estudio de la evolución de la violencia en las sociedades humanas. Si eres de los que creen que cualquier tiempo pasado fue mejor, no puedes estar más equivocado. Tenemos la suerte de vivir en la época menos violenta de la historia de la humanidad. A través de un detallado análisis de todos los datos disponibles, Pinker muestra que prácticamente no hay ninguna forma de violencia que no se haya reducido drásticamente a lo largo de los siglos. Incluso incluyendo las dos terribles guerras mundiales, nunca fue tan improbable sufrir una muerte violenta como en el siglo XX. Salvo si tienes la suerte de vivir en el siglo XXI, porque hasta en los pocos años que llevamos recorridos del nuevo milenio sigue su curso la reducción sistemática de la crueldad y la violencia.

¿Quiere esto decir que podemos relajarnos despreocupados a disfrutar de la paz duradera en la que vivimos? Nada  más lejos de la intención de Pinker que hacer predicciones sobre el futuro. Como señala varias veces a lo largo del libro, bastante difícil es entender el pasado como para jugársela a predecir qué va a pasar mañana. Su objetivo no es invitarnos a la serenidad y el optimismo, sino entender por qué la violencia se ha reducido. Si nuestra sociedad es más pacífica que nunca, algo habremos hecho bien. Pero es vital preguntarnos qué es exactamente lo que hemos hecho bien, porque de lo contrario nada impide que en un futuro cambiemos las condiciones sin saberlo y volvamos a nuestra primitiva violencia.

La estrategia que sigue Pinker es aprovechar que a lo largo de la historia ha habido variación en los niveles de violencia para ver cuáles son los factores que han precedido a esa variación y poder así explicarla. Saltar de correlación a causación es una maniobra arriesgada, ya se sabe. Pero cuando uno quiere entender las causas de la paz no hay experimentos que valgan. Uno sólo cuenta con el relato de la historia. A lo largo del texto, Pinker va detectando algunos buenos candidatos a ser reconocidos como causas del declive de la violencia.

Siempre entusiasta de Hobbes, el primero de los candidatos que encuentra Pinker no podría ser otro que el Leviatán: la existencia de estados centralizados con el monopolio del ejercicio de la violencia, evitando la guerra del todos contra todos y haciendo así que la vida deje de ser “solitaria, pobre, desagradable, brutal y corta”. El diagnóstico del segundo candidato se lo debemos a Kant y a la filosofía de la ilustración. Se trata de las relaciones comerciales entre las diversas naciones, que hacen que cada país tenga más que perder atacando a otro país que manteniendo negocios con él. Conquistar otra nación para apoderarse de sus recursos es más caro que comprarlos en el mercado internacional.

Junto a estos factores de carácter económico y político, Pinker encuentra también factores de carácter psicológico. Uno de ellos es la creciente capacidad de las personas para ponernos en el lugar de los demás y concebir cómo se sienten. Entre otras, según Pinker, le debemos esta creciente capacidad a la literatura, que nos expone en el mundo de la ficción a dilemas, tensiones, y desencuentros que apenas experimentamos en la vida cotidiana y que alimentan nuestra competencia moral. En esta misma línea, Pinker habla de la creciente “feminización” del ser humano como uno de los factores cruciales de la paz que disfrutamos. Los mejores ángeles de nuestra naturaleza resultan tener sexo, y son mujeres.

Pseudociencia en las escuelas

Cuando los divulgadores hablan de los costes que la pseudociencia tiene para la sociedad moderna casi siempre recurren a los mismos sospechosos habituales: la homeopatía, el reiki, la quiropraxia… Todos ellos en el ámbito de la salud. Por desgracia el mundo de la medicina no es el único que se ve acosado por la pseudociencia ni es donde se concentran los mayores peligros. Mientras todas las defensas se concentran en evitar que la seguridad social cubra tratamientos complementarios y alternativos, en las escuelas campan a sus anchas todo tipo de ideas felices que, para sorpresa de profesores y padres, nunca han tenido apoyo empírico ni razón de ser.

Uno puede decir, como el celebérrimo Glenn Doman, que todos los niños son genios y que se les puede enseñar a leer y multiplicar antes de que cumplan un año y quedarse tan ancho. O peor aún, convertirse en un autor de referencia, con decenas miles de seguidores en el mundo entero. Tal vez usted no lo sepa, pero si tiene hijos pequeños o sobrinos en el colegio es más que probable que estas ideas se estén ensayando con ellos. ¿En qué evidencia se basan estas prácticas? En ninguna. Y se trata de un ejemplo entre muchos. No necesariamente el más preocupante.

Por eso son más necesarios que nunca artículos como el que acaban de publicar Scott Lilienfeld, Rachel Ammirati y Michael David en el Journal of School Psychology. El texto comienza con una señal de alarma: una pequeña sección sobre la preocupante distancia que aleja a los psicólogos educativos de la investigación científica. Unos pocos ejemplos bastan para sembrar la preocupación. Sistemas de enseñanza de la lectura que sabemos que son contraproducentes, técnicas diagnósticas sin valor predictivo, programas antidrogas que siguen implantándose en los centros aún sabiendo que no funcionan, todo tipo de creencias falsas sobre el (inexistente) aumento en la prevalencia del autismo…

Aunque Lilienfeld y colaboradores posiblemente lo ignoran, muchas de las prácticas que critican son recibidas con aplausos en los centros escolares españoles mientras escribo estas líneas. El método global de la enseñanza de la lectura es uno de los más sangrantes. Desde hace algunos años, en muchos centros educativos ya no se enseñan las reglas fonéticas. Aquello de que la “b” con la “a”, “ba”. Ahora se enseña a los niños una palabra completa, por ejemplo “árbol”, junto a un dibujo que representa el concepto. La idea es que haciendo esto con muchas palabras, los niños acabarán descifrando las reglas de la lectura. ¿Funciona? Bueno, algunos niños podrían aprender a leer casi sin que los adultos les enseñaran nada. Pero la evidencia señala que el método global falla con muchos niños. El viejo sistema supera con creces al de las palabras completas, pero por desgracia esta evidencia no llega a los colegios.

Tampoco es diferente el veredicto que hacen Lilienfeld y colaboradores de otra idea que se ha hecho fuerte en nuestras escuelas: la llamada teoría de los estilos de aprendizaje. Lo que esta teoría tiene de cierto es sentido común y lo que va más allá es pura pseudociencia. Que cada niño es diferente y que no siempre los métodos que son mejores para enseñar a unos niños son los mejores para enseñar a otros apenas es algo que pueda sorprender. Pero pasar de ahí a decir que disponemos de un buen sistema para diagnosticar cuál es el estilo de aprendizaje de cada alumno o que sabemos cómo trasladar esa información a prácticas educativas personalizadas para cada alumno es otra cosa. Lo cierto es que ni siquiera disponemos de un buen sistema de categorías para “clasificar” a los estudiantes. Las clasificaciones que se usan en las escuelas son tan burdas como decir que unos estudiantes son “visuales” y otros son “auditivos”. De nuevo, no tenemos ninguna evidencia empírica para sostener que estas clasificaciones son útiles y que los niños aprenden mejor cuando se llevan a la práctica estas ideas. Pero esto no impide que sean el último grito en “innovación” educativa. De hecho, no queda muy lejos de estas ideas la llamada teoría de las inteligencias múltiples, cuyo autor ha recibido nada menos que el Príncipe de Asturias de Ciencias Sociales del año 2011.

El artículo de Lilienfeld, Ammirati y David no pretende ser una simple denuncia de esta situación. De hecho, ni siquiera es su principal objetivo. La mayor parte del artículo está destinada a explicar las razones por las que creemos con tanta facilidad en estas teorías erróneas y, lo más importante, dar un pequeño número de consejos para ayudarnos a combatirlas, en nosotros mismos y en los demás. Si una práctica educativa no se a basa en estudios rigurosos sino en evidencia anecdótica, si una teoría está planteada de una forma que no es falsable o no puede ponerse a prueba, si se trata de ideas que no cambian ni se corrigen con el paso del tiempo, si las personas que las sostienen evitan las críticas a toda costa, si hacen “afirmaciones extraordinarias” sin disponer de “evidencia extraordinaria”… lo menos que podemos hacer es recelar.

__________

Lilienfeld, S. O., Ammirati, R., & David, M. (2012). Distinguishing science from pseudoscience in school psychology: Science and scientific thinking as safeguards against human error. Journal of School Psychology, 50, 7-36.