Entrevista para El Mcguffin Educativo

Siempre me ha sorprendido que a los escépticos de nuestro país les preocupen tanto la homeopatía y las flores de Bach -que al fin y al cabo son libres de tomar o no- y sin embargo permanezcan indiferentes ante las prácticas pseudocientíficas a las que, lo quieran o no, someten a sus hijos en las escuelas. Es difícil encontrar una escuela donde no se utilicen los bits de inteligencia de Doman, basados en la idea de que con la estimulación adecuada, cualquier niño de menos de uno año de edad puede aprender a escribir, sumar y restar. Bajo el nombre de HERAT acaba de llegar a nuestro país un programa educativo que en el resto de los países se conoce como Brain Gym y se basa en ideas felices como que los niños aprenden mejor si beben seis vasos de agua al día (porque “la comida procesada no tiene agua”), o si se tocan los lóbulos de las orejas de cierta manera para favorecer la conexión de los hemisferios cerebrales a través del cuerpo calloso. No pasa nada si tu hijo tiene problemas de dislexia, autismo o TDAH –que por cierto, no existe– porque disponemos de sencillos métodos que curan todo esto y más a base de hacer ejercicios de percusión o escuchando música manipulada electrónicamente. Lógicamente, los cursillos donde se enseña esto hacen furor entre el profesorado. Los niños del siglo XXI ya no son introvertidos o extrovertidos; no se les dan bien o mal las matemáticas. Ahora son de hemisferio izquierdo o de hemisferio derecho; visuales, kinestésicos o auditivos; tienen inteligencias múltiples, cada uno las suyas. De hecho, los niños son ahora tan diferentes los unos de los otros que ya sólo tienen una cosa en común: Todos son genios. En fin. Entre tanta tontería sólo hay un puñado de valientes que se atreve a decirle al emperador que va desnudo. Y entre ellos, Albert Reverter brilla con luz propia. Así que cuando me preguntó si me dejaría entrevistar para su blog, El Mcguffin Educativo, la respuesta fue sencilla. El resultado, aquí.

Entrevista para UDIMA

Cada vez que quedo con Carmelo para tomar algo y charlar un rato, no sé si llegamos a solucionar los grandes problemas del mundo, pero a mí me parece que todo va un poco mejor. Nuestras conversaciones pierden algo de gracia si no tenemos delante una cerveza o una ración de bravas que nos hagan de espectadoras y comenten la jugada. Aun así, Carmelo quiso entrevistarme formalmente para la UDIMA y esto es lo que salió. Debo decir que sólo estoy de acuerdo con el titular los días impares, pero hoy lo es.

El fabuloso método Doman

Debió ser Chesterton quien dijo que lo malo de que las personas dejen de creer en Dios no es que dejen de creer en todo, sino que empiecen a creer en cualquier cosa. No se me ocurre una analogía mejor para entender los cambios más recientes en el mundo de la educación. Casi todo el mundo está de acuerdo en que la escuela tiene que cambiar. En el siglo XXI ya no nos vale aquello de aprender la lista de los reyes godos y afortunadamente también podemos darle carpetazo a la “formación político-social para niños” y a la “higiene para niñas”. Queremos algo mejor para las generaciones que nos sigan. Pero ahí es donde termina el acuerdo. Tan pronto como nos ponemos a discutir cómo debería ser la nueva educación, el consenso desaparece. O peor aún, el vacío que deja la educación tradicional se llena con todo tipo de ideas felices que son abiertamente peores que lo que hacíamos.

Entre las modas pseudocientíficas más pintorescas que pueblan el panorama escolar del siglo XXI, una de las que más me preocupan es el movimiento educativo liderado por Glenn Doman. Desconozco el impacto de sus ideas fuera de mi entorno más cercano. Pero al menos en el País Vasco no es exagerado decir que los libros de Doman se han convertido en una nueva Biblia. Si el lector tiene hijos o sobrinos en educación infantil, es muy probable que las técnicas que voy a describir más abajo se hayan usado con ellos. El manual de referencia para entender estas prácticas es el best-seller Cómo multiplicar la inteligencia de su bebé. En este libro (y en sus numerosas precuelas y secuelas) Glenn Doman describe un método sencillo y prodigioso para enseñar habilidades lectoras y matemáticas a niños de tan sólo meses de edad. Según dice el autor, se basa “en muchos años de trabajo por parte de un gran equipo de expertos en el desarrollo del cerebro infantil, que habían estudiado el desarrollo y funcionamiento del cerebro humano” (p. 169).

Sin entrar aún en detalles sobre las técnicas concretas, resulta interesante contemplar las creencias que albergan estos “expertos”. Si habías oído hablar del mito de que sólo usamos el 10% del cerebro y querías más, estás de enhorabuena, porque en este libro encontrarás el mito del 1 por 1000. En palabras del autor, “no es cierto que sólo utilicemos una décima parte  de nuestro cerebro. No vivimos lo suficiente para utilizar una milésima parte de la capacidad de nuestro cerebro. Es posible que Leonardo da Vinci llegase a usar casi una milésima parte de la capacidad de su cerebro: Por eso fue Leonardo da Vinci” (p. 112). Al parecer la capacidad del cerebro es de 125.500.000.000 unidades de información. Es imposible saber de dónde procede esa cifra porque, como cualquier buena obra de ficción, el libro no contiene ninguna referencia. Cuando Glenn Doman escribió esto le debió parecer una cifra inmensa, pero seguramente estás leyendo este texto desde un ordenador cuyo disco duro hace palidecer esta cifra. Y dudo que calificaras a tu ordenador de inteligente. Pero, en fin, volvamos a lo nuestro. La cuestión es que el cerebro humano tiene una capacidad de almacenamiento pasmosa que según Glenn Doman debemos al hecho de que “sólo los seres humanos tenemos corteza cerebral” (p. 115). Interesante afirmación, viniendo de un grupo de “expertos” neurocientíficos.

Sigamos. Si la capacidad de nuestro cerebro es tan grande, ¿por qué no alcanzamos todas las personas el grado de “genios”? Acertaste: La culpa la tiene la educación que recibimos, que es muy mala e ignora datos básicos sobre nuestra capacidad de aprendizaje. Una primera cosa que ignoran nuestros maestros es que sólo somos capaces de aprender hasta los seis años de edad. “Todo desarrollo significativo del cerebro ha terminado a los seis años de edad” (p. 111). “Los niños podrían estar aprendiendo en sus seis primeros años de vida tres veces más de lo que aprenderán el resto de sus vidas”. A lo mejor te preguntas de dónde vienen estas cifras (6 años, aprender 3 veces más que en el resto de sus vidas…). Te invito a que consultes las referencias inexistentes. Posiblemente se venden por separado, como las pilas que iluminan la espada de He-man.

Otra razón por la que nos han enseñado mal en la escuela es que casi todos los materiales docentes suelen escribirse con letras pequeñas. Pero el sistema visual de los niños aún no está lo suficientemente maduro como para procesar esos estímulos. Los niños sólo entienden materiales escritos (o imágenes impresas) si se presentan en formato “grande, claro y repetido” (p. 79). A juzgar por la insistencia del libro, debe ser crucial no subestimar la importancia de este punto.

Si uno entiende estos sencillos principios sobre el aprendizaje, “tratará a su hijo en esos seis años de una forma totalmente diferente a como lo haría sin comprender estos principios” (p. 88). Y logrará así resultados espectaculares. Como bien sabe el lector, el cociente intelectual medio de un adulto es 100. Pero siguiendo paso a paso los consejos de Doman es posible lograr que nuestro hijo alcance cualquier nivel de inteligencia. “Si usted lee este libro y lo entiende de verdad, y trata a su hijo de manera completamente diferente durante estos seis años fundamentales de vida… entonces debería alcanzar la capacidad propia de los seis años a los tres años de edad cronológica como máximo, y entonces tendría un CI de 200 o de más” (p. 88). Claro que no queda muy claro que significa el concepto de CI en palabras de Doman porque “las pruebas de inteligencia no miden la inteligencia” (p. 91). Para Doman, el CI debe ser una capacidad cuantificable, porque no cesa de decirle a los padres qué CI alcanzarán sus hijos. Pero no puede medirse. Interesante…

figDomanSea como fuere, una vez superadas estas lecciones sobre neurociencia y cognición, el libro continúa explicando detalladamente qué técnicas utilizar para enseñar a los niños a leer, realizar operaciones matemáticas y adquirir conocimientos enciclopédicos. Llegado a este momento tal vez estés esperando que ahora continúe describiéndote las tecnologías neuro-something más sofisticadas. Pero lo cierto es que para conseguir que tu hijo tenga un CI de 200 sólo necesitas cartulina, tijeras y rotulador. Imagina que quieres que tu hijo de 3 meses aprenda a leer la palabra “payaso”. Pues bien, sólo tienes que preparar una lámina como la que te muestro a la izquierda y presentársela brevemente a tu hijo mientas le dices en voz alta “Aquí pone payaso”. Lo más importante es que no te equivoques con las medidas y que pongas el texto en rojo porque “los niños pequeños tienen unas vías visuales inmaduras” (p. 173). También es fundamental que no le presentes las mismas láminas a tu hijo muchos días porque se aburrirá. “No aburra nunca a su hijo. Es mucho más fácil que se aburra por ir despacio que por ir demasiado deprisa”. Así que sólo hay que presentar unas pocas de estas láminas por día y siempre muy  brevemente: “no se la deje ver más de un segundo” (p. 176).

El libro prosigue ampliando el mismo método para enseñar matemáticas y conocimientos generales. Sin entrar en detalles, la idea es tan sencilla como presentar una cartulina con, por ejemplo, 15 puntos y decirle al niño “15”. O bien presentar un dibujo de dos puntos seguidos de un “x”, seguido de tres puntos, seguidos de un “=” seguido de seis puntos. Así sucesivamente ¿hasta cuándo? Hasta donde quieras. “Un día, cuando se dispone alegremente a enseñar a su hijo cálculo infinitesimal o física nuclear, se da cuenta de lo que está haciendo y su propio arrojo la sorprende” (p. 228). No creas que para llegar a estos niveles es necesario esperar a que el niño sea muy mayor. En realidad se puede empezar en cualquier momento, siempre que no hayan pasado los seis primeros años, tras los cuales el niño estará condenado irremediablemente a la mediocridad. “Usted puede empezar el proceso de enseñar a su bebé desde el mismo nacimiento”.

Si yo fuera el padre de una criatura con la que fueran a utilizar estos métodos revolucionarios, lo primero que les preguntaría a los profesores es que me enseñaran la evidencia que muestra que estas estrategias sirven para algo. En el libro de Doman no podemos encontrar nada que sugiera que estos métodos se basan en ninguna evidencia seria. Por supuesto, Doman alude constantemente a su experiencia personal como prueba de la eficacia de sus métodos. El equivalente profesional del “a mí me funciona”. Al ciudadano de a pie tal vez esto le sirva para dormir tranquilo creyendo que su hijo está aprendiendo a leer con los mejores métodos. Pero tal vez convenga recordarle que a lo largo de la historia miles de niños y adultos han muerto por las sangrías y otras técnicas milagrosas que los médicos han estado utilizando hasta hace pocas décadas amparados en su experiencia personal. La eficacia de cualquier técnica, da igual que sea médica o docente, tiene que evaluarse mediante estudios controlados bien diseñados y con grandes muestras. El libro de Doman no nos ofrece nada parecido a esa evidencia. No sé si he dicho ya que el libro no tiene ninguna referencia que nos dirija a los estudios que avalan la eficacia de estas técnicas o la veracidad de cualquiera de sus afirmaciones. He pasado horas buceando en la Web of Science en busca de cualquier estudio que haya puesto a prueba la eficacia del método Doman y no he encontrado absolutamente nada. Si existen, deben ser los estudios mejor escondidos de la historia de la ciencia.

Pero la historia no termina aquí. El problema del método Doman no es sólo que no tenemos razones para pensar que funciona, sino que, de hecho, hay muchas razones para pensar que pueda ser perjudicial. Por ejemplo, en el caso de la enseñanza de la lectura, Doman insiste continuamente en que es crucial centrarse en enseñarle al niño a entender palabras completas y no el significado de cada una de las letras. En otras palabras, no hay que enseñar explícitamente que cada letra representa un sonido. “Las letras del abecedario no son las unidades de la lectura y de la escritura, como los sonidos aislados tampoco son las unidades de la audición ni del habla” (p. 179). A diferencia de muchas de las citas que he seleccionado más arriba, puede que al lector ésta no le parezca especialmente sospechosa. Al fin y al cabo, en muchos colegios se está poniendo de moda enseñar a los niños a leer palabras completas antes de enseñarles el abecedario o la mera idea de que las letras representan sonidos. Sin embargo, es difícil exagerar lo dañina que es esta práctica. En el mundo de la educación son pocas las cosas que se saben a ciencia cierta, pero los datos de que disponemos dejan poco lugar a dudas de que este método de enseñanza es peor que el método tradicional en el que al niño se le enseña explícitamente qué fonemas representa cada letra. Sí, aquello de la b con la a “ba”. Que multitud de escuelas se apunten a la moda de no enseñar estas sencillas reglas tal vez no sea un problema para el 80-90% de los niños que aprenderán a leer sin ninguna dificultad independientemente del método que se utilice. Pero si tu hijo o sobrino es de los que por desgracia caen fuera de esta afortunada mayoría, la probabilidad de que tenga dificultades de lectura aumenta notablemente si no ha sido educado con un buen método.

En cualquier caso, lo más preocupante del auge de este tipo de métodos milagro no es si esta o aquella técnica pueden ser contraproducentes, sino la actitud general de que “todo vale” y que en educación es perfectamente legitimo sustituir las técnicas tradicionales por cualquier sucedáneo que venga en un envoltorio más trendy. Aunque la medicina ha existido durante siglos, sólo ha empezado a paliar el sufrimiento humano y a alargar nuestra esperanza de vida desde finales del siglo XIX. La diferencia fundamental entre la medicina que se practicaba antes de ese momento y la que se practica después es que, tras vencer innumerables resistencias, la comunidad de médicos finalmente aceptó que ningún tratamiento podía considerarse válido sólo porque algunos o muchos “expertos” así lo dijeran. La eficacia de cada tratamiento era algo que había que comprobar empíricamente, tomando todas las cautelas necesarias para no dejarse engañar por las falsas apariencias y los deseos bienintencionados. ¿Se imaginan cómo serían nuestras escuelas si el mundo educativo hubiera decidido seguir este mismo camino?

Ciegos ante la evidencia

Se han publicado decenas de artículos sobre la reticencia de los anti-vacunas o los negadores del cambio climático a aceptar la evidencia contraria a sus ideas. Casi todas las estrategias de intervención que se diseñan para luchar contra estas creencias fracasan una y otra vez. Las perspectivas de éxito resultan más desalentadoras, si cabe, cuando tenemos en cuenta que incluso las personas especializadas en cuestionar teorías y someterlas a prueba empírica son terriblemente reacias a cambiar sus ideas cuando los datos les llevan la contraria. Me refiero, cómo no, a los propios científicos.

O eso sugieren Clark Chinn y William Brewer en un sugerente artículo con el que acabo de toparme por casualidad. Según estudios previos que revisan en ese artículo, cuando los científicos se dan de bruces con un dato contrario a sus teorías, sólo ocasionalmente cambian sus creencias. En concreto, según la taxonomía de Chinn y Brewer, las ocho reacciones posibles ante la evidencia contraria son (a) ignorar los datos, (b) negar los datos, (c) excluir los datos, (d) suspender el juicio, (e) reinterpretar los datos, (f) aceptar los datos y hacer cambios periféricos en la teoría, y (g) aceptar los datos y cambiar las teorías.

Los autores utilizan un ejemplo real para ilustrar estas ocho reacciones. En la década de los 80 el premio Nobel Luis Álvarez y sus colaboradores propusieron que la extinción masiva del cretácico, en la que desaparecieron los dinosaurios, se había debido al impacto de un meteorito. El principal dato a favor de esta hipótesis era la alta concentración de iridio en el llamado límite KT, un estrato sedimentario que separaba el periodo cretácico de la era terciaria. El análisis de las citas que recibieron Álvarez y colaboradores durante los años siguientes a la publicación del artículo muestra que gran parte de la comunidad científica simplemente ignoró este descubrimiento (a). Durante algún tiempo incluso el propio equipo de Álvarez tuvo la sospecha de que los altos niveles de iridio en el límite KT podrían deberse a una contaminación de la muestra (b), lo que les obligó a tomar nuevas muestras. Algunos científicos sugirieron que los dinosaurios se habían extinguido 10.000 años antes del impacto del meteorito, con lo cual la capa de iridio no explicaba la extinción (c). Otros opinaban que la química del iridio no se conocía lo suficientemente bien como para poder extraer conclusiones (d). Tal vez algún día se podrían explicar esos altos niveles de iridio sin tener que asumir el impacto de un meteorito. Otro grupo de científicos reinterpretó los datos de Álvarez sugiriendo que el iridio del límite KT en realidad se habían filtrado de capas de sedimentos más recientes (e). También hubo quienes asumieron que el impacto del meteorito podría ser responsable de algunas de las extinciones del cretácico, pero no de todas ellas (f). Esto les permitía aceptar la evidencia encontrada por Álvarez pero sin renunciar a sus hipótesis previas sobre las causas de la extinción de los dinosaurios. Finalmente, algunos científicos renunciaron a sus hipótesis previas y aceptaron la nueva teoría sobre la extinción del cretácico (g).

No recuerdo si fue Thomas Kuhn o Max Planck quien dijo que la ciencia no evoluciona porque las teorías nuevas triunfen, sino porque quienes se oponen a ellas acaban muriéndose. Tal vez esa sea la novena y última reacción ante la evidencia contraria.

__________

Chinn, C. A., & Brewer, W. F. (1998). An empirical test of a taxonomy of responses to anomalous data in science. Journal of Research in Science Teaching, 35, 623-654.

Manos calientes y jugadores falaces

Una creencia popular del mundo del baloncesto es que de vez en cuando algunos jugadores entran en racha y que cuando eso sucede lo mejor que pueden hacer sus compañeros de equipo es pasarle la pelota al afortunado tan pronto como les sea posible. En casi todos los libros de texto este fenómeno, conocido como “la mano caliente”, aparece como un ejemplo de superstición, fruto de nuestra tendencia a percibir patrones donde sólo hay ruido y azar. Sin embargo, también se han publicado estudios que defienden que la mano caliente es un fenómeno real que tiene lugar en terrenos tan diversos como el golf, los dardos o incluso las apuestas por internet. Los resultados de un ingenioso estudio de Juemin Xu y Nigel Harvey se decantan por esta segunda opción.

Estos autores solicitaron a una empresa de apuestas por internet que les facilitara los datos de una muestra de jugadores de diversos países. Gracias a ello pudieron obtener información sobre más de medio millón de apuestas realizadas por 776 jugadores. El análisis de estos datos muestra claramente que un jugador tiene más probabilidades de ganar cuantas más veces seguidas haya ganado anteriormente. Es decir, si el jugador ha ganado una vez, tiene más probabilidades de ganar una segunda vez. Si ha ganado dos veces, tiene más probabilidades de ganar una tercera. Y así sucesivamente.

Sin embargo, el mecanismo por el que esto sucede es totalmente paradójico. A medida que los participantes ganan más y más veces, empiezan a arriesgarse menos en sus apuestas. Es como si creyeran que cuantas más veces han ganado, tanto más probable es que su suerte cambie para peor. Esta creencia es lo que en la literatura psicológica se conoce como falacia del jugador. El ejemplo clásico sería el de una persona que cree erróneamente que después de tirar una moneda al aire cinco veces y obtener cinco caras consecutivas lo más probable es que la siguiente tirada salga cruz. Al parecer esto mismo es lo que creen quienes juegan a las apuestas: A medida que van ganando más y más veces consecutivas, empiezan a pensar que en la siguiente apuesta podrían perder, y por tanto cada vez hacen apuestas menos arriesgadas. El resultado es que como arriesgan menos, en realidad tienen más probabilidades de ganar. Y paradójicamente esto hace que cuantas más veces seguidas hayan ganado, más aumentan las probabilidades de que vuelvan a ganar en la siguiente apuesta.

__________

Xu, J., & Harvey, N. (2014). Carry on winning: The gambler’s fallacy creates hot hand effects in online gambling. Cognition, 131, 173-180.

Sesgos cognitivos, en Wawancara

Antonio Montesinos tuvo la amabilidad de entrevistarme para su genial revista, Wawancara. Pasamos más de una hora hablando sobre la ciencia, sobre sesgos cognitivos, y sobre todo riéndonos mucho. En algún momento creo que estuvimos cerca de arreglar los grandes problemas del mundo. Pero nos faltó eso, un poco. Puedes encontrar la entrevista aquí.

Cómo enseñar el pensamiento crítico: El valor de la investigación básica

Se cuenta que cuando la reina Victoria y los miembros del gobierno británico visitaron el laboratorio de Michael Faraday lo primero que le preguntaron es para qué servían todos aquellos aparatos y experimentos. La respuesta de Faraday es ya legendaria: “¿Para qué sirve un niño, madame?”. Pero a pesar de su genialidad, imagino que esta pregunta de poco o nada sirvió para cambiar la actitud de la reina, que posiblemente abandonó la sala con el mismo interés por la ciencia que tenía al entrar en ella. Seguramente, en aquel momento nadie habría podido convencerla de que en un futuro no tan lejano las personas apenas podrían vivir cinco minutos sin pulsar un interruptor.

Aunque ha pasado más de un siglo, quienes nos dedicamos a la investigación básica aún nos enfrentamos casi a diario a las críticas de quienes, como la reina Victoria, no tienen ningún interés en la ciencia básica ni entienden que se utilice dinero público para financiar un tipo de investigación que no tiene por objetivo directo solucionar ningún problema real o tener un impacto en la vida cotidiana. En algunos ámbitos, como el de la psicología, a menudo somos vistos como bichos raros por parte de quienes dicen investigar, qué sé yo, cómo se adaptan los niños al divorcio de los padres o cuál es la mejor estrategia para dejar de fumar. Tampoco es mejor la actitud de las instituciones que financian la investigación (o solían hacerlo hasta hace tres años), con su permanente insistencia en que cualquier proyecto de investigación debe incluir un apartado sobre posibles aplicaciones, incluso si se trata de un proyecto de investigación básica.

Sin embargo, la realidad nos muestra una y otra vez que las ideas que mayor impacto llegan a tener en la vida cotidiana son precisamente las que surgen de la investigación básica. ¿Alguien se imagina a Watson y Crick pensando en la insulina transgénica mientras descifraban el código de la vida? ¿O a Turing pensando en cómo serían los sistemas operativos de los smartphones? Un estudio reciente de mis compañeros de Labpsico muestra que lo que vale para la genética y la informática también se aplica a la psicología.

Los psicólogos de la memoria, el aprendizaje y el razonamiento llevamos décadas indagando en los procesos cognitivos que nos permiten descubrir patrones en nuestro entorno, almacenar esa información y utilizarla cuando una situación así lo requiere. Casi nada de esa investigación se realiza con el propósito expreso de ayudar a la gente a solucionar sus problemas cotidianos. Sin embargo, a lo largo del camino inevitablemente se van descubriendo hechos que nos ayudan a entender por qué las personas tenemos ciertos problemas y qué se puede hacer para solucionarlos. Un ejemplo perfecto es la literatura sobre supersticiones y sesgos cognitivos. Gracias a cientos de experimentos sabemos que existen situaciones que invitan a casi cualquier persona a razonar de forma errónea, independientemente de su formación, cultura o inteligencia.

Partiendo de esta literatura, Itxaso Barbería, Fernando Blanco, Carmelo Cubillas y Helena Matute han diseñado un programa de intervención que pretende dotar a los niños y adolescentes del escepticismo necesario para no caer en las supersticiones más frecuentes en nuestra sociedad. Yo mismo tuve la suerte de colaborar en un par de sesiones y ser testigo de sus asombrosos resultados. La investigación básica revela que varios mecanismos están involucrados en el desarrollo de este tipo de creencias supersticiosas. Uno de ellos es la insensibilidad a la tasa base con la que suceden ciertos eventos. Por ejemplo, si todas las veces que tenemos un catarro tomamos un remedio homeopático y si siempre que así lo hacemos mejoramos al día siguiente, es tentador pensar que ese remedio es el responsable de la mejoría. Pero la pregunta es: ¿qué habría pasado si no lo hubiéramos tomado? A menudo o no disponemos de esa información (porque si creemos que la homeopatía funciona entonces no probamos a no tomarla) o si la tenemos, la ignoramos.

En la intervención diseñada por Barbería y colaboradores, a los niños se les confrontaba directamente con una situación de este tipo con la esperanza de que cayeran en el error. Imitando al marketing de las famosas pulseras Power Balance, se les decía que estudios recientes habían demostrado que una sustancia con propiedades electromagnéticas peculiares podía aumentar el rendimiento cognitivo y físico. A los niños se les invitaba a realizar diversos ejercicios de fuerza y flexibilidad mientras cogían una pequeña pieza de esa sustancia con la mano. También se les pedía que hicieran ejercicios mentales (por ejemplo, resolver laberintos) mientras sostenían la barrita metálica. Posteriormente, se les preguntaba si les había parecido que la pieza funcionaba. Aunque algunos eran un poco más escépticos, la mayor parte de ellos confesaba que sí. Algunos incluso habrían estado dispuestos a pagar por ella. Sin embargo, era imposible que esa pieza metálica estuviera teniendo ningún efecto. Las piezas estaban sacadas en realidad del motor de un secador de pelo.

A los niños se les confesaba abiertamente que acababan de ser víctimas de un engaño y a continuación se les explicaba por qué muchos de ellos no habían caído en la cuenta. En concreto, se les señalaba que para saber si las piezas tenían algún efecto habría sido fundamental contar con una condición de control: tendrían que haber hecho los ejercicios con y sin la ayuda de la barra metálica y haber comparado su nivel de ejecución en ambas condiciones. Si hubieran hecho los ejercicios sin la barra habrían comprobado cómo en realidad lo hacían igual de bien en ambos casos. También se les aclaraba que no cualquier comparación servía: la condición de control y la “experimental” debían ser exactamente iguales. Eso quiere decir que, por ejemplo, no servía con hacer los ejercicios físicos primero sin la barra metálica y luego con ella, siempre en ese orden, porque en tal caso la mera práctica hace que el rendimiento físico sea mayor con la barra (es decir, cuando ya se tiene cierta práctica) que sin ella (cuando aún no se tiene ninguna práctica).

Lo más interesante del experimento es que tras esta explicación, todos los niños se sometían a una preparación experimental que se sabe que induce cierta ilusión de causalidad. Se trata de un procedimiento en el que los participantes tienen que imaginar que son médicos explorando la evidencia a favor y en contra de la eficacia de un medicamento. Aunque a los participantes no se les avisa de ello, la información que se les presenta sugiere que la medicina no es efectiva. Sin embargo muchas personas caen en el error de pensar que sí lo es. Los resultados de Barbería y colaboradores muestran que los niños que pasaron por este curso de pensamiento crítico luego fueron menos susceptibles a mostrar ilusión de causalidad en esta prueba experimental que otro grupo de niños similar que aún no había pasado por el curso. Por tanto, todo sugiere que esta intervención hizo a los niños más resistentes al tipo de ilusiones causales que se cree que subyacen al pensamiento mágico y supersticioso.

A nadie se le escapa que los resultados de esta investigación tienen un potencial enorme en el sistema educativo actual. Se insiste con frecuencia en que los niños deberían salir del colegio con algo más que un montón de conocimientos enciclopédicos; que deberían convertirse en adultos capaces de pensar críticamente por sí mismos. Sin embargo, hay muy pocos estudios como este que nos indiquen cómo se pueden desarrollar el escepticismo y la actitud científica. A las reinas victorianas de la psicología aplicada tal vez les cause cierto asombro que una vez más las respuestas lleguen del mundo de la investigación básica.

__________

Barbería, I., Blanco, F., Cubillas, C. P., & Matute, H. (2013). Implementation and assessment of an intervention to debias adolescents against causal illusions. PLoS ONE, 8, e71303. doi:10.1371/journal.pone.0071303

Las imágenes del cerebro no son tan seductoras

neuroimageHace cinco años, McCabe y Castel (2008) publicaron un interesante estudio en el que mostraban que los textos de neurociencia resultaban más “seductores” si incluían imágenes de la actividad cerebral. Los participantes leían un artículo divulgativo sobre el funcionamiento del cerebro y tenían que decir hasta qué punto estaban de acuerdo con sus conclusiones. Para la mitad de los participantes, el texto iba acompañado de una imagen del cerebro que mostraba activación en los lóbulos frontales. Para la otra mitad, el texto no tenía ninguna imagen. Los resultados del estudio mostraban que los participantes que leían el texto con la imagen decían estar más de acuerdo con las conclusiones. Se trata de uno de los artículos más populares de los últimos años, tal y como lo muestran las más de 100 citas que acumula en la Web of Science.

Sin embargo, según un estudio que acaban de publicar Michael y colaboradores (2013) en Psychonomic Bulletin & Review, sus conclusiones podrían haber dejado de ser válidas. En este artículo se publican los resultados de diez intentos de replicar el estudio original con procedimientos diferentes y muestras diversas. Algunas de estas réplicas arrojan resultados similares a los de McCabe y Castel, pero otras no muestran efecto alguno de presentar las imágenes de cerebros. Al realizar un meta-análisis conjunto del estudio de McCabe y Castel y de las diez réplicas de Michael y colaboradores se observa que la diferencia entre ambas condiciones es realmente minúscula: De promedio, las personas que leían el texto con las imágenes estaban de acuerdo con las conclusiones sólo un 2.4% más que las personas que leían el texto sin las imágenes. Esta diferencia apenas es marginalmente significativa (p = 0.07).

Una posible interpretación de esta discrepancia es que el estudio original de McCabe y Castel podría haber exagerado el efecto real de incluir imágenes de cerebros en los textos de neurociencias. Pero una conclusión igualmente válida es que en los cinco años que han pasado desde aquel estudio podría haber cambiado el efecto de estas imágenes. A medida que la población se ha ido familiarizando con los experimentos de neurociencias y con las posibles limitaciones de este tipo de estudios, es posible que la gente haya desarrollado cierto escepticismo hacia ellos o que haya aprendido a valorarlos más objetivamente.

Sin embargo, esta interpretación también podría estar pecando de optimista. En el artículo de Michael y colaboradores también se resumen los resultados de cinco intentos de replicar otro experimento famoso sobre el sex-appeal de las neurociencias. En este caso se trata de un estudio de Weisberg y colaboradores (2008) en el que se observaba que la credibilidad de una explicación científica mala aumentaba si el texto incluía cháchara neurocientífica. Según los resultados de Michael y colaboradores este resultado sí que se puede replicar sin problemas. Se observa claramente en cuatro de las cinco réplicas que han realizado. Según estos datos, el lenguaje neurocientífico aumenta en un 6.67% la credibilidad de las explicaciones científicas.

Por lo tanto, si las imágenes de cerebros no resultan convincentes, probablemente esto no se deba a que la gente se haya hecho más escéptica. Más bien, parece que cuando un texto ya está cargado de lenguaje neurocientífico es poco lo que las imágenes de cerebros pueden hacer por incrementar aún más su credibilidad. Tal vez sea uno de los pocos casos en los que mil palabras valen más que una imagen.

__________

McCabe, D. P., & Castel, A. D. (2008). Seeing is believing: The effect of brain images on judgments of scientific reasoning. Cognition, 107, 343-352.

Michael, R. B., Newman, E. J., Vuorre, M., Cumming, G., & Garry, M. (2013). On the (non)persuasive power of a brain image. Psychonomic Bulletin & Review, 20, 270-725.

Weisberg, D. S., Keil, F. C., Goodstein, J., Rawson, E., & Gray, J. R. (2008). The seductive allure of neuroscience explanations. Journal of Cognitive Neuroscience, 20, 470-477.

La irracionalidad humana al servicio de la caridad

Ante la manifiesta irracionalidad que caracteriza la mayor parte de nuestras decisiones caben varias reacciones. La más frecuente es alertar a la gente de nuestras limitaciones intelectuales e intentar protegerla de sus sesgos cognitivos. Una segunda opción, tal vez más práctica e interesante, es utilizar esas limitaciones en el propio beneficio de las personas y la sociedad. En un estudio que se publicará próximamente en Psychological Science, Hsee y colaboradores han recurrido a esta última estrategia para diseñar un protocolo que permita aumentar la cantidad de dinero que las personas destinan a beneficencia. Una de las características más llamativas de las donaciones es que casi nunca prestamos atención al número de personas que podrían beneficiarse de nuestro desembolso. Si, por ejemplo, nos piden dinero para pagar los materiales de un aula de educación infantil, posiblemente nuestra predisposición a dar algo y la cantidad de dinero que demos serán las mismas si nos dicen que en esa aula estudian veinte niños que si nos dicen que los beneficiarios potenciales son cuarenta. Estudios previos muestran que la disposición a donar dinero depende casi únicamente de la imagen concreta que nos viene a la mente cuando pensamos en un posible beneficiario y de la reacción afectiva que nos provoca esa imagen. El número de personas que se puedan beneficiar no entra en el cómputo, especialmente si se trata de un número elevado. Aprovechándose de lo que en principio es una limitación cognitiva, Hsee y colaboradores proponen que a la hora de pedir dinero para caridad habría que preguntar a los donantes primero cuánto dinero darían a una persona concreta y sólo después preguntarles cuánto donarían al grupo completo. Dado que nuestra inclinación inicial es la misma independientemente del número de alumnos que se vaya a beneficiar de nuestra donación, es mejor que nos pregunten primero cuánto dinero daríamos para pagar los materiales de un estudiante y que después nos pregunten cuánto daremos para el grupo de veinte estudiantes. Lógicamente, la cifra que daremos no será exactamente el resultado de multiplicar el primer número por veinte, porque la cantidad resultante seguramente superará lo que estamos dispuestos a donar. Sin embargo, seguro que tampoco daremos al grupo exactamente lo mismo que daríamos a un solo niño. Intentaremos ser coherentes y dar al grupo completo más de lo que daríamos a un solo individuo. En los tres experimentos que han realizado Hsee y colaboradores, se observa que esta estrategia funciona no sólo en un estudio de laboratorio, sino también en situaciones reales. En uno de sus experimentos de campo, los participantes eran ejecutivos adinerados a los que se pedía ayuda para financiar la carrera investigadora de setenta estudiantes de doctorado. Los ejecutivos dieron cuatro veces más dinero cuando se les preguntó cuánto darían a cada estudiante antes de preguntarles cuánto iban a dar para el grupo completo. Dicho de otra forma, el 75% de esos estudiantes le deben su beca a una simple pregunta adicional que los investigadores pusieron en un formulario. Ojalá siempre fuera tan fácil hacer el mundo cuatro veces mejor.

__________

Hsee, C. K., Zhang, J., Lu, Z. Y., & Xu, F. (in press). Unit asking: A method to boost donations and beyond. Psychological Science.

El extremismo político y la ilusión de entender

Si miramos a nuestro alrededor, nuestros ojos toparán inevitablemente con una miríada de aparatos de cuyo funcionamiento lo ignoramos casi todo. ¿Cómo funciona el monitor TFT en el que probablemente estás leyendo estas palabras? ¿Y el protocolo TCP/IP que te permite acceder a esta información en Internet? ¿En caso de avería, quién se atrevería a arreglar una aspiradora, una batidora o una caldera de gas? En un mundo complejo, lo normal es ser ignorante y no hay razón para avergonzarse de ello.

Lo más sorprendente no es nuestra ignorancia, sino nuestra proverbial incapacidad para reconocerla. Durante la última década han proliferado todo tipo de estudios sobre lo que los psicólogos llaman “ilusión de comprensión”. En la mayor parte de estos experimentos se pone de manifiesto que casi todos sobrestimamos nuestros conocimientos sobre cómo funcionan objetos cotidianos, como cerraduras o cisternas.

Posiblemente el mundo puede seguir girando a pesar de que seamos incapaces de reconocer que no sabemos cómo funciona un candado. Pero cabe preguntarse si nuestra secreta ignorancia sobre temas de más calado no llegará a pasarnos factura. Vivimos rodeados de personas que creen saberlo todo sobre el origen del mundo, la respuesta de los mercados a los incentivos fiscales, la naturaleza del mal, las causas y los efectos de la homosexualidad, el efecto de las emisiones del CO2 y la relación entre el cáncer de páncreas y la exposición a ondas electromagnéticas no ionizantes.

Según un estudio reciente de Philip Fernbach, Todd Rogers y Craig Fox es posible que el extremismo en temas políticos y sociales esté causado por una ilusión de comprensión. Los participantes del estudio tenían que decir hasta qué punto estaban a favor o en contra de una serie medidas políticas, como imponer sanciones a Irán por su programa nuclear, atrasar la edad de jubilación o establecer un sistema de cuotas para la emisión de CO2. A continuación algunos de los participantes tenían que explicar cuáles eran los mecanismos por los que funcionarían esas políticas. Previsiblemente, esta pregunta obliga a los participantes a reconocer las lagunas en sus conocimientos sobre estos temas. Los resultados del estudio muestran que tras responder a estas preguntas, la postura de los participantes al final del experimento fue menos extrema que al principio.

A la luz de estos resultados parece seguro concluir que la radicalidad y el extremismo son fruto, al menos en parte, de una falsa sensación de entender cómo funcionan la sociedad y el mundo. El exorcismo podría ser sencillo: Hacer que la ignorancia salga del armario.

__________

Fernbach, P. M., Rogers, T., Fox, C. R., & Sloman, S. A. (2013). Political extremism is supported by an illusion of understanding. Psychological Science, 24, 939-946.

Lysenko, el cambio climático y el libre mercado

ilysenk001p1Una cara de la ignorancia humana tiene que ver con todas aquellas cosas en las que creemos y que resultan ser falsas. Usar “medicinas” alternativas que se sabe que no funcionan o prepararse para la llegada inminente de extraterrestres son buenos ejemplos de esta faceta de la irracionalidad. Pero más asombrosas si caben son las numerosas manifestaciones de la cara contraria: la profunda tendencia a rechazar como falsas ideas que son manifiestamente verdaderas.

Entre los innumerables ejemplos de esta ceguera intelectual, mi favorito lo protagoniza Trofin Denisovich Lysenko (1898-1976). De haber sido ciertas, sus teorías agronómicas habrían terminado con el hambre en el mundo. Los experimentos que supuestamente realizó en su juventud le llevaron a concluir que podían mejorarse las semillas de los cereales para conseguir que pudieran cultivarse en climas más fríos o más cálidos de lo normal y así multiplicar el número de cosechas a lo largo del año. El proceso para conseguirlo se denominaba vernalización. Se trataba de mantener las semillas durante cierto tiempo a temperaturas muy bajas y a niveles de humedad determinados para mejorar su adaptación al frío. Según Lysenko, este proceso no sólo cambiaba las propiedades de las semillas manipuladas, sino que también producía cambios en toda su descendencia. Es decir, que una vez vernalizada una semilla, todas las semillas que descendieran de ella estarían automáticamente vernalizadas sin necesidad de repetir el proceso. Esta teoría y su puesta en práctica le valieron a Lysenko numerosos honores, entre ellos ser nombrado director del Instituto de Genética de la Academia de Ciencias de la URSS y estar a cargo de la política agraria del país durante décadas.

Si el lector recuerda algo de las clases de biología de secundaria, se dará cuenta de que lo que Lysenko estaba defendiendo era aquello de la herencia de los caracteres adquiridos, la teoría de la herencia lamarckiana que hoy cualquier niño de 12 años sabe que es falsa. Si a una mosca le arrancas las alas (el ejemplo no es mío), no por ello su descendencia dejará de tener alas. La teoría es manifiestamente falsa y se sabía en la época. Sin embargo, las prácticas basadas en ella continuaron porque criticarlas era ilegal. La teoría darwinista de la evolución y la genética mendeliana se consideraban hijas del pensamiento capitalista y no podían ser reconocidas como ciertas en un estado soviético. Abrazar el darwinismo o criticar las teorías de Lynsenko se consideraban traición a los ideales del comunismo y eran condenados como tal. Eran una “verdad incómoda”.

No puedo evitar recordar esta historia mientras leo el nuevo artículo de Stephan Lewandowsky, Klaus Oberauer y Gilles Gignac que está a punto de publicarse en Psychological Science. El artículo trata de la “verdad incómoda” de nuestro tiempo: el cambio climático. Como explican los autores en la introducción, el 90% de los científicos está de acuerdo en que el clima está cambiado como resultado de las emisiones de CO2 y todo indica que los informes que están publicando los comités sobre cambio climático son más conservadores que alarmistas. Sin embargo, la “manufactura de la duda” ha conseguido convencer a una gran parte de la población de que el problema no existe y que los propios científicos no están de acuerdo. En España tenemos la suerte de contar con importantes políticos cuyos primos sabían mucho de este asunto.

No pretendo resumir aquí todos los resultados del estudio de Lewandowsky y colaboradores. Pero sí el más importante: entre los numerosos predictores de la tendencia a negar el cambio climático el que más peso tiene, con mucha diferencia, es la creencia en la ideología de libre mercado. Al igual que sucedía con los efectos nocivos del tabaco o con el agujero de la capa de ozono, la realidad del cambio climático pide a gritos un mayor intervencionismo que resulta intolerable para quienes creen firmemente en la economía de libre mercado. También aquí, si la verdad choca con la ideología, tanto peor para la verdad.

Si la ceguera de Lysenko tuvo un gran precio para la antigua URSS (décadas de hambruna y un atraso científico en todo lo relacionado con la biología que apenas hoy se empieza a superar), imaginen el precio que pagaremos por esta otra ceguera…

__________

Lewandowsky, S., Oberauer, K., & Gignac, G. E. (in press). NASA faked the moon landing –Therefore, (climate) science is a hoax: An anatomy of the motivated rejection of science. Psychological Science.

¿Es irracional ser irracional?

Los psicólogos experimentales somos expertos en diseñar tareas que desafíen las capacidades de memoria, aprendizaje o percepción de cualquier persona. Pero pocas tareas son tan endiabladamente difíciles como la que acabo de conocer gracias a un artículo recién publicado en Psychological Review. Se trata del llamado Harvard Game. Al participante se le pone delante de un ordenador y se le dice que el juego consiste en elegir en cada ensayo si va a pulsar el botón A o el botón B. Si pulsa el botón A, su probabilidad de ganar depende de lo que haya hecho en los diez ensayos anteriores: cuantas más veces haya pulsado el botón A en el pasado, más probabilidades tiene de volver a ganar si vuelve a pulsar el botón A. Por ejemplo, si en los 10 ensayos anteriores ha pulsado 10 veces la A, su probabilidad de ganar si vuelve a pulsar la A puede ser, por ejemplo, de un 70%. Sin embargo, si en ninguno de los 10 ensayos anteriores ha pulsado la A, entonces su probabilidad de ganar si vuelve a pulsar la A es cero. Hasta aquí sencillo. ¿Pero qué sucede con el botón B? Pues bien, si el participante pulsa el botón B sus probabilidades de ganar en cualquier ensayo son, por ejemplo, un 20% mayores que las que tendría si pulsara el botón A. Es decir, si la probabilidad de ganar en un ensayo pulsando el botón A es del 50%, entonces la probabilidad de ganar pulsando B en ese ensayo es del 70%.

El lector tal vez no se haya dado cuenta todavía, pero esta situación supone un auténtico dilema para la toma de decisiones. En cualquier momento determinado, siempre es más probable ganar si se pulsa el botón B. Sin embargo, cuantas más veces se pulse el botón B, menos veces se habrá pulsado el botón A, y es este número de veces que se ha pulsado A en los 10 ensayos anteriores el que determina las probabilidades de ganar tanto para A como para B. Es decir, que si se pulsa A con poca frecuencia, la probabilidad de ganar pulsando cualquier botón baja dramáticamente. Por tanto, se trata de una situación en la que perseguir el interés a corto plazo pulsando el botón B reduce las posibilidades de ganar premios a largo plazo pulsando cualquier botón. El jugador inteligente debería pulsar siempre A, porque esa es la forma de maximizar el número total de premios que se pueden conseguir a lo largo de la partida.

Lógicamente, las personas rara vez se comportan así. Y la inferencia lógica que los psicólogos experimentales suelen extraer es que las personas no somos racionales y que sacrificamos el beneficio a largo plazo en favor de la satisfacción inmediata, como cuando hipotecamos nuestra salud fumando o comiendo más de la cuenta en Navidad.

El artículo publicado en Psychological Review que firman Chris Sims y sus colaboradores se propone desafiar esta idea de que una ejecución pobre en el Harvard Game puede tomarse como un indicador de irracionalidad. El desarrollo de sus ideas es complejo, pero el punto de partida es bien sencillo. Cuando el experimentador programa esta tarea, él sabe cómo funciona. Sabe que la probabilidad de ganar premios depende de cuántas veces se pulsa A y sabe que es en concreto el número de respuestas A en los últimos 10 ensayos lo que cuenta. Y sabe que la mayor probabilidad de ganar con B es una trampa a largo plazo. Pero el participante que se sienta ante el ordenador no sabe nada de todo esto. Lo tiene que aprender a partir de su interacción con el programa de ordenador. Y según Sims y colaboradores esta “sencilla” tarea de aprender lo que sucede en el programa tiene una elevadísima complejidad desde un punto de vista computacional.

Para demostrarlo, estos autores han diseñado un modelo de aprendizaje basado en principios de inferencia bayesiana. Este modelo representa lo que una persona inteligente debería hacer y aprender sobre el funcionamiento del programa desde un punto de vista racional. En otras palabras, este modelo representa cómo debería enfrentarse a la tarea un ser humano perfecto. A este modelo se le proporciona como input la información que ven los participantes reales a lo largo del experimento y su tarea es construir una representación exacta de cuáles son las reglas que determinan cuánto dinero se gana en el juego. Pues bien, el resultado de sus simulaciones es que en la mayor parte de los casos el modelo apenas es capaz de aprender cuáles son esas reglas. Si acaso, a base de proporcionarle cantidades masivas de evidencia finalmente llega a atisbar, pero con dudas, cuáles son esas reglas. Si este programa sofisticado y racional no es capaz de aprender a desempeñarse efectivamente en el Harvard Game, ¿cómo podemos culpar a los seres humanos de no ser capaz de hacerlo mejor? Cuando un agente perfectamente inteligente no es capaz de solucionar un problema, ¿podemos tachar de irracionales a las personas que no consiguen hacerlo mejor?

__________

Sims, C. R., Neth, H., Jacobs, R. A., & Gray, W. D. (2013). Melioration as rational choice: Sequential decision making in uncertain environments. Psychological Review, 120, 139-154.

El TDAH se sobrediagnostica

Leo, un niño de 10 años, es muy activo y está lleno de energía. Le gusta moverse, y habla y se ríe un montón. Es popular en su clase, un líder entre los niños. Sin embargo, su temperamento causa problemas, sobre todo con el profesor de matemáticas y biología. El profesor dice que Leo se distrae con facilidad por cualquier cosa. A veces parece que no escucha cuando habla el profesor. Tiene problemas para mantener la atención en una misma tarea durante un tiempo prolongado. Leo siempre se está moviendo. Juguetea constantemente con los pies y se revuelve en el asiento. Esto produce verdaderos problemas en esas dos asignaturas. Por eso, el profesor ha contactado con los padres. Los problemas empezaron hace aproximadamente un año, al principio del cuarto curso, cuando este profesor comenzó a encargarse de la clase de Leo. Otros profesores también se han fijado en el temperamento de Leo y en su nivel de actividad, pero esto no ha provocado problemas en otras asignaturas. Los padres de Leo han consultado a un pediatra y no ha encontrado ninguna enfermedad somática. Fuera de la escuela, Leo no tiene ninguno de estos problemas. Obedece a sus padres y respeta las normas de casa. Le gusta jugar con su hermana y se lleva bien con sus amigos. ¿Qué le pasa a Leo?

Si usted opina como el 17% de los psicoterapeutas interrogados por Bruchmüller y sus colaboradores responderá que Leo presenta un trastorno por déficit de atención e hiperactividad (TDAH). Lo preocupante es que, de hecho, Leo no presenta los síntomas necesarios para diagnosticar el tal vez demasiado popular TDAH. Según el Manual diagnóstico y estadístico de trastornos mentales (DSM-IV) y el Sistema internacional de clasificación de enfermedades (ICD-10), para poder diagnosticar el TDAH debe cumplirse, entre otros criterios, que haya al menos seis síntomas diferentes de inatención y otros seis síntomas de hiperactividad, que la aparición de esos síntomas sea anterior a los siete años de edad y que den lugar a problemas en al menos dos ámbitos diferentes. Estos criterios no se cumplen en el caso de Leo, que por tanto nunca debería ser diagnosticado con TDAH.

Si Leo resulta llamarse Lea, está de suerte. Los resultados muestran que este inocente cambio en la historia supone una diferencia radical en la tasa de sobrediagnóstico. La versión femenina tiene la mitad de probabilidades de ser diagnosticada con TDAH. Esto sugiere, entre otras cosas, que muchos psicoterapeutas pueden estar basando sus diagnósticos más en el estereotipo que tienen de los pacientes con un trastorno –que en el caso del TDAH encaja mejor con la imagen de un niño varón–que en los genuinos criterios diagnósticos que deben usarse según el DSM-IV y el ICD-10.

La situación podría ser bastante más grave de lo que los datos anteriores dan a entender, habida cuenta de que ese 17% de sobrediagnóstico del TDAH posiblemente subestima la tasa real de sobrediagnóstico. Los terapeutas que participaron en este estudio sabían que sus respuestas estaban siendo escrutadas con detalle y que iban a ser objeto de análisis por parte de los autores del estudio. Cabe pensar que sus diagnósticos habrán sido más cuidadosos que si nadie les hubiera supervisado. Es más, ese 17% no incluye a todos los psicoterapeutas que no terminaron de dar el diagnóstico de TDAH, pero decían sospechar que podría ser un caso de TDAH. Es más que probable que en estos casos dudosos, algunos de estos terapeutas se habrían inclinado finalmente por suscribir el diagnóstico. Lo más grave es que estos terapeutas que diagnosticaron erróneamente el TDAH también fueron los más proclives a proponer tratamientos psicológicos y farmacológicos, exponiendo así a los pacientes a un innecesario riesgo de padecer efectos secundarios y trasladando a la sociedad un coste médico igualmente prescindible.

__________

Bruchmüller, K., Margraf, J., & Schneider, S. (2012). Is ADHD diagnosed in accord with diagnostic criteria? Overdiagnosis and influence of client gender on diagnosis. Journal of Consulting and Clinical Psychology, 80, 128-138.

Pseudociencia en las escuelas

Cuando los divulgadores hablan de los costes que la pseudociencia tiene para la sociedad moderna casi siempre recurren a los mismos sospechosos habituales: la homeopatía, el reiki, la quiropraxia… Todos ellos en el ámbito de la salud. Por desgracia el mundo de la medicina no es el único que se ve acosado por la pseudociencia ni es donde se concentran los mayores peligros. Mientras todas las defensas se concentran en evitar que la seguridad social cubra tratamientos complementarios y alternativos, en las escuelas campan a sus anchas todo tipo de ideas felices que, para sorpresa de profesores y padres, nunca han tenido apoyo empírico ni razón de ser.

Uno puede decir, como el celebérrimo Glenn Doman, que todos los niños son genios y que se les puede enseñar a leer y multiplicar antes de que cumplan un año y quedarse tan ancho. O peor aún, convertirse en un autor de referencia, con decenas miles de seguidores en el mundo entero. Tal vez usted no lo sepa, pero si tiene hijos pequeños o sobrinos en el colegio es más que probable que estas ideas se estén ensayando con ellos. ¿En qué evidencia se basan estas prácticas? En ninguna. Y se trata de un ejemplo entre muchos. No necesariamente el más preocupante.

Por eso son más necesarios que nunca artículos como el que acaban de publicar Scott Lilienfeld, Rachel Ammirati y Michael David en el Journal of School Psychology. El texto comienza con una señal de alarma: una pequeña sección sobre la preocupante distancia que aleja a los psicólogos educativos de la investigación científica. Unos pocos ejemplos bastan para sembrar la preocupación. Sistemas de enseñanza de la lectura que sabemos que son contraproducentes, técnicas diagnósticas sin valor predictivo, programas antidrogas que siguen implantándose en los centros aún sabiendo que no funcionan, todo tipo de creencias falsas sobre el (inexistente) aumento en la prevalencia del autismo…

Aunque Lilienfeld y colaboradores posiblemente lo ignoran, muchas de las prácticas que critican son recibidas con aplausos en los centros escolares españoles mientras escribo estas líneas. El método global de la enseñanza de la lectura es uno de los más sangrantes. Desde hace algunos años, en muchos centros educativos ya no se enseñan las reglas fonéticas. Aquello de que la “b” con la “a”, “ba”. Ahora se enseña a los niños una palabra completa, por ejemplo “árbol”, junto a un dibujo que representa el concepto. La idea es que haciendo esto con muchas palabras, los niños acabarán descifrando las reglas de la lectura. ¿Funciona? Bueno, algunos niños podrían aprender a leer casi sin que los adultos les enseñaran nada. Pero la evidencia señala que el método global falla con muchos niños. El viejo sistema supera con creces al de las palabras completas, pero por desgracia esta evidencia no llega a los colegios.

Tampoco es diferente el veredicto que hacen Lilienfeld y colaboradores de otra idea que se ha hecho fuerte en nuestras escuelas: la llamada teoría de los estilos de aprendizaje. Lo que esta teoría tiene de cierto es sentido común y lo que va más allá es pura pseudociencia. Que cada niño es diferente y que no siempre los métodos que son mejores para enseñar a unos niños son los mejores para enseñar a otros apenas es algo que pueda sorprender. Pero pasar de ahí a decir que disponemos de un buen sistema para diagnosticar cuál es el estilo de aprendizaje de cada alumno o que sabemos cómo trasladar esa información a prácticas educativas personalizadas para cada alumno es otra cosa. Lo cierto es que ni siquiera disponemos de un buen sistema de categorías para “clasificar” a los estudiantes. Las clasificaciones que se usan en las escuelas son tan burdas como decir que unos estudiantes son “visuales” y otros son “auditivos”. De nuevo, no tenemos ninguna evidencia empírica para sostener que estas clasificaciones son útiles y que los niños aprenden mejor cuando se llevan a la práctica estas ideas. Pero esto no impide que sean el último grito en “innovación” educativa. De hecho, no queda muy lejos de estas ideas la llamada teoría de las inteligencias múltiples, cuyo autor ha recibido nada menos que el Príncipe de Asturias de Ciencias Sociales del año 2011.

El artículo de Lilienfeld, Ammirati y David no pretende ser una simple denuncia de esta situación. De hecho, ni siquiera es su principal objetivo. La mayor parte del artículo está destinada a explicar las razones por las que creemos con tanta facilidad en estas teorías erróneas y, lo más importante, dar un pequeño número de consejos para ayudarnos a combatirlas, en nosotros mismos y en los demás. Si una práctica educativa no se a basa en estudios rigurosos sino en evidencia anecdótica, si una teoría está planteada de una forma que no es falsable o no puede ponerse a prueba, si se trata de ideas que no cambian ni se corrigen con el paso del tiempo, si las personas que las sostienen evitan las críticas a toda costa, si hacen “afirmaciones extraordinarias” sin disponer de “evidencia extraordinaria”… lo menos que podemos hacer es recelar.

__________

Lilienfeld, S. O., Ammirati, R., & David, M. (2012). Distinguishing science from pseudoscience in school psychology: Science and scientific thinking as safeguards against human error. Journal of School Psychology, 50, 7-36.

Criterios diagnósticos de la pseudociencia

A lo largo de la historia, decenas de científicos y filósofos han intentado demarcar la frontera que separa la ciencia de la pseudociencia buscando un criterio bien definido que las separe. Para unos, la principal diferencia es la falsabilidad de las teorías científicas frente a la vaguedad de la pseudociencia. Para otros, es la utilización del método científico lo que mejor las distingue. Sin embargo, ni éstas ni otras propuestas similares se han hecho con la aceptación general de los académicos. Sea cual sea el criterio que se elija, siempre es posible encontrar algún contraejemplo que lo invalide. No es extraño que algunos filósofos, como Paul Feyerabend, hayan concluido que en realidad no hay ninguna diferencia esencial entre ciencia y pseudociencia. Sin embargo, existe una salida alternativa a este problema.

Normalmente intentamos definir los conceptos (como el concepto de “ciencia”) buscando las características necesarias y suficientes que debe reunir un elemento para pertenecer a la categoría que describe ese concepto. Por ejemplo, la definición de ser humano solía ser “animal racional”. Si algo es un animal y es racional, y si esa definición es correcta, entonces puede clasificarse con toda seguridad un ser humano. Sin embargo, hay conceptos cuyos elementos, utilizando la expresión de Wittgenstein, no tienen en común más que cierto “parecido familiar”: tienden a presentar ciertos rasgos comunes, pero ninguno de ellos es necesario ni suficiente para ser correctamente clasificado.

Un buen ejemplo de estas categorías son las enfermedades mentales. Como aún no sabemos muy bien cómo caracterizar algunas de ellas o cómo explicarlas, lo que los psicólogos y psiquiatras hacen es elaborar un listado de criterios diagnósticos para cada enfermedad. A un paciente se le diagnostica una enfermedad cuando cumple con un número determinado de esos criterios diagnósticos. Por ejemplo, el DSM-IV-TR propone diagnosticar un episodio depresivo mayor cuando un paciente cumple con cinco o más de estos criterios:

(1) Estado de ánimo depresivo la mayor parte del día, casi todos los días, indicado por el relato subjetivo o por observación de otros.

(2) Marcada disminución del interés o del placer en todas, o casi todas, las actividades durante la mayor parte del día, casi todos los días.

(3) Pérdida significativa de peso sin estar a dieta o aumento significativo, o disminución o aumento del apetito casi todos los días.

(4) Insomnio o hipersomnia casi todos los días.

(5) Agitación o retraso psicomotores casi todos los días.

(6) Fatiga o pérdida de energía casi todos los días.

(7) Sentimientos de desvalorización o de culpa excesiva o inapropiada (que pueden ser delirantes) casi todos los días (no simplemente autorreproches o culpa por estar enfermo).

(8) Menor capacidad de pensar o concentrarse, o indecisión casi todos los días (indicada por el relato subjetivo o por observación de otros).

(9) Pensamientos recurrentes de muerte (no sólo temor de morir), ideación suicida recurrente sin plan específico o un intento de suicidio o un plan de suicidio específico.

Para que un paciente sea diagnosticado como un caso de depresión severa debe cumplir con al menos 5 de estos criterios (luego ninguno es suficiente por sí solo), pero cualquiera de esos criterios es igualmente válido (luego ninguno es necesario).

La recopilación de textos de Mario Bunge que publica Laetoli bajo el título La pseudociencia ¡Vaya timo! Es un magnífico ejemplo de cómo esta misma lógica puede utilizarse para separar la ciencia de la pseudociencia. Tal vez no haya ninguna característica esencial que las diferencie, pero no por ello dejan de caracterizarse una y otra por diferentes atributos que tienden a aparecer juntos. En el libro de Bunge podemos encontrar varios listados de características habituales de la ciencia. Algunas de las más importantes son (a) que la ciencia tiende a cambiar a medida que avanza, (b) que una ciencia siempre presenta puntos de unión y es consistente con otras disciplinas también científicas, y (c) que la ciencia suele apoyarse en una determinada visión del mundo o filosofía que le es especialmente apta y que se caracteriza entre otras cosas por el realismo (la idea de que la realidad objetiva existe, independientemente de los observadores), el empirismo (la idea de que el conocimiento se basa en hechos observables) y el racionalismo (la idea de que las teorías científicas no pueden contradecirse entre sí o con los hechos).

De modo que si una teoría no cambia con el paso de las décadas, contradice a otras teorías bien asentadas y se protege de las críticas diciendo que la verdad, como la belleza, está en el ojo del que mira, ya sabe, es blanco y en botella. ¿Se le vienen ejemplos a la cabeza?