Devolviendo la confianza en la psicología social

La psicología social vive uno de sus momentos más delicados. Durante las últimas semanas, las principales revistas del área se están apresurando a sacar a la luz sus retracciones de los artículos publicados por Diederik StapelDirk Smeesters y Lawrence Sanna, todos ellos acusados de inventarse los datos de sus experimentos. No ha ayudado a limpiar la imagen de este ámbito de investigación que una de sus revistas más prestigiosas, el Journal of Personality and Social Psychology, se decidiera a publicar, por motivos incomprensibles,un artículo sobre clarividencia que ha desatado una virulenta polémica sobre la adecuación de los métodos utilizados en psicología experimental. No hay razón para pensar que este tipo de problemas afecten a la psicología social más que a otras disciplinas científicas, pero la desafortunada sucesión de estos casos sonados en tan poco tiempo la ha puesto en el ojo del huracán. Continúa leyendo en Psicoteca

Conexiones en Red

Eparquio Delgado tuvo la amabilidad de estrenar la segunda temporada de Conexiones en Red con una entrevista en la que Helena Matute y yo tuvimos la oportunidad de hablar de nuestro libro, Psicología de las nuevas tecnologías. Para hacer honor al tema de la entrevista, Helena (Bilbao) y yo (Londres) estuvimos conectados por Skype mientras Eparquio nos entrevistaba desde Canarias. Si en algún momento parezco distraído  es que Helena me estaba haciendo muecas por la webcam ;-) La entrevista está disponible aquí.

Pensar rápido, pensar despacio

Dicen que hay dos tipos de personas: las que creen que hay dos tipos de personas y las que no. El genial Daniel Kahneman es de los que cree que cada uno de nosotros somos dos tipos de persona. En su último libro, Pensar rápido, pensar despacio, nos invita a conocer a los dos individuos que habitan en nuestro interior, a los que siguiendo una reciente convención en psicología cognitiva nos presenta con los nombres de Sistema 1 y Sistema 2. Si alguien nos pregunta cuánto son 4 x 4, respondemos rápidamente, sin hacer el más mínimo esfuerzo. El Sistema 1 se ha hecho cargo de la tarea. Funciona de forma automática, sin requerir la intervención de la conciencia y por mecanismos puramente asociativos. Apenas podemos controlarlo o saber cómo hace su trabajo. Como por arte de magia, nos proporciona una respuesta al problema en cuestión. Pero a veces no se enciende la bombilla. Multiplicar 4 x 4 es una cosa. ¿Pero multiplicar 121 x 27? Aquí esa “intuición” permanece en silencio y no nos deja más remedio que pararnos a pensar con detenimiento o, directamente, a coger lápiz y papel. Ahora el Sistema 2 toma las riendas. Nos embarcarnos en un procesamiento más exigente, donde las ideas van siendo barajadas, descartadas, y manipuladas una a una en el foco de nuestra conciencia. No es sencillo, pero al final damos con la solución.

Aunque deleguemos muchas tareas sin importancia en el Sistema 1, nos gusta creer que para todo lo importante confiamos en el racional y cuidadoso Sistema 2. No en vano nos hemos bautizado como Homo sapiens. Pero si algo nos demuestran décadas de psicología cognitiva es que casi siempre es el Sistema 1 quien está al mando. Con frecuencia, decisiones cruciales como dónde invertir nuestro dinero, si comprar un seguro de vida y cuál, a quién votar en las próximas elecciones o a quién confiar la educación de nuestros hijos las terminamos afrontando en base a las tentadoras “soluciones” que nos brinda el Sistema 1. Muchas veces acierta. Pero a veces falla estrepitosamente.

La gran contribución de los investigadores de la toma de decisiones, entre quienes Daniel Kahneman y el difunto Amos Tversky brillan con luz propia, es precisamente haber descubierto muchos de los trucos que emplea el Sistema 1 para presentarnos una idea como válida. A menudo, el Sistema 1 no cuenta con la información o la destreza necesaria para responder a una pregunta concreta. Cuando eso sucede, se recurre a una pequeña trampa: se sustituye esa pregunta por otra similar pero más fácil de responder. ¿Subirán más las acciones de la compañía A o las de la compañía B? No lo sé, la verdad; pero lo que sí sé es que el anuncio de la primera es más divertido. Invertiré ahí mis ahorros. ¿Es más seguro viajar en coche o en avión? Pues mira, digan lo que digan las estadísticas, en un accidente aéreo no se salva nadie. Y así sucesivamente…

A lo largo de los años hemos ido descubriendo varios de estos trucos que utiliza el Sistema 1 para buscar soluciones plausibles a diversos problemas. Uno de los más habituales es calcular cómo de probable es un evento en función de lo fácil que sea pensar en ese evento. Este heurístico de la disponibilidad es el responsable, entre otras cosas, de que nos dé miedo viajar en avión simplemente porque nos resulta fácil recordar noticas de accidentes aéreos o porque es fácil formarse una imagen vívida del suceso. Otro “sospechoso habitual” es el llamado heurístico de la representatividad: si un objeto es muy representativo de una categoría, entonces damos por sentado que pertenece a esa categoría e ignoramos cualquier otra información que lo contradiga. Por ejemplo, si en una fiesta coincidimos con alguien a quien le gusta leer y que acaba de visitar la última exposición del museo local, es tentador dar por sentado que es de letras, aunque nos digan que el 80% de las personas que están en la fiesta son ingenieros.

Estos y otros heurísticos que se revisan en el excelente libro de Kahneman nos ayudan a entender muchos de los errores sistemáticos que cometemos en nuestros razonamientos cotidianos. Pensar rápido, pensar despacio es sin duda una de las mejores y más amenas introducciones al estudio de la irracionalidad humana.

Poderes… estadísticos

La ciencia no es perfecta, pero tiene la perfección como ideal. Una de sus grandezas es precisamente su carácter auto-crítico, que la permite salir fortalecida de cualquier problema o adversidad, incluso de aquellas que la acechan desde dentro. El último año ha sido testigo de profundas polémicas en el seno de la psicología experimental que ilustran a la perfección cómo funciona nuestro “departamento de asuntos internos”. Cuando apenas habíamos empezado a asimilar el caso de fraude de Marc Hauser, hemos tenido que hacer frente al igualmente grave caso de Diederik Stapel. El mismo año se han publicado los experimentos de percepción extrasensorial de Daryl Bem, que para muchos constituyen un signo más de que es necesaria una revisión de nuestros métodos de investigación y de las políticas de publicación que siguen nuestras revistas más prestigiosas. También nos han sorprendido las dificultades para replicar algunos experimentos que se consideraban clásicos; entre ellos, el polémico estudio de Bargh.

Son numerosos los artículos que se han publicado durante este año haciendo una revisión crítica del modo en que funciona el sistema de publicación en ciencia y proponiendo métodos para detectar posibles casos de publicación de resultados poco robustos. A esta corriente pertenece un estudio de Gregory Francis recientemente publicado en Psychonomic Bulletin & Review que propone una sencillísima técnica para medir el grado de publicación selectiva en un área de investigación. Apenas es necesario explicar lo grave que puede ser la publicación selectiva de resultados positivos en cualquier disciplina científica. Imagine que hacemos 1000 estudios para comprobar si existe, por ejemplo, la hipersensibilidad electromagnética. Incluso aunque la hipersensibilidad electromagnética no exista (tal y como parece indicar toda la evidencia científica), habrá pequeñas fluctuaciones en los resultados de estos experimentos debidas al simple azar. Esto hará que un pequeño puñado de estudios arrojen resultados positivos: Es decir incluso si la hipersensibilidad electromagnética no existe, unos pocos estudios parecerán indicar que sí existe. Pongamos que de los 1000 estudios 950 concluyen que el efecto no existe y que los otros 50 concluyen que sí existe. A partir de estos resultados parece bastante sencillo intuir cuál es la realidad del fenómeno. Ahora bien, imagine que aunque hemos realizado 1000 estudios, las revistas científicas se niegan a publicar todos los que tienen resultados negativos y consecuentemente se publican sólo esos 50 estudios “positivos”. ¿Cuál es la impresión que se transmite a quien revisa esa literatura?

Por desgracia esto sucede con relativa frecuencia. En parte porque las revistas prefieren publicar estudios donde se demuestra que existe algo. (Demostrar que algo no existe no vende; es como aquello de “perro muerde a hombre”.) Pero a este problema de las revistas se suma que cuando un investigador quiere demostrar un fenómeno y tiene muchos estudios sobre el mismo, es probable que considere más “representativos” los estudios en los que se observa ese efecto que los estudios en los que no se observa. Aunque sería el ideal, ningún investigador es un testigo neutral de los resultados de sus experimentos.

Afortunadamente, disponemos de diversas técnicas que nos permiten saber cuándo existe un problema de publicación selectiva. El artículo de Francis propone un método sencillo que se basa en la idea de poder estadístico. Técnicamente, el poder estadístico de un estudio se define como la probabilidad de que los resultados de un estudio rechacen una hipótesis nula que es falsa. Simplificando esta definición: El poder estadístico es la probabilidad de que un estudio detecte un efecto que realmente existe. Uno de los parámetros de los que más depende ese poder estadístico es el número de observaciones que se hacen en un estudio.

Aunque parezca un concepto muy abstracto, es muy fácil de entender mediante un ejemplo. Imagina que tenemos una moneda trucada que da caras el 70% de las veces. Nosotros en realidad no sabemos aún si la moneda está trucada o no. Nuestro trabajo es precisamente averiguarlo. Así que tiramos esa moneda al aire unas cuantas veces para ver lo que pasa. Imagine que la tiramos 10 veces y salen 7 caras. ¿Es esto prueba de que la moneda está trucada? Pues la verdad es que no. Porque aunque se tratara de una moneda normal, es muy fácil que el azar haga que nos salgan 7 caras y 3 cruces. Ahora bien, imagine que hemos tirado la moneda 1000 veces y nos han salido 700 caras y 300 cruces. ¿Podemos concluir ahora que la moneda está trucada? Efectivamente, podemos hacerlo casi con total seguridad. La razón es que cuando tiramos la moneda sólo 10 veces, es muy probable que el azar tenga un efecto muy importante en el número de caras y cruces que nos salen. Pero a medida que incrementamos el número de observaciones es cada vez menos y menos probable que el patrón de resultados se vea muy influido por el azar. En otras palabras, sería  muy raro que el azar conspirara contra nosotros en 1000 ocasiones. Pues bien, eso que cambia entre tener 10 observaciones y 1000 observaciones es precisamente el poder estadístico. Cuantas más observaciones hagamos, tanto más probable es que cualquier efecto que veamos en los datos sea un efecto real y no un artificio del azar.

El lado oscuro del poder estadístico es que si un estudio tiene poco poder estadístico (es decir, si se basa en pocas observaciones), entonces a veces no conseguirá establecer a ciencia cierta si existe un efecto o no. Y es precisamente aquí donde el concepto de poder estadístico puede ser útil para ver si hay un problema de publicación selectiva en un área. Si los estudios de un área tienen poco poder estadístico, entonces esperaremos encontrar algunos resultados negativos, aunque el efecto que se esté estudiando exista realmente. Volviendo a los experimentos de Bem, esto implica, por ejemplo, que si la percepción extrasensorial existe y los estudios sobre ella tienen un poder estadístico del 80% entonces deberíamos esperar que la percepción extrasensorial se detectara en un 80% de los datos.

Pues bien, el artículo de Francis observa que en el caso de la percepción extrasensorial, el número de “éxitos” que se observan en los experimentos de Bem es mayor que el que sería esperable dado el poder estadístico de esos experimentos. Es decir, dado ese poder estadístico y asumiendo que la percepción extrasensorial existe, sería extremadamente poco probable tener tantos resultados positivos. Luego, “something is rotten in the state of Denmark”.

__________

Francis, G. (2012). Too good to be true: Publication bias in two prominent studies from experimental psychology. Psychonomic Bulletin & Review, 19, 151-156. doi: 10.3758/s13423-012-0227-9

Alan Turing y la percepción extransensorial

Alan Turing, cuyo centenario celebramos en 2012, nos dejó una de las respuestas más controvertidas a la pregunta de si algún día podremos construir máquinas que piensen y cómo sabremos si efectivamente piensan. Su conocida propuesta constituye lo que hoy conocemos como Test de Turing: Si un observador neutral conversa con un ordenador y un ser humano y no sabe distinguir quién es quién, entonces habrá que atribuir al ordenador la misma “inteligencia” que al humano. En su artículo clásico “Computing machinery and intelligence” defiende la idea de que algún día se diseñará una máquina que pueda pasar la prueba y se adelanta a todas las críticas que puedan plantearse. Es difícil contener una sonrisa ante alguna de estas posibles “críticas”. Vean, vean…

(9) The argument from extrasensory perception

I assume that the reader is familiar with the idea of extrasensory perception, and the meaning of the four items of it, viz., telepathy, clairvoyance, precognition and psychokinesis. These disturbing phenomena seem to deny all our usual scientific ideas. How we should like to discredit them! Unfortunately the statistical evidence, at least for telepathy, is overwhelming. It is very difficult to rearrange one’s ideas so as to fit these new facts in. Once one has accepted them it does not seem a very big step to believe in ghosts and bogies. The idea that our bodies move simply according to the known laws of physics, together with some others not yet discovered but somewhat similar, would be one of the first to go.

This argument is to my mind quite a strong one. One can say in reply that many scientific theories seem to remain workable in practice, in spite of clashing with ESP; that in fact one can get along very nicely if one forgets about it. This is rather cold comfort, and one fears that thinking is just the kind of phenomenon where ESP may be especially relevant.

A more specific argument based on ESP might run as follows: “Let us play the imitation game, using as witnesses a man who is good as a telepathic receiver, and a digital computer. The interrogator can ask such questions as ‘What suit does the card in my right hand belong to?’ The man by telepathy or clairvoyance gives the right answer 130 times out of 400 cards. The machine can only guess at random, and perhaps gets 104 right, so the interrogator makes the right identification.” There is an interesting possibility which opens here. Suppose the digital computer contains a random number generator. Then it will be natural to use this to decide what answer to give. But then the random number generator will be subject to the psychokinetic powers of the interrogator. Perhaps this psychokinesis might cause the machine to guess right more often than would be expected on a probability calculation, so that the interrogator might still be unable to make the right identification. On the other hand, he might be able to guess right without any questioning, by clairvoyance. With ESP anything may happen.

If telepathy is admitted it will be necessary to tighten our test up. The situation could be regarded as analogous to that which would occur if the interrogator were talking to himself and one of the competitors was listening with his ear to the wall. To put the competitors into a “telepathy-proof room” would satisfy all requirements.

__________

Turing, A. M. (1950). Computing machinery and intellingece. Mind, 59, 433-460. doi: 10.1093/mind/LIX.236.433

Criterios diagnósticos de la pseudociencia

A lo largo de la historia, decenas de científicos y filósofos han intentado demarcar la frontera que separa la ciencia de la pseudociencia buscando un criterio bien definido que las separe. Para unos, la principal diferencia es la falsabilidad de las teorías científicas frente a la vaguedad de la pseudociencia. Para otros, es la utilización del método científico lo que mejor las distingue. Sin embargo, ni éstas ni otras propuestas similares se han hecho con la aceptación general de los académicos. Sea cual sea el criterio que se elija, siempre es posible encontrar algún contraejemplo que lo invalide. No es extraño que algunos filósofos, como Paul Feyerabend, hayan concluido que en realidad no hay ninguna diferencia esencial entre ciencia y pseudociencia. Sin embargo, existe una salida alternativa a este problema.

Normalmente intentamos definir los conceptos (como el concepto de “ciencia”) buscando las características necesarias y suficientes que debe reunir un elemento para pertenecer a la categoría que describe ese concepto. Por ejemplo, la definición de ser humano solía ser “animal racional”. Si algo es un animal y es racional, y si esa definición es correcta, entonces puede clasificarse con toda seguridad un ser humano. Sin embargo, hay conceptos cuyos elementos, utilizando la expresión de Wittgenstein, no tienen en común más que cierto “parecido familiar”: tienden a presentar ciertos rasgos comunes, pero ninguno de ellos es necesario ni suficiente para ser correctamente clasificado.

Un buen ejemplo de estas categorías son las enfermedades mentales. Como aún no sabemos muy bien cómo caracterizar algunas de ellas o cómo explicarlas, lo que los psicólogos y psiquiatras hacen es elaborar un listado de criterios diagnósticos para cada enfermedad. A un paciente se le diagnostica una enfermedad cuando cumple con un número determinado de esos criterios diagnósticos. Por ejemplo, el DSM-IV-TR propone diagnosticar un episodio depresivo mayor cuando un paciente cumple con cinco o más de estos criterios:

(1) Estado de ánimo depresivo la mayor parte del día, casi todos los días, indicado por el relato subjetivo o por observación de otros.

(2) Marcada disminución del interés o del placer en todas, o casi todas, las actividades durante la mayor parte del día, casi todos los días.

(3) Pérdida significativa de peso sin estar a dieta o aumento significativo, o disminución o aumento del apetito casi todos los días.

(4) Insomnio o hipersomnia casi todos los días.

(5) Agitación o retraso psicomotores casi todos los días.

(6) Fatiga o pérdida de energía casi todos los días.

(7) Sentimientos de desvalorización o de culpa excesiva o inapropiada (que pueden ser delirantes) casi todos los días (no simplemente autorreproches o culpa por estar enfermo).

(8) Menor capacidad de pensar o concentrarse, o indecisión casi todos los días (indicada por el relato subjetivo o por observación de otros).

(9) Pensamientos recurrentes de muerte (no sólo temor de morir), ideación suicida recurrente sin plan específico o un intento de suicidio o un plan de suicidio específico.

Para que un paciente sea diagnosticado como un caso de depresión severa debe cumplir con al menos 5 de estos criterios (luego ninguno es suficiente por sí solo), pero cualquiera de esos criterios es igualmente válido (luego ninguno es necesario).

La recopilación de textos de Mario Bunge que publica Laetoli bajo el título La pseudociencia ¡Vaya timo! Es un magnífico ejemplo de cómo esta misma lógica puede utilizarse para separar la ciencia de la pseudociencia. Tal vez no haya ninguna característica esencial que las diferencie, pero no por ello dejan de caracterizarse una y otra por diferentes atributos que tienden a aparecer juntos. En el libro de Bunge podemos encontrar varios listados de características habituales de la ciencia. Algunas de las más importantes son (a) que la ciencia tiende a cambiar a medida que avanza, (b) que una ciencia siempre presenta puntos de unión y es consistente con otras disciplinas también científicas, y (c) que la ciencia suele apoyarse en una determinada visión del mundo o filosofía que le es especialmente apta y que se caracteriza entre otras cosas por el realismo (la idea de que la realidad objetiva existe, independientemente de los observadores), el empirismo (la idea de que el conocimiento se basa en hechos observables) y el racionalismo (la idea de que las teorías científicas no pueden contradecirse entre sí o con los hechos).

De modo que si una teoría no cambia con el paso de las décadas, contradice a otras teorías bien asentadas y se protege de las críticas diciendo que la verdad, como la belleza, está en el ojo del que mira, ya sabe, es blanco y en botella. ¿Se le vienen ejemplos a la cabeza?

Ranking académico de universidades del mundo

El pasado 15 de Agosto se publicó la nueva edición del prestigioso Academic Ranking of World Universities que cada año elabora la Universidad Jiao Tong de Shangai. Con respecto a la edición anterior, no se observa ninguna diferencia en las 16 primeras posiciones del ranking, que vuelve a estar liderado por Harvard, Stanford, el MIT, Berkeley y Cambridge. En el ámbito europeo las tres universidades líderes vuelven a ser la citada Cambridge, Oxford (en la posición 10) y University College London (21). Por primera vez en los diez años de historia del ranking, se hace un hueco la Universidad del País Vasco, que aparece en el bloque de posiciones 301-400 y se ubica así, según los autores del ranking, entre las 4-7 mejores universidades españolas. Otras universidades españolas que figuran en el ranking son la Autónoma de Madrid (201-300), la Complutense (201-300), la Autónoma de Barcelona (301-400), la Politécnica de Valencia (301-400), la Universidad de Valencia (301-400), la Universidad de Granada (401-500), la Pompeu Fabra (401-500), la Universidad de Vigo (401-500), la Universidad de Zaragoza (401-500).

Mario Bunge sobre la pseudociencia en la universidad

“Sin embargo, en la sociedad moderna la cría de cabras comienza en la cima, es decir, en la universidad, que es donde se instruyen los profesores. Esto no supone únicamente encender los candiles, sino también luchar contra quienes intentan apagarlos. En otras palabras, tenemos que afrontar resueltamente la desagradecida tarea de criticar a aquellos que han tomado el camino fácil del pensamiento acrítico y se enorgullecen de ser tan “abiertos” que pueden absorber y enseñar todo tipo de basura intelectual. Debemos insistir en que los profesores universitarios tienen el deber de estar a la altura de criterios de rigor intelectual cada vez más exigentes, así como de abstenerse de enseñar pseudociencia y anticiencia. La libertad académica sólo se refiere a la búsqueda y enseñanza de la verdad. No es una licencia para decir sandeces.” (Bunge, 2010, p. 189)

__________

Bunge, M. (2010). Las pseudociencias ¡vaya timo! Pamplona: Editorial Laetoli.

¿Tus ojos te delatan?

Quienes se dedican a eso que llaman Programación Neurolingüística (PNL) prometen a sus clientes que pueden enseñarles a detectar las mentiras fijándose en la mirada de las personas. Conforme a este mito, cuando una persona diestra se está imaginando algo (y, por tanto, tal vez inventándolo) su mirada suele dirigirse hacia arriba a la derecha. Sin embargo, cuando se está recordando un evento real, la mirada se desvía hacia la izquierda. Pues bien, un estudio recién publicado por Richard Wiseman y sus colaboradores en PLoS ONE muestra que esta idea es totalmente falsa. En su primer experimento, les piden a un grupo de participantes que mientan en una entrevista y a otro que digan la verdad. La grabación de esas conversaciones no muestra que los primeros desvíen la mirada como predice la PNL. Más aún, en el segundo experimento, muestran las grabaciones de esas entrevistas a personas a las que se ha explicado esta técnica de detección de mentiras y a otro grupo de personas que no ha recibido esa “formación”. Los dos grupos tienen un éxito similar en sus intentos de detectar quiénes mienten y quiénes no. Finalmente, en un tercer estudio utilizan un conjunto de grabaciones de testimonios públicos reales donde se sabe a ciencia cierta que algunas personas estaban mintiendo y otras no. El análisis de esas grabaciones no muestra que quienes mentían miraran más hacia la derecha. Según la revisión bibliográfica que realizan los autores en la introducción del artículo, estudios similares realizados en los 80 llegaron a la misma conclusión: que no hay relación alguna entre la dirección de la mirada y la mentira. A la luz de estos datos, sospecho que cuando un entrenador en PNL les hace promesas a sus clientes, no mira ni a la derecha ni a la izquierda; les mira a la cartera.

__________

Wiseman, R., Watt, C., ten Brinke, L., Porter, S., Couper, S.-L., & Rankin, C. (2012). The eyes don’t have it: Lie detection and neuro-linguistic programming. PLoS ONE, 7, e40259.

¡Adiós y buena suerte!

Quiero dedicar mi última entrada como profesor de la Universidad de Deusto a Alan Turing y a John von Neumann, por sentar las bases de la informática, a los creadores de los protocolos TCP/IP, al equipo completo de Google y, muy especialmente, a los ingenieros y programadores que pusieron en marcha Skype. En apenas unas décadas ellos han conseguido lo que no lograron siglos de telépatas, mentalistas y videntes. Gracias a quienes han hecho posible que hasta un mentecato como yo pueda permitirse un ordenador personal y una conexión a Internet, hoy me despido sólo de los muros de piedra de la universidad y de sus pasillos de madera. Pero no necesito decir adiós a todas las personas que durante estos años tanto me han querido, apoyado y también soportado. Queridos labpsiqueros, labpsiqueras y allegados, gracias por enseñarme tanto, por los sábados leyendo manuscritos que no podían esperar y los domingos reanalizando datos, por estar ahí en la salud y en la enfermedad. No olvidéis que sigo más cerca de lo que parece, junto al icono verde donde pone “conectado”…

Breve historia del cerebro

Cuando un profesor de historia de la psicología termina de leer un libro como Breve historia del cerebro, automáticamente le dan ganas de encender el ordenador y ponerse a hacer nuevas diapositivas para sus clases. El libro de Julio González Álvarez, profesor titular de la Universitat Jaume I de Castellón, nos ofrece una excelente introducción a la historia de los más importantes hallazgos de las neurociencias, desde el descubrimiento de la naturaleza eléctrica del impulso nervioso hasta el estudio de los mecanismos neuronales de aprendizaje en la Aplysia. Son especialmente recomendables el capítulo dedicado a la localización cerebral de las funciones cognitivas (con parada obligatoria en el mundo de la frenología) y el excepcional capítulo sobre la teoría de la neurona, donde trata con especial detenimiento la vida de uno de los pocos científicos de renombre internacional que ha dado nuestro país: el inigualable Ramón y Cajal. Escrito con un lenguaje claro y sencillo, el libro hará las delicias de legos y especialistas por igual.

Lo que el cerebro nos dice

Quienes me conocen bien saben que sólo hay una cosa en el mundo que me produce más espanto que los txipirones en su tinta. Me refiero, cómo no, a la mera idea de quedarme solo en un aeropuerto sin un libro que leer. Algunas de mis lecturas más desafortunadas se deben al desesperado intento de evitar horas interminables de vagabundeo por las tiendas de recuerdos. Las librerías de los aeropuertos suelen ofrecer poca alternativa al best-seller de moda, pero muy de vez en cuando sus estanterías te brindan una agradable sorpresa. Mi último viaje a Bruselas me deparó uno de esos momentos afortunados. Contra todo pronóstico, me esperaba allí la versión original del último libro de Vilayanur Ramachandran, que en castellano se ha publicado con el título de Lo que el cerebro nos dice. El libro toca los temas más diversos de la neurociencia actual, pero con una atención especial al detalle en la narración de los casos clínicos y de los experimentos que es poco habitual en los libros de divulgación. En el lado negativo, a medida que el libro avanza, tal vez pierda algo de su frescura, al abandonar el terreno firme de los hechos concretos y adentrarse en la especulación teórica. Pero nada de ello menoscaba su valor.

Entre mis fragmentos favoritos, se encuentra una sección dedicada a uno de los fenómenos más populares de la neurología. Se trata del llamado dolor del miembro fantasma, la dolencia de muchos pacientes que, después de haber perdido un brazo o una pierna, siguen notando que les duele o que se les ha quedado en una postura incómoda. En una excelente introducción al tema, el autor nos presenta y explica los hechos más sorprendentes sobre el tema, como, por ejemplo, que el dolor de un brazo fantasma a veces remite cuando el paciente se rasca la cara en un lugar exacto. A Ramachandran le corresponde el honor, en sus propias palabras, de haber sido el primero en “amputar” exitosamente un miembro fantasma. La técnica en cuestión ya ha pasado todas las pruebas de doble ciego y se perfila como una de las terapias más exitosas para tratar estos dolores. Como se muestra en la foto, donde debería estar el brazo amputado se ubica un espejo que refleja la imagen del brazo que el paciente aún conserva. Por un momento, esa persona puede mirar hacia abajo e imaginarse que aún tiene ambos brazos. A continuación, se le pide que mueva “ambas” manos de forma simétrica y que observe la imagen que producen “ambos” brazos. Al parecer, mientras los pacientes hacen estos ejercicios, se producen ajustes en la representación que el cerebro hace del brazo ausente. La información visual sobre la presencia del brazo se integra de forma coherente con las señales propioceptivas que persisten en la corteza somatosensorial a pesar de que el miembro haya sido amputado. Sorprendentemente, el dolor se atenúa en unas cuentas sesiones. Si esto les parece interesante, no les cuento nada del capítulo dedicado a la sinestesia…

Presintiendo el futuro… de la psicología

Conforme a la teoría de la gravedad de Newton, los planetas deberían recorrer una órbita elíptica alrededor del sol. Curiosamente, Urano no se mueve así. Su órbita es aproximadamente elíptica, sí, pero aquí y allí se desvía de forma caprichosa del que debería ser su curso normal. Cuando los astrónomos del siglo XIX lo descubrieron, supongo que alguno se llevaría las manos a la cabeza. Si hubieran estudiado el falsacionismo de Karl Popper, sin duda habrían llegado a la conclusión de que la teoría de Newton debía ser incorrecta. Pero ninguno de ellos dio este paso. En lugar de ello, asumieron que si Urano se comportaba de forma extraña y si la teoría de Newton era cierta, entonces debía haber cerca algún cuerpo desconocido de gran tamaño cuya masa influyera en la órbita de Urano. Así se descubrió Neptuno.

Esta historia tiene interesantísimas repercusiones para entender cómo evoluciona (y cómo debería evolucionar) la ciencia. Primero, nos enseña que hay que tener cuidado a la hora de interpretar los datos porque lo que parece consistente o inconsistente con una teoría a menudo admite otras interpretaciones. A veces creemos que unos datos nos dicen algo sobre una teoría (en este caso, la teoría de la gravitación universal de Newton), pero en realidad nos están diciendo algo sobre otra teoría (en este caso, la teoría obsoleta de que sólo había siete planetas en el sistema solar). Segundo, nos enseña que aunque haya que mantener la mente abierta ante los nuevos datos, a menudo también merece la pena persistir en el intento de mantener explicaciones sencillas incluso para los hechos que inicialmente parecen desafiarlas.

Pensando en aquellos astrónomos que no renunciaron a la teoría de Newton ante la primera adversidad, es sencillo entender por qué los psicólogos actuales también miran con escepticismo las recientes “demostraciones” de percepción extrasensorial que el pasado 2011 publicó Bem en un artículo que ha sembrado la polémica. El diseño de los experimentos es ciertamente audaz y confieso de antemano que despierta todas mis simpatías. En realidad, se trata nada menos que de nueve experimentos que utilizan técnicas completamente diferentes, pero cuyos resultados convergen en la conclusión de que en determinadas condiciones las personas pueden ser sensibles a eventos que aún no han sucedido.

Uno de mis experimentos favoritos se basa en una inversión temporal de un experimento típico de priming afectivo. En los experimentos normales de priming afectivo se observa que el tiempo que se tarda en juzgar si una palabra (como, por ejemplo, “flor”) es positiva es menor si justo antes se presenta muy brevemente otra palabra que también es positiva (como, por ejemplo, “vacaciones”). Nada sorprendente hasta aquí. Lo interesante de los experimentos de Bem es que obtiene efectos similares incluso cuando se invierte el orden en el que se presentan los estímulos. Es decir, que nos cuesta menos decir, por ejemplo, que la palabra “flor” es positiva, si después de nuestra respuesta se presenta muy brevemente la palabra “vacaciones”. Estos resultados son tan asombrosos que cuesta describirlos asépticamente sin utilizar signos de admiración. El resto de experimentos de Bem son muy diferentes, pero la característica común de todos ellos es que el comportamiento de los participantes se ve influido por estímulos que aún no ha visto en ese momento. De ahí el nombre del polémico artículo: Feeling the future. Impresionante, ¿verdad?

Amparándose en estos resultados muchos dirán que a la psicología científica no le queda más remedio que rendirse ante la evidencia de estas pruebas a favor de la percepción extrasensorial. Pero nada más lejos de la realidad. Los psicólogos siguen en sus trece y su escepticismo no se ha rebajado ni un ápice. Y creo que actúan con la misma sabiduría que los astrónomos que antes de abandonar la teoría de Newton hicieron todo lo posible por “estirarla” para explicar la anomalía en la órbita de Urano.

Tal vez la más sencilla interpretación de los datos de Bem es que, salvo que los intentos de replicación y los meta-análisis posteriores indiquen lo contrario, es extremadamente probable que se trate de falsos positivos. La estadística inferencial que utilizamos habitualmente en las ciencias del comportamiento se basa en la idea de que aceptamos una hipótesis cuando la probabilidad de que las pruebas a su favor se deban al azar es inferior al 5%. Esto quiere decir que aunque diseñemos nuestros experimentos muy bien, en un 5% de las ocasiones (es decir, una de cada veinte veces) aceptaremos como válida una hipótesis falsa que parece verdadera por puro azar. Parece que este riesgo es pequeño, pero significa que si hacemos muchos experimentos a favor de nuestra hipótesis, aunque sea falsa, uno de cada veinte experimentos parecerá darnos la razón. Nosotros sabemos que nueve de los experimentos de Bem dan apoyo a la idea de que existe la percepción extrasensorial. Pero no sabemos si se trata de los únicos nueve experimentos que Bem ha realizado o si se trata de nueve experimentos elegidos de un conjunto más amplio (en el cual no todos los experimentos apoyaban esa hipótesis).

Incluso para el investigador más honesto (y no dudo de que Bem lo sea) es fácil caer en estos errores sin darse cuenta. Diseñamos un estudio piloto para explorar un nuevo fenómeno y si los primeros cinco datos que obtenemos parecen ambiguos, en lugar de terminar el experimento, hacemos un pequeño cambio en el experimento y vemos que pasa. Si los resultados no son más favorables ahora, tomamos esta segunda prueba como buena y la primea como mala. Por el contrario, si el segundo experimento también parece arrojar resultados ambiguos o abiertamente contrarios, es posible que no obstante realicemos un tercer experimento con pequeñas modificaciones para ver qué pasa. Y así sucesivamente. Al final, tendremos unos cuantos experimentos “piloto” fallidos o ambiguos y unos pocos experimentos que tienen resultados más favorables a nuestra hipótesis y que, como “padres de la criatura”, no podemos evitar tomar por buenos. Y, por supuesto, la publicación selectiva de resultados es sólo una de las malas (pero habituales) prácticas que puede llevarnos a caer en falsos positivos. (Véanse mis entradas previas sobre el tema aquí y aquí.)

Para evitar caer en falsos positivos, es fundamental que antes de darse por universalmente aceptado, un fenómeno sea replicado varias veces y, si es posible, por investigadores diferentes. Si el efecto existe realmente, deberían poder replicarse los resultados sin dificultad. Si ha sido un falso positivo, empezarán a observarse resultados negativos. El problema es que realizar estas réplicas consume mucho tiempo. Tiempo que los investigadores profesionales a menudo no tienen, porque sus carreras académicas dependen más de descubrir cosas nuevas que de comprobar si se replican resultados que han obtenido otros. (Hay que recordar que las principales revistas de psicología casi nunca aceptan la publicación de un trabajo que se limite a replicar a otro.)

Si en el caso de la órbita de Urano, la contradicción entre la teoría y los datos se solventó al descubrir Neptuno, ¿cómo se resolverá la contradicción entre los datos de Bem y las convicciones de los científicos de que el futuro no influye en el presente? Por lo pronto, los experimentos que han realizado otros psicólogos no han replicado los resultados de Bem (Ritchie, Wiseman, & French, 2012); así que parece poco probable que tengamos que reescribir los fundamentos de nuestra ciencia. Sin embargo, el caso de los experimentos de Bem es una ocasión excelente para replantearnos la forma en que realizamos investigación en psicología y en las ciencias de la salud en general. Son varios los artículos teóricos que han aprovechado esta ocasión para hacer esta misma lectura. De entre ellos recomiendo al menos dos. El de Wagenmakers, Wetzels, Borsboom y van der Maas (2011), publicado en el mismo volumen que el artículo original de Bem, es un alegato contra la utilización de análisis estadísticos laxos para poner a prueba hipótesis controvertidas. El otro, publicado por LeBel y Peters (2011) en el Review of General Psychology, nos invita entre otras cosas a hacer réplicas exactas de los experimentos más importantes en lugar de las habituales réplicas conceptuales (en las que se “repite” un experimento, pero variando detalles del procedimiento para ver si los resultados se mantienen a pesar de los cambios). Proporciona también un excelente análisis de por qué con frecuencia no prestamos toda la atención que se merecen a los intentos fallidos de réplicas. Lamentablemente no tengo espacio aquí para explicar con detalle ambos artículos, pero son dos excelentes muestras de cómo la verdadera ciencia aprovecha cualquier duda y debate para salir fortalecida.

__________

Bem, D. J. (2011). Feeling the future: Experimental evidence for anomalous retroactive influences on cognition and affect. Journal of Personality and Social Psychology, 100, 407-425. doi: 10.1037/a0021524

LeBel, E. P., & Peters, K. R. (2011). Fearing the future of empirical psychology: Bem’s (2011) evidence of psi as a case study of deficiencies in modal research practice. Review of General Psychology, 15, 371-379. doi: 10.1037/a0025172

Ritchie, S. J., Wiseman, R., & French, C. C. (2012). Failing the future: Three unsuccessful attempts to replicate Bem’s ‘retroactive facilitation of recall’ effect. PLoS ONE, 7, e33423. doi:10.1371/journal.pone.0033423

Wagenmakers, E.-J., Wetzels, R., Borsboom, D., & van der Maas, H. L. J. (2011). Why psychologists must change the way they analyze their data: The case of psi: Comment on Bem (2011). Journal of Personality and Social Psychology, 100, 426-432. doi: 10.1037/a0022790

Adictos al social media

¿Es verdad que Internet es adictivo y produce dependencia? ¿Están los jóvenes (y no tan jóvenes) enganchados a las nuevas tecnologías? Lorena Fernández, Helena Matute y yo tuvimos ocasión de dar nuestra opinión en el programa Hoy por Hoy Bilbao emitido ayer en Cadena Ser Bilbao. Puedes escuchar la entrevista completa aquí.

De padres gatos, hijos michinos: La heredabilidad de la inteligencia

Si a uno le interesa mínimamente la investigación sobre la inteligencia y se encuentra con un artículo firmado por Nisbett, Aronson, Blair, Dickens, Flynn, Halpern y Turkheimer, no le queda más remedio que leérselo inmediatamente. La revisión sobre inteligencia que acaba de publicarse en el American Psychologist es un documento de más de 20 páginas, a doble columna y con letra minúscula en la que se abordan las más variadas cuestiones. La definición y componentes de la inteligencia, sus determinantes genéticos y ambientales, el impacto que sobre ella pueden tener diversos tipos de intervención y el famoso efecto Flynn son algunos de los asuntos más destacados. Continúa leyendo en Psicoteca…