Buscando recuerdos con la mirada

Si alguna vez has tenido que aprender las valencias del carbono o la declinación de rosa, rosae, seguramente compartirás mi envidia por la memoria de un ordenador. Salvo que un golpe inesperado fulmine la vida de nuestro disco duro, podemos contar con encontrar en él nuestras fotos, vídeos y música, a cualquier hora y en cualquier lugar, siempre con la misma calidad. Nuestra memoria, por el contrario, no puede ser más caprichosa. Nos deja tirados en medio de un examen y nos viene con las respuestas correctas quince minutos después, cuando ya no las necesitamos.

Desde hace tiempo sabemos que uno de los factores que determinan si seremos capaces de recordar algo es cuánto se parece la situación actual a la situación en la que aprendimos originalmente esa información. Se trata de una hipótesis que se ha puesto a prueba con los métodos más variopintos imaginables. Por ejemplo, se sabe que si un grupo de buceadores estudia una lista de palabras bajo el agua, es más probable que recuerden las palabras correctamente si se les pide que lo hagan bajo el agua que si tienen que hacerlo en la superficie. También sabemos (niños, no intentéis esto en vuestros hogares) que si algo se aprende estando bajo el efecto de una droga, puede ser más fácil recordarlo después cuando se vuelve a estar de nuevo bajo los efectos de esa droga.

johansson_figSegún un estudio de Johansson y Johansson que acaba de publicarse en Psychological Science, la propia dirección de la mirada podría servir como clave de recuperación cuando intentamos recordar algo. En este experimento, los participantes debían estudiar durante unos segundos una imagen como la que podéis ver aquí. Tras retirar la imagen, los participantes debían responder a preguntas sobre los estímulos que se habían presentado en la pantalla. Se trataba de preguntas sencillas como, por ejemplo, en qué dirección miraba Santa Claus o qué había a la derecha de la silla. Lo interesante, es que  mientras los participantes respondían a estas preguntas se les obligaba a mirar a ciertos lugares de la pantalla, usando un eyetracker para comprobar que los participantes efectivamente estaban mirando a donde se les pedía. Los resultados muestran que los participantes recordaron mejor las imágenes cuando se les obligaba a dirigir la mirada hacia los lugares donde se habían presentado los estímulos a los que se referían las preguntas. Incluso cuando no se obligaba a los participantes a mirar a ningún lugar en concreto, era más probable que recordaran las respuestas correctas si su mirada se dirigía espontáneamente al lugar donde se habían presentado esos estímulos. De modo que, ya sabes: la próxima vez que no consigas recordar algo, prueba a mirar en la dirección adecuada.

__________

Johansson, R., & Johansson, M. (en prensa). Look here, eyemovements play a functional role in memory retrieval. Psychological Science.

La buena literatura entrena nuestra capacidad de entender a los demás

Si fueras un Yanomamö, tendrías aproximadamente un 50% de probabilidades de morir en un enfrentamiento violento con un grupo rival. Si decides viajar arbitrariamente en el tiempo y en espacio, tus posibilidades de morir a manos de otra persona serán algo mayores o menores, pero en ningún caso se acercarán a la confortable seguridad de la que disfrutas en el calor de tu hogar mientras lees estas líneas. Tanto es así que podría decirse que a lo largo de la historia el asesinato ha sido la principal causa de “muerte natural”. En su fantástico libro Los ángeles que llevamos dentro, Steven Pinker especulaba sobre las razones que han llevado a nuestra sociedad occidental a disfrutar de los niveles más bajos de violencia que se han conocido bajo la faz de la tierra. Una de sus hipótesis más atrevidas era que el consumo habitual de películas y libros de ficción podría estar alimentando nuestra capacidad para entender a los demás, sentir empatía por ellos y controlar nuestros impulsos más violentos. Apenas hace unas semanas se publicaba en Science un estudio de David Kidd y Emanuel Castano que apoya esta idea. En varios experimentos estudiaron cómo cambia nuestra Teoría de la Mente –es decir, la capacidad para identificar y entender los estados subjetivos de otras personas– como resultado de leer buena literatura. En estos experimentos, los participantes debían leer primero un texto literario, un texto de ficción popular, o un ensayo. Posteriormente, realizaban varias pruebas psicológicas que medían su capacidad para entender los pensamientos y los sentimientos ajenos, y también se medía su familiaridad con la literatura en general. Los dos resultados más consistentes de la serie de experimentos son (a) que los participantes que leyeron obras de ficción buenas puntuaron más alto en su comprensión de los sentimientos ajenos que los participantes que leyeron best-sellers de escasa calidad literaria o ensayos y (b) que los participantes que ya de partida estaban más familiarizados con la literatura también puntuaban más alto en estas capacidades. Los resultados no dejan tan claro si la capacidad de entender los pensamientos (en lugar de los sentimientos) ajenos también mejora como resultado de leer buena literatura, aunque alguno de los experimentos así lo sugiere. A la luz de esta evidencia, hacen bien quienes temen a los hombres de un único libro, sobre todo si es un best-seller barato.

__________

Kidd, D. C., & Castano, E. (2013). Reading literary fiction improves theory of mind. Science, 342, 377-380.

Sistema Nacional de I+D: Manual de usuario y advertencias

Scientific Solutions desea darle la enhorabuena por su reciente adquisición de un Sistema Nacional de I+D. En las cajas que acompañan a esta nota podrá encontrar todos los componentes e instrucciones necesarios para ponerlo en funcionamiento y disfrutar cuanto antes de un agradable aroma de prosperidad en su hogar. Antes de su instalación, permítanos llamar su atención sobre una serie de consejos y advertencias que le ayudarán a alargar la vida de su Sistema Nacional de I+D y le evitarán peligros innecesarios a usted y a su familia.

El Sistema Nacional de I+D que acaba de adquirir es un aparato complejo dotado de los más modernos sistemas de auto-regulación. Le recomendamos que no interfiera con su funcionamiento salvo en casos de extrema necesidad. Si sospecha que su Sistema Nacional de I+D no funciona adecuadamente o consume más de lo normal, acuda a un técnico o especialista. En caso de abrir la carcasa y manipular los componentes de su Sistema Nacional de I+D, el proveedor no se hará responsable de los daños causados y la garantía se perderá irrevocablemente.

Si esto sucediera, entre otros desperfectos, observará que se derraman pancartas, protestas y escraches por la rejilla trasera del Sistema. Le recomendamos que contenga la fuga tan rápidamente como le sea posible y recuerde no llevarse las manos a los ojos si ha tocado los componentes denominados “predocs” y “postdocs”. Sea especialmente cauteloso si por error ha desconectado los módulos de investigación biomédica o si ha sustituido su sistema autónomo de reparación médica open-source por un sistema propietario más caro e ineficiente.

A diferencia de las versiones alemana y británica, el Sistema Nacional de I+D que usted ha adquirido presenta problemas de compatibilidad con elementos fabricados en otros países. Los componentes de su Sistema sólo pueden fabricarse en nuestras instalaciones regionales tras un proceso largo y caro. Debido a su elevado coste, le recomendamos no derrochar estos componentes. En caso de necesidad, un componente puede mantenerse provisionalmente en funcionamiento conectándolo a un Sistema Nacional extranjero. Sin embargo, cuando esto suceda, le recomendamos que ponga fin a esa situación atípica en cuanto las circunstancias lo permitan. De lo contrario, los componentes conectados a un sistema extranjero podrían presentar problemas de retro-compatibilidad o incluso quedarse atascados en el host y permanecer allí indefinidamente.

Su Sistema Nacional de I+D no debe desenchufarse bajo ningún concepto. Su alimentación está controlada por varios programas informáticos de los que encontrará más información en el manual adjunto. Sea especialmente cauteloso al configurar el software incluido en el Plan Nacional de I+D y en los programas Juan de la Cierva y Ramón y Cajal. En caso de interrumpirse el funcionamiento de estos programas, su Sistema Nacional de I+D podría sufrir daños irreparables como los que condujeron a la avería de su anterior Sistema Nacional de I+D durante los años 2009-2013. Para evitar problemas similares, bajo ningún concepto sitúe la fuente de alimentación cerca de cuerpos que desprendan calor, especialmente Velas u otros objetos inflamables.

Si contempla la posibilidad de instalar su Sistema Nacional de I+D en una universidad pública o privada, asegúrese antes de que se dan allí las condiciones de higiene y transparencia necesarias. Es particularmente importante que en las dependencias donde vaya a ubicarse su Sistema no se hayan “enchufado” otros aparatos que puedan interferir con su correcto funcionamiento o que consuman recursos necesarios para el Sistema Nacional de I+D.

Para mejorar la compatibilidad de su Sistema con aparatos extranjeros y optimizar su funcionamiento general, recomendamos que actualice su software instalando una Agencia Nacional de Investigación tan pronto como sea posible. Recuerde, no obstante, que las versiones más recientes de la ANI ya no son compatibles con Windos. Si desea beneficiarse de las prestaciones de esta aplicación, le recomendamos que instale otro entorno de ejecución antes de 2015. Consulte a un especialista para más detalles sobre el proceso de instalación.

Si no queda satisfecho con su Sistema Nacional de I+D o si detecta algún error en su funcionamiento, le rogamos que contacte con nosotros mediante una llamada telefónica o bien a través de nuestro servicio de atención al cliente. Le responderemos con la mayor celeridad, aunque debido a los recientes recortes en nuestra plantilla, sólo podremos garantizarle una atención en su lengua materna si llama desde Mallorca.

Antes se pilla a un científico mentiroso que a un estadístico cojo

Dirk Smeesters y Lawrence Sanna protagonizaron dos de los casos más sonados de fraude científico del pasado 2012. En un breve artículo que acaba de publicarse en Psychological Science, Uri Simonsohn nos revela cómo descubrió que estos dos autores se habían inventado datos, todo ello sin recurrir más que a un poco de estadística elemental y a una gran dosis de ingenio. Se trata en ambos casos de experimentos sobre el llamado priming social, un misterioso efecto investigado por psicólogos sociales según el cual comportamientos tan complejos como la conducta altruista o incluso el rendimiento en un test de cultura general pueden verse influidos por estímulos sutiles de cuyo efecto apenas somos conscientes (sic).

SannaEn el caso de Lawrence Sanna, el artículo crítico demostraba, presuntamente, que las personas eran más generosas cuando estaban sobre el escenario de un teatro, lo que sería compatible con la idea de que el comportamiento moral se asocia al concepto más abstracto de elevación (sic). Al ver la tabla de resultados que reproduzco aquí al lado, Simonsohn reparó en que algunos datos eran asombrosamente “bonitos”, imposiblemente “bonitos”. En concreto, dentro de cada experimento las desviaciones típicas (resaltadas aquí con cuadrados de colores) eran sorprendentemente similares. Mediante una sencilla simulación, Simonsohn comprobó que incluso asumiendo que las desviaciones típicas de cada grupo provinieran realmente de una población donde las desviaciones típicas son idénticas, la probabilidad de obtener tres muestras con desviaciones típicas tan cercanas es minúscula. Cuando Simonsohn pidió a los autores los datos originales del estudio, repitió sus simulaciones pero esta vez partiendo de los propios datos, mediante una técnica conocida como bootstrapping. Incluso así, la mayor parte de las simulaciones arrojaban desviaciones típicas más diferentes que las que se publicaron en el estudio de Sanna y colaboradores. Más aún, Simonsohn hizo mediciones similares en otros artículos del área, observando en cada caso cómo de diferentes tendían a ser las desviaciones típicas en las diferentes condiciones de este tipo de experimentos. Comparadas con las diferencias habituales, las que aparecen en los estudio de Sanna son insignificantes.

El segundo caso es una investigación similar de los datos de varios experimentos de Smeesters. En el primero de ellos “descubrieron” que los participantes rendían más en una prueba de cultura general si antes habían tenido que escribir sobre Einstein que si lo habían hecho sobre Kate Moss (sic). Pero (atención) ese efecto sólo aparecía si las instrucciones del experimento se daban en una carpeta azul (sic) y no si se daban en una carpeta roja (sic), porque (redoble de tambor) el rojo produce evitación y el azul produce aproximación (sicn). En el caso de este estudio eran las medias, y no las desviaciones típicas, las que se parecían demasiado. Tanto que las simulaciones basadas en los supuestos datos brutos del estudio arrojaban una probabilidad de entre 0.0003 y 0.00018 de obtener unas medias tan parecidas o más.

Indagando en los datos sobre otros estudios del mismo autor, Simonsohn descubrió más irregularidades de este tipo, algunas de ellas francamente ingeniosas. Una de ellas se basa en la observación de que las personas somos muy malas generando eventos aleatorios. Si nos piden que generemos secuencias de caras y cruces que podrían surgir de lanzar una moneda al aire, la mayor parte de las veces alternaremos entre caras y cruces y casi nunca propondremos una secuencia cara-cara-cara-cara. De hecho, predeciremos este tipo de repeticiones con mucha menos frecuencia de la que realmente suceden en la naturaleza. Siguiendo la misma lógica, si alguien se está inventando datos, es probable que los números que se le vienen a la cabeza incluyan menos repeticiones de las que cabría esperar por azar. Esto se cumple también en algunos de los experimentos de Smeesters, donde los valores modales del estudio se repiten tan poco que uno sólo esperaría menos repeticiones en entre 21 y 93 de cada 100.000 simulaciones. Tirando del mismo hilo, observó que en otro experimento en el que los participantes tenían que decir cuánto pagarían por unas camisetas, los participantes utilizaron menos múltiplos de 5 de lo que es normal en este tipo de estudios. Muchísimos menos. Menos también que cuando el propio Simonsohn intentó replicar el experimento original de Smeesters.

El resultado de esta peculiar operación anti-corrupción científica no es sólo que dos científicos nunca volverán a inventarse datos. Más importante que eso es que estas ideas se añaden al creciente número de estrategias con las que ahora podemos detectar casos similares de fraude. Cabe destacar también que este tipo de trampas son más fáciles de detectar si uno dispone del archivo de datos en el que se basa un estudio. Tal vez sea hora de plantearse si no deberíamos hacer públicos los datos de todas las publicaciones científicas.

__________

Simonsohn, U. (2012). Just post it: The lesson from two cases of fabricated data detected by statistics alone. Psychological Science, 24, 1875-1888. doi: 10.1177/0956797613480366

Los valores neoliberales corrompen hasta en la escuela

En una sociedad que valora más el éxito personal que el bien común y que antepone el poder a la justicia no debería sorprendernos que los casos de corrupción llenen los titulares de los periódicos. Algunos estudios sugieren que la motivación de logro y la motivación de poder son la cara individual de lo que a nivel colectivo llamamos capitalismo o economía de libre mercado. Según parece, el grado en el que la política de un país está comprometida con el neoliberalismo correlaciona significativamente la importancia que sus ciudadanos dan al éxito y al poder. Un estudio reciente que Pulfrey y Butera acaban de publicar en Psychological Science muestra que estos mismos valores son un excelente predictor de la predisposición de un estudiante a hacer trampas en la universidad.

El primer estudio de Pulfrey y Butera es un análisis correlacional de los factores motivacionales que llevan a los estudiantes a justificar que se hagan trampas. Los resultados de este estudio indican que la importancia que cada estudiante da al éxito, predice hasta qué punto su motivación para estudiar es que los demás tengan buena impresión de él. Esto, a su vez, predice hasta qué punto le importa destacar sobre el resto de estudiantes. Finalmente, este afán de distinguirse de los demás correlaciona positivamente con la predisposición a tolerar que se hagan trampas al realizar trabajos académicos o exámenes.

El segundo estudio añade una manipulación experimental que ilustra la importancia del contexto en este proceso. Antes de rellenar los cuestionarios, la mitad de los participantes contempló un breve discurso en el que un premio Nobel de economía destacaba la importancia de la ambición, la influencia y el reconocimiento social. La otra mitad veía un discurso centrado en la trascendencia personal, la responsabilidad y la sabiduría. Los resultados muestran que sólo en el primer grupo se mantuvo la correlación entre auto-engrandecimiento y tolerancia a las trampas. En otras palabras, las personas que más valoran el logro y el poder también son las que más toleran las trampas en la universidad, pero sólo en contextos en los que esos valores son alentados.

El tercer estudio tiene un interés especial porque se midió, no la tolerancia a las trampas, sino el grado real en el que los participantes falseaban un ejercicio académico. En este caso se pidió a los estudiantes que realizaran una simple tarea en la que tenían que copiar una serie de figuras geométricas sin levantar el lápiz del papel y sin repetir ninguna línea. Aunque todos los ejercicios se parecían superficialmente, algunos de ellos podían resolverse pero otros no tenían solución: era imposible dibujar la figura sin hacer trampas. Sin embargo, al terminar el experimento resultaba que algunos estudiantes habían sido capaces de “resolver” todos los problemas, incluso aquellos que no tenían solución. Llegados a este punto, a nadie sorprenderá que el número de problemas imposibles que cada participante resolvía (haciendo trampas) correlaciona con la importancia que ese estudiante daba al éxito y al poder.

Los estudiantes de hoy serán los políticos y economistas del mañana. Salvo que nos replanteemos qué valores queremos transmitir a nuestros hijos y alumnos, posiblemente el futuro se acabará pareciendo sorprendentemente al peor de los presentes.

__________

Pulfrey, C., & Butera, F. (in press). Why neoliberal values of self-enhancement lead to cheating in higher education: A motivational account. Psychological Science. doi: 10.1177/0956797613487221

In memoriam David Hubel

hubelDesde el pasado 22 de Septiembre el mundo de las neurociencias tendrá que seguir adelante sin una de sus figuras más célebres, David Hubel, que moría a los 87 años por una insuficiencia renal. Si alguna vez, cuando eras pequeño, has tenido que llevar un parche en el ojo, o si te han operado de estrabismo a una edad tan temprana que ya no lo recuerdas, tal vez conserves tu vista gracias a los famosos experimentos que el profesor de Harvard realizó junto a Torsten Wiesel. Gracias a ellos, conocemos la compleja estructura del córtex visual primario. Mediante ingeniosos experimentos con gatos, Hubel y Wiesel descubrieron que cada neurona del córtex visual responde a aspectos concretos de la estimulación visual. Algunas neuronas se disparan ante líneas con cierta inclinación, otras lo hacen ante combinaciones de líneas, y un tercer tipo de neuronas responde a líneas en movimiento. Todas ellas están organizadas en columnas alternas que responden a la información de un ojo u otro. En otra serie de experimentos, Hubel y Wiesel descubrieron que si se criaba a los gatitos con un ojo tapado, las columnas que se especializaban en el ojo descubierto se hiperdesarrollaban a costa de las columnas especializadas en el ojo tapado. Esto provocaba irremediablemente la ceguera del ojo tapado, salvo que se restableciera la visión de ese ojo antes de cierta edad. Pasará mucho tiempo antes de que estos experimentos clásicos dejen de aparecer en los primeros capítulos de los libros sobre atención y percepción. Tal vez nunca lo hagan.

Cómo hacer que tus experimentos molen

En el último número de Perspectives on Psychological Science, Kurt Gray y el celebérrimo Dan Wegner comparten con nosotros los seis ingredientes fundamentales de su receta para el éxito:

  1. Primero los fenómenos: La teoría está bien, pero cuando te sea posible, haz que tus investigaciones se basen en una experiencia humana profunda, universal y poderosa.
  2. Sé sorprendente: Investiga algo que desafíe el sentido común y la intuición, que muestre que las cosas no son lo que parecen.
  3. Dirígete a las abuelas, no a los científicos: Desafiar las ideas que interesan a tus colegas profesionales genera cierto éxito a corto plazo. Pero es más probable que tu investigación se mantenga vigente si cuestiona las intuiciones de la población general.
  4. Sé el participante: Haz que tu experimento sea una experiencia para tus participantes. No temas que el procedimiento sea estrambótico y excéntrico.
  5. Estadística sencilla: Si puedes analizar tus datos con una prueba t, no hagas un ANOVA. Si puedes hacer un ANOVA de un factor, no hagas un ANOVA factorial.
  6. Comienzos poderosos: El primer párrafo de tu artículo debería resumir toda la investigación haciendo énfasis en todo lo anterior: centrarse en una experiencia profunda, contra-intuitiva y fácil de entender.

Si estos consejos te parecen sacados de un libro de auto-ayuda para investigadores, en mi mesa siempre habrá un plato para ti. Seguir estas pautas tal vez te lleve a conseguir más citas en la Web of Science. De vez en cuando incluso puede que te llame alguien de tu periódico local para hacerte una entrevista. Pero mi humilde opinión es que esta filosofía conduce a publicar estudios que son a la verdadera ciencia lo que Operación Triunfo es a la música. Cuando el impacto y el sensacionalismo se hacen tan importantes o más que el rigor y la veracidad, inevitablemente sucede lo que en los últimos años le ha pasado a la psicología social. Ni más ni menos.

__________

Gray, K., & Wegner, D. M. (2013). Six guidelines for interesting research. Perspectives on Psychological Science, 8, 549-553. doi: 1177/1745691613497967.

Ruidos, señales y overfitting

natesilverAunque llevaba meses deseando hacerme con un ejemplar del último libro de Nate Silver, The signal and the noise: The art and science of prediction, confieso que el primer contacto no me pareció muy alentador. Nada más mirar la foto del autor en la contraportada tuve la sensación de que alguien me susurraba al oído “perrea, perrea”. La cosa no mejoró cuando leí los primeros capítulos y descubrí que los temas que Silver había elegido para presentar su tesis eran de esos que despiertan un interés inversamente proporcional a la distancia que te separa de Oklahoma. El relato transcurre entre ligas de béisbol, elecciones a la presidencia de EE.UU., partidas de póker y otras pamplinas que posiblemente hagan la delicia del norteamericano medio, pero carecen de adeptos a este lado del charco.

Y sin embargo, el libro es una buenísima introducción a los problemas a los que se enfrenta cualquiera que quiera entender un sistema dinámico complejo y predecir su evolución. Entre otras cosas, el libro contiene la mejor explicación que conozco del concepto de overfitting. Si el lector no se ha encontrado nunca con esta palabreja, posiblemente creerá que el overfitting es el trastorno psiquiátrico que sufren las personas que van todos los días al gimnasio. Pero en realidad se trata de un concepto estadístico relacionado con cómo se ajusta un modelo a la realidad que pretende explicar y predecir. En principio, si uno desarrolla una teoría para explicar algo, cabría pensar que cuanto más se ajuste la teoría a los hechos, tanto mejor será la teoría. Pero en realidad puede suceder lo contrario: que una teoría sea mala precisamente porque se ajusta demasiado a los datos. Es entonces cuando decimos que el modelo tiene overfitting o sobreajuste. Veámoslo con el ejemplo que nos da el propio Nate Silver.

FiguraModelosImagina que queremos saber cómo evoluciona la calidad de un jugador de béisbol a medida que se va haciendo mayor. Lo primero que tenemos que hacer es recoger datos. Tras hacer algunas mediciones aquí y allá conseguimos la información que tenemos en el panel A. La forma más sencilla de explicar este patrón de resultados es asumir que la calidad de un jugador se incrementa progresivamente a medida que se va haciendo mayor hasta que llega un momento en el que la tendencia comienza a invertirse. Este modelo, al que llamaré Modelo 1, es el que aparece en el panel B. Como puede verse, el modelo no se ajusta a los datos a la perfección. De lo contrario todos los circulitos deberían estar exactamente en la línea. Sin embargo, el ajuste del modelo es aceptable. ¿Es posible diseñar un modelo con un ajuste todavía mejor? Por supuesto, el panel C muestra una línea alternativa que pasa mucho más cerca de todos los puntos. Llamemos a esta línea Modelo 2. La distancia media entre la línea y cada observación es menor para el Modelo 2 que para el Modelo 1. Ahora bien, ¿quiere eso decir que es un modelo mejor?

Tal vez no. El objetivo de una buena teoría no es sólo ajustarse bien a la evidencia que ya tenemos, sino también predecir los datos que podríamos observar en el futuro. Imagina que recabamos información sobre otros jugadores y que los circulitos verdes del panel D representan los resultados de estas nuevas observaciones. Estos datos siguen estando relativamente cerca de lo que predecía el Modelo 1. Sin embargo, el Modelo 2, que originalmente parecía ajustarse muy bien a los datos, ya no coincide de forma tan elegante con las nuevas observaciones.

En la terminología de Nate Silver, lo que le pasa al Modelo 2 es que no sólo trata de explicar la señal de la relación entre la edad y la calidad de un jugador, sino también el ruido aleatorio que inevitablemente contamina los datos. El modelo está tan ajustado a las observaciones que explica incluso lo que no debería explicar: la varianza que se debe al puro azar.

Cómo enseñar el pensamiento crítico: El valor de la investigación básica

Se cuenta que cuando la reina Victoria y los miembros del gobierno británico visitaron el laboratorio de Michael Faraday lo primero que le preguntaron es para qué servían todos aquellos aparatos y experimentos. La respuesta de Faraday es ya legendaria: “¿Para qué sirve un niño, madame?”. Pero a pesar de su genialidad, imagino que esta pregunta de poco o nada sirvió para cambiar la actitud de la reina, que posiblemente abandonó la sala con el mismo interés por la ciencia que tenía al entrar en ella. Seguramente, en aquel momento nadie habría podido convencerla de que en un futuro no tan lejano las personas apenas podrían vivir cinco minutos sin pulsar un interruptor.

Aunque ha pasado más de un siglo, quienes nos dedicamos a la investigación básica aún nos enfrentamos casi a diario a las críticas de quienes, como la reina Victoria, no tienen ningún interés en la ciencia básica ni entienden que se utilice dinero público para financiar un tipo de investigación que no tiene por objetivo directo solucionar ningún problema real o tener un impacto en la vida cotidiana. En algunos ámbitos, como el de la psicología, a menudo somos vistos como bichos raros por parte de quienes dicen investigar, qué sé yo, cómo se adaptan los niños al divorcio de los padres o cuál es la mejor estrategia para dejar de fumar. Tampoco es mejor la actitud de las instituciones que financian la investigación (o solían hacerlo hasta hace tres años), con su permanente insistencia en que cualquier proyecto de investigación debe incluir un apartado sobre posibles aplicaciones, incluso si se trata de un proyecto de investigación básica.

Sin embargo, la realidad nos muestra una y otra vez que las ideas que mayor impacto llegan a tener en la vida cotidiana son precisamente las que surgen de la investigación básica. ¿Alguien se imagina a Watson y Crick pensando en la insulina transgénica mientras descifraban el código de la vida? ¿O a Turing pensando en cómo serían los sistemas operativos de los smartphones? Un estudio reciente de mis compañeros de Labpsico muestra que lo que vale para la genética y la informática también se aplica a la psicología.

Los psicólogos de la memoria, el aprendizaje y el razonamiento llevamos décadas indagando en los procesos cognitivos que nos permiten descubrir patrones en nuestro entorno, almacenar esa información y utilizarla cuando una situación así lo requiere. Casi nada de esa investigación se realiza con el propósito expreso de ayudar a la gente a solucionar sus problemas cotidianos. Sin embargo, a lo largo del camino inevitablemente se van descubriendo hechos que nos ayudan a entender por qué las personas tenemos ciertos problemas y qué se puede hacer para solucionarlos. Un ejemplo perfecto es la literatura sobre supersticiones y sesgos cognitivos. Gracias a cientos de experimentos sabemos que existen situaciones que invitan a casi cualquier persona a razonar de forma errónea, independientemente de su formación, cultura o inteligencia.

Partiendo de esta literatura, Itxaso Barbería, Fernando Blanco, Carmelo Cubillas y Helena Matute han diseñado un programa de intervención que pretende dotar a los niños y adolescentes del escepticismo necesario para no caer en las supersticiones más frecuentes en nuestra sociedad. Yo mismo tuve la suerte de colaborar en un par de sesiones y ser testigo de sus asombrosos resultados. La investigación básica revela que varios mecanismos están involucrados en el desarrollo de este tipo de creencias supersticiosas. Uno de ellos es la insensibilidad a la tasa base con la que suceden ciertos eventos. Por ejemplo, si todas las veces que tenemos un catarro tomamos un remedio homeopático y si siempre que así lo hacemos mejoramos al día siguiente, es tentador pensar que ese remedio es el responsable de la mejoría. Pero la pregunta es: ¿qué habría pasado si no lo hubiéramos tomado? A menudo o no disponemos de esa información (porque si creemos que la homeopatía funciona entonces no probamos a no tomarla) o si la tenemos, la ignoramos.

En la intervención diseñada por Barbería y colaboradores, a los niños se les confrontaba directamente con una situación de este tipo con la esperanza de que cayeran en el error. Imitando al marketing de las famosas pulseras Power Balance, se les decía que estudios recientes habían demostrado que una sustancia con propiedades electromagnéticas peculiares podía aumentar el rendimiento cognitivo y físico. A los niños se les invitaba a realizar diversos ejercicios de fuerza y flexibilidad mientras cogían una pequeña pieza de esa sustancia con la mano. También se les pedía que hicieran ejercicios mentales (por ejemplo, resolver laberintos) mientras sostenían la barrita metálica. Posteriormente, se les preguntaba si les había parecido que la pieza funcionaba. Aunque algunos eran un poco más escépticos, la mayor parte de ellos confesaba que sí. Algunos incluso habrían estado dispuestos a pagar por ella. Sin embargo, era imposible que esa pieza metálica estuviera teniendo ningún efecto. Las piezas estaban sacadas en realidad del motor de un secador de pelo.

A los niños se les confesaba abiertamente que acababan de ser víctimas de un engaño y a continuación se les explicaba por qué muchos de ellos no habían caído en la cuenta. En concreto, se les señalaba que para saber si las piezas tenían algún efecto habría sido fundamental contar con una condición de control: tendrían que haber hecho los ejercicios con y sin la ayuda de la barra metálica y haber comparado su nivel de ejecución en ambas condiciones. Si hubieran hecho los ejercicios sin la barra habrían comprobado cómo en realidad lo hacían igual de bien en ambos casos. También se les aclaraba que no cualquier comparación servía: la condición de control y la “experimental” debían ser exactamente iguales. Eso quiere decir que, por ejemplo, no servía con hacer los ejercicios físicos primero sin la barra metálica y luego con ella, siempre en ese orden, porque en tal caso la mera práctica hace que el rendimiento físico sea mayor con la barra (es decir, cuando ya se tiene cierta práctica) que sin ella (cuando aún no se tiene ninguna práctica).

Lo más interesante del experimento es que tras esta explicación, todos los niños se sometían a una preparación experimental que se sabe que induce cierta ilusión de causalidad. Se trata de un procedimiento en el que los participantes tienen que imaginar que son médicos explorando la evidencia a favor y en contra de la eficacia de un medicamento. Aunque a los participantes no se les avisa de ello, la información que se les presenta sugiere que la medicina no es efectiva. Sin embargo muchas personas caen en el error de pensar que sí lo es. Los resultados de Barbería y colaboradores muestran que los niños que pasaron por este curso de pensamiento crítico luego fueron menos susceptibles a mostrar ilusión de causalidad en esta prueba experimental que otro grupo de niños similar que aún no había pasado por el curso. Por tanto, todo sugiere que esta intervención hizo a los niños más resistentes al tipo de ilusiones causales que se cree que subyacen al pensamiento mágico y supersticioso.

A nadie se le escapa que los resultados de esta investigación tienen un potencial enorme en el sistema educativo actual. Se insiste con frecuencia en que los niños deberían salir del colegio con algo más que un montón de conocimientos enciclopédicos; que deberían convertirse en adultos capaces de pensar críticamente por sí mismos. Sin embargo, hay muy pocos estudios como este que nos indiquen cómo se pueden desarrollar el escepticismo y la actitud científica. A las reinas victorianas de la psicología aplicada tal vez les cause cierto asombro que una vez más las respuestas lleguen del mundo de la investigación básica.

__________

Barbería, I., Blanco, F., Cubillas, C. P., & Matute, H. (2013). Implementation and assessment of an intervention to debias adolescents against causal illusions. PLoS ONE, 8, e71303. doi:10.1371/journal.pone.0071303

Las imágenes del cerebro no son tan seductoras

neuroimageHace cinco años, McCabe y Castel (2008) publicaron un interesante estudio en el que mostraban que los textos de neurociencia resultaban más “seductores” si incluían imágenes de la actividad cerebral. Los participantes leían un artículo divulgativo sobre el funcionamiento del cerebro y tenían que decir hasta qué punto estaban de acuerdo con sus conclusiones. Para la mitad de los participantes, el texto iba acompañado de una imagen del cerebro que mostraba activación en los lóbulos frontales. Para la otra mitad, el texto no tenía ninguna imagen. Los resultados del estudio mostraban que los participantes que leían el texto con la imagen decían estar más de acuerdo con las conclusiones. Se trata de uno de los artículos más populares de los últimos años, tal y como lo muestran las más de 100 citas que acumula en la Web of Science.

Sin embargo, según un estudio que acaban de publicar Michael y colaboradores (2013) en Psychonomic Bulletin & Review, sus conclusiones podrían haber dejado de ser válidas. En este artículo se publican los resultados de diez intentos de replicar el estudio original con procedimientos diferentes y muestras diversas. Algunas de estas réplicas arrojan resultados similares a los de McCabe y Castel, pero otras no muestran efecto alguno de presentar las imágenes de cerebros. Al realizar un meta-análisis conjunto del estudio de McCabe y Castel y de las diez réplicas de Michael y colaboradores se observa que la diferencia entre ambas condiciones es realmente minúscula: De promedio, las personas que leían el texto con las imágenes estaban de acuerdo con las conclusiones sólo un 2.4% más que las personas que leían el texto sin las imágenes. Esta diferencia apenas es marginalmente significativa (p = 0.07).

Una posible interpretación de esta discrepancia es que el estudio original de McCabe y Castel podría haber exagerado el efecto real de incluir imágenes de cerebros en los textos de neurociencias. Pero una conclusión igualmente válida es que en los cinco años que han pasado desde aquel estudio podría haber cambiado el efecto de estas imágenes. A medida que la población se ha ido familiarizando con los experimentos de neurociencias y con las posibles limitaciones de este tipo de estudios, es posible que la gente haya desarrollado cierto escepticismo hacia ellos o que haya aprendido a valorarlos más objetivamente.

Sin embargo, esta interpretación también podría estar pecando de optimista. En el artículo de Michael y colaboradores también se resumen los resultados de cinco intentos de replicar otro experimento famoso sobre el sex-appeal de las neurociencias. En este caso se trata de un estudio de Weisberg y colaboradores (2008) en el que se observaba que la credibilidad de una explicación científica mala aumentaba si el texto incluía cháchara neurocientífica. Según los resultados de Michael y colaboradores este resultado sí que se puede replicar sin problemas. Se observa claramente en cuatro de las cinco réplicas que han realizado. Según estos datos, el lenguaje neurocientífico aumenta en un 6.67% la credibilidad de las explicaciones científicas.

Por lo tanto, si las imágenes de cerebros no resultan convincentes, probablemente esto no se deba a que la gente se haya hecho más escéptica. Más bien, parece que cuando un texto ya está cargado de lenguaje neurocientífico es poco lo que las imágenes de cerebros pueden hacer por incrementar aún más su credibilidad. Tal vez sea uno de los pocos casos en los que mil palabras valen más que una imagen.

__________

McCabe, D. P., & Castel, A. D. (2008). Seeing is believing: The effect of brain images on judgments of scientific reasoning. Cognition, 107, 343-352.

Michael, R. B., Newman, E. J., Vuorre, M., Cumming, G., & Garry, M. (2013). On the (non)persuasive power of a brain image. Psychonomic Bulletin & Review, 20, 270-725.

Weisberg, D. S., Keil, F. C., Goodstein, J., Rawson, E., & Gray, J. R. (2008). The seductive allure of neuroscience explanations. Journal of Cognitive Neuroscience, 20, 470-477.

La irracionalidad humana al servicio de la caridad

Ante la manifiesta irracionalidad que caracteriza la mayor parte de nuestras decisiones caben varias reacciones. La más frecuente es alertar a la gente de nuestras limitaciones intelectuales e intentar protegerla de sus sesgos cognitivos. Una segunda opción, tal vez más práctica e interesante, es utilizar esas limitaciones en el propio beneficio de las personas y la sociedad. En un estudio que se publicará próximamente en Psychological Science, Hsee y colaboradores han recurrido a esta última estrategia para diseñar un protocolo que permita aumentar la cantidad de dinero que las personas destinan a beneficencia. Una de las características más llamativas de las donaciones es que casi nunca prestamos atención al número de personas que podrían beneficiarse de nuestro desembolso. Si, por ejemplo, nos piden dinero para pagar los materiales de un aula de educación infantil, posiblemente nuestra predisposición a dar algo y la cantidad de dinero que demos serán las mismas si nos dicen que en esa aula estudian veinte niños que si nos dicen que los beneficiarios potenciales son cuarenta. Estudios previos muestran que la disposición a donar dinero depende casi únicamente de la imagen concreta que nos viene a la mente cuando pensamos en un posible beneficiario y de la reacción afectiva que nos provoca esa imagen. El número de personas que se puedan beneficiar no entra en el cómputo, especialmente si se trata de un número elevado. Aprovechándose de lo que en principio es una limitación cognitiva, Hsee y colaboradores proponen que a la hora de pedir dinero para caridad habría que preguntar a los donantes primero cuánto dinero darían a una persona concreta y sólo después preguntarles cuánto donarían al grupo completo. Dado que nuestra inclinación inicial es la misma independientemente del número de alumnos que se vaya a beneficiar de nuestra donación, es mejor que nos pregunten primero cuánto dinero daríamos para pagar los materiales de un estudiante y que después nos pregunten cuánto daremos para el grupo de veinte estudiantes. Lógicamente, la cifra que daremos no será exactamente el resultado de multiplicar el primer número por veinte, porque la cantidad resultante seguramente superará lo que estamos dispuestos a donar. Sin embargo, seguro que tampoco daremos al grupo exactamente lo mismo que daríamos a un solo niño. Intentaremos ser coherentes y dar al grupo completo más de lo que daríamos a un solo individuo. En los tres experimentos que han realizado Hsee y colaboradores, se observa que esta estrategia funciona no sólo en un estudio de laboratorio, sino también en situaciones reales. En uno de sus experimentos de campo, los participantes eran ejecutivos adinerados a los que se pedía ayuda para financiar la carrera investigadora de setenta estudiantes de doctorado. Los ejecutivos dieron cuatro veces más dinero cuando se les preguntó cuánto darían a cada estudiante antes de preguntarles cuánto iban a dar para el grupo completo. Dicho de otra forma, el 75% de esos estudiantes le deben su beca a una simple pregunta adicional que los investigadores pusieron en un formulario. Ojalá siempre fuera tan fácil hacer el mundo cuatro veces mejor.

__________

Hsee, C. K., Zhang, J., Lu, Z. Y., & Xu, F. (in press). Unit asking: A method to boost donations and beyond. Psychological Science.

Cómo crear falsos recuerdos

El artículo que ayer mismo publicaban en Science Steve Ramirez y sus colaboradores es un pequeño paso para un equipo de investigación, pero un gran paso para la neurociencia. En sus líneas generales, el estudio muestra que si uno sabe en qué área del cerebro está codificado un estímulo, entonces es posible crear falsos recuerdos activando artificialmente ese punto del sistema nervioso. En concreto, Ramirez y colaboradores buscaron primero qué partes del hipocampo se activaban cuando los ratones exploraban un contexto novedoso A. Posteriormente, se sometió a las ratas a un sencillo procedimiento de condicionamiento del miedo en un contexto B. Se trata simplemente de dar pequeñas descargas eléctricas a las ratas mientras están en una jaula que hace las veces de contexto B. Aunque las descargas suelen ser muy ligeras, las ratas aprenden rápidamente a evitar esa jaula. Gracias a esa evitación y a otras medidas del miedo, es posible saber si la rata recuerda que en el contexto B se produjeron descargas eléctricas. Lo interesante de este experimento es que mientras se estaba produciendo el condicionamiento en el contexto B, los investigadores activaron artificialmente la parte del hipocampo que codifica el contexto A. Esto puede hacerse gracias a una serie de técnicas optogenéticas que permiten activar partes concretas del cerebro con una resolución espacio-temporal muy alta. En principio estas ratas no fueron condicionadas en el contexto A y por tanto no deberían tener miedo al contexto A. Sin embargo, en una prueba posterior se vio que las ratas sí que aprendieron a tener miedo del contexto A: activar las neuronas del contexto A fue suficiente para “engañar” al cerebro de las ratas y hacerlas pensar que mientras recibían las descargas estaban realmente en el contexto A.

__________

Ramirez, S., Liu, X., Lin, P.-A., Suh, J., Pignatelli, M., Redondo, R. L., Ryan, R. J., & Tonegawa, S. (2013). Creating false memories in the hippocampus. Science, 341, 387-391.

Recomendaciones de la Comisión Europea para la contratación de investigadores

La entrada más exitosa de la historia de este blog fue un programa de asignatura ficticio en el que me burlaba de la política de contratación imperante en las universidades españolas. Si el mundo funcionara medianamente bien, el verdadero programa de esa asignatura debería parecerse a esta iniciativa que acabo de conocer tan sólo hace unos minutos gracias a Ion Yarritu. Se trata de un sello de calidad que ofrece la Comisión Europea a las instituciones científicas que cumplen con unos requisitos mínimos de transparencia y excelencia en la contratación de investigadores. El proceso es bien sencillo. Las instituciones deben comprometerse a hacer una evaluación completa y transparente de su sistema de contratación y deben publicar periódicamente un informe sobre los resultados de ese análisis y sobre las medidas que van a tomar para mejorarlo. Todo el sistema debe estar sometido a un proceso de evaluación continuo por parte de la propia institución y por parte de agencias externas. Las instituciones que cumplen con estos requisitos reciben a cambio un sello de calidad que pueden lucir en sus páginas web y también pasan a figurar en el listado de instituciones reconocidas por EURAXESS. Aunque ha sido una grata noticia ver que mi universidad ya aparece en el listado, mi sonrisa se ha desvanecido cuando he movido la barra de desplazamiento hasta donde ponía SPAIN y he contemplado sin mucho asombro que ninguna universidad española aparece en el listado. Ni en el listado con las instituciones ya reconocidas, ni en el listado que recoge a todas las instituciones que han mostrado algún interés en este sello de calidad. Tan sólo tres instituciones españolas aparecen reconocidas: la fundación vasca para la investigación IKERBASQUE, el instituto del agua IMDEA, y el Instituto de Salud Carlos III.

De la correlación a la causalidad en la neurociencia del aprendizaje

Durante los últimos años han sido muchos los experimentos de neurociencias que han confirmado un supuesto fundamental de las teorías clásicas del aprendizaje asociativo: el aprendizaje está guiado por un desajuste entre lo que se espera y lo que realmente sucede. Algunas zonas del cerebro parecen ser especialmente buenas candidatas para la detección de ese error que sirve de punto de partida para este proceso. Sin embargo, hasta ahora sólo disponíamos de evidencia correlacional acerca del papel de estas zonas. Los métodos optogenéticos han permitido obtener la primera evidencia experimental sobre su contribución al aprendizaje. Continúa leyendo en Ciencia Cognitiva

En busca del impacto científico

Como casi todos los investigadores, tengo una carpeta llena de artículos en PDF que debería ir leyéndome durante los próximos meses. Basándome en mi experiencia previa, calculo que llegaré a leer un 10% de ellos y que el resto simplemente se quedará ahí, haciéndome sentir culpable hasta que en un arrebato de realismo los elimine sin ningún miramiento. En cualquier área de investigación, por muy específica o especializada que sea, se publican al año cientos o miles de artículos científicos. Posiblemente algunos de ellos contienen ideas geniales que los convertirán en referencia obligada durante los siguientes años. Y otros, en fin, podrían servir para avivar el fuego de la barbacoa sin ningún perjuicio para la ciencia. ¿Cómo saber cuáles merecen la pena y cuáles no?

Las instituciones que tienen que evaluar el rendimiento de sus investigadores se enfrentan a un problema similar. Que un investigador haya publicado cuatro artículos en un año en principio suena muy bien. Pero el trabajo que se esconde detrás de esos cuatro artículos (y su impacto futuro) es muy diferente si se trata de publicaciones en revistas locales que nadie lee que si se trata de publicaciones en revistas internacionales muy prestigiosas, cuyos artículos son aceptados sólo después de pasar por un proceso de revisión extremadamente duro y crítico. Todo el mundo entiende que un artículo publicado en Science o Nature no merece la misma valoración que un artículo publicado en la revista de la asociación de vecinos del barrio. ¿Pero cómo valorar el mérito relativo de dos publicaciones en situaciones menos extremas?

Durante los últimos años se han propuesto diversos indicadores para medir hasta qué punto una revista se puede considerar prestigiosa o no. Seguramente, el más popular de estos indicadores es el índice de impacto, publicado cada año en la Web of Knowledge por la agencia Thompson Reuters. La lógica que se esconde detrás del índice es sencilla: Una revista es “buena” si sus artículos son citados frecuentemente, especialmente si estas citas se producen en poco tiempo. En concreto, para calcular el índice de impacto de una revista en un año concreto, se mide el número de citas que durante ese año han recibido los artículos que esa revista ha publicado en los dos años anteriores y ese número se divide entre el número total de artículos que dicha revista publicó en esos dos años. Por ejemplo, si queremos saber el índice de impacto del 2012, contamos el número de citas que se han hecho en 2012 a artículos que la revista publicó en 2010 y 2011. Y luego dividimos ese número de citas entre el número de artículos que la revista publicó entre 2010 y 2011. Por tanto, lo que este índice nos dice es cuántas veces se citó de media en 2012 un artículo publicado por esa revista entre 2010 y 2011.

Tal vez la sencillez de esta idea sea la responsable de que en la actualidad los índices de impacto de las revistas se hayan convertido en un referente casi universal para decidir qué revistas valen la pena y cuáles no. Si el índice de impacto de una revista la coloca a la cabeza de su área de investigación, entonces merece la pena leer los artículos que se publican ahí. Y si hay que juzgar el mérito de un investigador, su trabajo se valora más si sus artículos se han publicado en esas pocas revistas que lideran el ranking.

Sin embargo, la utilización de este indicador como referencia casi exclusiva para medir la calidad de las publicaciones no está exenta de críticas. Posiblemente el principal problema del índice de impacto o de cualquier otro indicador que aspire a convertirse en universal es que, una vez conocida la fórmula que se utiliza para medir la calidad científica, siempre es fácil inventar “trampas” con las que conseguir un resultado más favorable. Por ejemplo, a pesar de su nombre, el International Journal of Clinical and Health Psychology es en realidad una revista española que posiblemente no figura entre las más importantes de su área. Sin embargo, su índice de impacto tradicionalmente se sitúa entre 1.5 y 2.5, una cifra sorprendentemente alta para una revista española. ¿Es posible que esta revista esté convirtiéndose en un referente internacional? Lo dudo. Lo que sucede es que esta revista suele obligar a los autores a incluir en sus artículos auto-citas a otros trabajos publicados en la revista. Si, por ejemplo, un autor desea publicar un estudio correlacional, entonces debe citar un artículo donde se explica cómo realizar un estudio correlacional. Como estas auto-citas sólo cuentan si se realizan a artículos publicados en los dos últimos años, entonces estos artículos “de referencia” se reescriben periódicamente para que siempre haya una versión reciente que citar, de modo que las auto-citas sigan contribuyendo al índice de impacto.

Leyendo un interesantísimo artículo de Brembs y colaboradores que se acaba de publicar en Frontiers in Human Neuroscience, he descubierto que, además de este tipo de trampas, las revistas también pueden negociar con Thompson Reuters qué tipo de artículos cuentan en el cómputo y cuáles no. En concreto, lo que se negocia es si algunas publicaciones que no son estrictamente artículos científicos, como las notas editoriales, los comentarios, o las cartas al editor, se consideran en el cómputo o no. Ignorando esos textos lo que se consigue es que el denominador por el que se dividen el número de citas sea más pequeño y así el índice de impacto sea mayor, aun teniendo el mismo número de citas. Brembs y colaboradores sugieren que el índice de impacto de algunas revistas muy prestigiosas podría estar hinchado mediante este tipo de estrategias. Por ejemplo, Current Biology saltó de un índice de impacto de 7.007 en 2011 a 11.910 en 2012 sin apenas recibir más citas, simplemente por una reducción en el número de artículos computados.

En cualquier caso, lo más interesante del análisis de Brembs y colaboradores no es que los índices de impacto se vean influidos por este tipo de triquiñuelas, sino que posiblemente no consiguen medir correctamente aquello que pretenden medir. Si los artículos publicados en revistas de alto impacto fueran realmente mejores, uno esperaría, por ejemplo, que los experimentos publicados en esas revistas tuvieran mayor potencia estadística, fueran más fáciles de replicar o presentaran un menor número de retracciones. Sin embargo, nada de esto sucede. Si acaso, lo contrario está más próximo a la verdad: Son las revistas de mayor impacto las que más retracciones publican. Y con respecto a los otros indicadores, no hay evidencia alguna de que el índice de impacto correlacione claramente con la calidad de las publicaciones.

En el sistema actual, los índices de impacto determinan qué artículos se leen y cuáles no, a qué investigadores se contrata y a quiénes no, qué equipos reciben financiación y qué equipos no. Ante la escasa validez de los índices de impacto, parece poco razonable seguir utilizándolos como referente único y universal para tomar todas estas decisiones. Sin embargo, no por ello podemos renunciar a tener indicadores que nos permitan valorar la calidad relativa de diferentes publicaciones. Al final de su artículo, Brembs y colaboradores sugieren que la solución pasa por disponer de múltiples indicadores de calidad que se fijen en diferentes propiedades de los artículos y revistas. Si algunos editores intentan falsear la calidad de su revista, es más difícil que lo consigan si el impacto científico se mide con diversos indicadores que si se mide con uno solo. Además, cada indicador será sensible a diferentes aspectos de lo que constituye la calidad de una revista y colectivamente proporcionarán más información que los actuales índices de impacto.

__________

Brembs, B., Button, K., & Munafò, M. (2013). Deep impact: Unintended consequences of journal rank. Frontiers in Human Neuroscience, 7, 291.