En el último número de Perspectives on Psychological Science, Kurt Gray y el celebérrimo Dan Wegner comparten con nosotros los seis ingredientes fundamentales de su receta para el éxito:
- Primero los fenómenos: La teoría está bien, pero cuando te sea posible, haz que tus investigaciones se basen en una experiencia humana profunda, universal y poderosa.
- Sé sorprendente: Investiga algo que desafíe el sentido común y la intuición, que muestre que las cosas no son lo que parecen.
- Dirígete a las abuelas, no a los científicos: Desafiar las ideas que interesan a tus colegas profesionales genera cierto éxito a corto plazo. Pero es más probable que tu investigación se mantenga vigente si cuestiona las intuiciones de la población general.
- Sé el participante: Haz que tu experimento sea una experiencia para tus participantes. No temas que el procedimiento sea estrambótico y excéntrico.
- Estadística sencilla: Si puedes analizar tus datos con una prueba t, no hagas un ANOVA. Si puedes hacer un ANOVA de un factor, no hagas un ANOVA factorial.
- Comienzos poderosos: El primer párrafo de tu artículo debería resumir toda la investigación haciendo énfasis en todo lo anterior: centrarse en una experiencia profunda, contra-intuitiva y fácil de entender.
Si estos consejos te parecen sacados de un libro de auto-ayuda para investigadores, en mi mesa siempre habrá un plato para ti. Seguir estas pautas tal vez te lleve a conseguir más citas en la Web of Science. De vez en cuando incluso puede que te llame alguien de tu periódico local para hacerte una entrevista. Pero mi humilde opinión es que esta filosofía conduce a publicar estudios que son a la verdadera ciencia lo que Operación Triunfo es a la música. Cuando el impacto y el sensacionalismo se hacen tan importantes o más que el rigor y la veracidad, inevitablemente sucede lo que en los últimos años le ha pasado a la psicología social. Ni más ni menos.
__________
Justo ayer hablábamos en tuiter de esto mismo, a cuenta de este gol por toda la escuadra que le han colado a 157 revistas “open access”: http://www.agenciasinc.es/Noticias/Un-falso-estudio-cientifico-pone-en-entredicho-los-filtros-de-157-revistas-de-open-access
Tiene bemoles que la cosa se denuncie en Science, donde no sería la primera vez que se publican datos irreplicables. Esas revistas de alto prestigio son, curiosamente, las que siembran el incentivo perverso, al hacer valer la originalidad o lo sorprendente de unos resultados por encima de la metodología (por ejemplo). Es cuando te dicen: “buenos datos, pero no es un XXX” (siendo XXX la revista de tirón de tu área, pongamos un “Psychological Science” o incluso un Nature). Si son buenos datos, ¿por qué no se van a publicar en una revista con mucha audiencia?
Es algo que pasará en menor medida en revistas como PLoS ONE, donde los revisores también son muy exigentes, pero se les especifica directamente que el criterio de aceptación de un artículo debe estar basado en argumentos de tipo técnico, metodológico. De ahí que en PLoS ONE te acepten, por ejemplo, una replicación de un estudio, y no lo hagan en otras revistas de más impacto y más (ansia de) tirón mediático.
Exacto! Es muy mal asunto cuando a los experimentos además de estar bien diseñados y bien ejecutados se les pide un ingrediente adicional, porque entonces se corre el riesgo de que ese algo adicional se haga más importante que la propia metodología. PLoS ONE tendrá sus problemas, pero en este sentido, bravo por ellos.