Cómo medir la calidad de la enseñanza universitaria

Una de las quejas más recurrentes del profesorado universitario es que el sistema académico valora más la investigación que la docencia. Este descontento no afecta sólo a los profesores individuales, sino a las universidades en su conjunto, cuya situación en los rankings de calidad suele depender no tanto de la enseñanza como de su producción científica. Quienes han tenido la desgracia de padecerme durante años saben que tiendo a atribuir estas afirmaciones más a los malos investigadores que a los buenos profesores. Pero no por ello dejo de estar de acuerdo con ellas.

El gran problema de medir la calidad de una universidad por su excelencia docente es que, a diferencia de lo que sucede con la investigación, no tenemos ninguna metodología válida para medirla y no ha habido ningún interés en desarrollarla. Lo más parecido que tenemos son las evaluaciones del profesorado que rellenan los estudiantes al terminar cada asignatura y que muy de vez en cuando tienen algún peso en la contratación de profesores o en su ascenso. ¿Sirven estas evaluaciones para medir la calidad de un profesor? Todo sugiere que no, o al menos eso es lo que se desprende de un estudio reciente de Michaela Braga, Marco Paccagnella y Michele Pellizzari. Este estudio aprovecha que en la universidad de la primera autora existen asignaturas que son impartidas por varios profesores. La asignación de los estudiantes a cada uno de los profesores es totalmente aleatoria. Eso les permite explorar cómo la experiencia de haber recibido clases de un profesor u otro influye en el rendimiento futuro de cada estudiante. La idea es que si un profesor es bueno, los estudiantes que hayan aprendido con él tendrán un mejor rendimiento durante los años siguientes que los estudiantes que no hayan pasado por sus manos.

Los resultados del estudio muestran que, cuando la calidad de un profesor se mide de esta manera, las puntuaciones resultantes correlacionan negativamente con las evaluaciones de satisfacción que hacen los estudiantes al terminar la asignatura. En otras palabras, los profesores que dejan mejor huella en sus alumnos tienden también a dejarlos más insatisfechos. Los datos sugieren que esta correlación negativa se debe sobre todo a los peores estudiantes, ya que no está presente en las aulas donde predominan los buenos estudiantes.

Lo que sí que correlaciona positivamente con las encuestas de satisfacción son las notas que reciben los alumnos. Si un profesor pone buenas notas, entonces los estudiantes le dan una mejor puntuación en las encuestas de satisfacción. Todo sugiere que lo que están midiendo estas encuestas no es la calidad de la docencia, sino simplemente la cantidad de esfuerzo que un profesor les exige a sus alumnos. De hecho, se trata de una medida tan mala, que los autores del estudio han llegado a encontrar una relación entre el tiempo que hace el día en que se rellena la encuesta y los resultados de la misma. Los alumnos dan mejores puntuaciones a sus profesores si hace sol que si llueve.

No sé qué conclusiones puede extraer un alumno de estos datos, pero sí creo que nos permiten darles algunos consejos a los profesores universitarios que quieran aspirar a la excelencia. Primero, intenta que tu asignatura se imparta durante la primavera para que la evaluación coincida con los primeros días del verano. Y segundo, tus evaluaciones serán mucho mejores si en plena clase de Psicología de la Personalidad les pones a tus alumnos dos horas de Buscando a Nemo o en su defecto cualquier película recomendada para niños menores de 4 años.

__________

Braga, M., Paccagnella, M., & Pellizzari, M. (2014). Evaluating students’ evaluations of professors. Economics of Education Review, 41, 71-88.

Producto interior bruto, interés por la ciencia y rendimiento científico

Una de las desgracias de ser español es que cuando se publican los resultados del informe PISA entras en un estado catatónico que te impide reaccionar a cualquier estimulación hasta que la siguiente jornada de liga te resetea y todo vuelve a la normalidad. Afortunadamente los habitantes de otros países son capaces de indagar y rebuscar en los datos de PISA sin que las lágrimas se lo impidan. Gracias a ellos, de vez en cuando descubrimos algunas pautas interesantes, como las que se perfilan en el estudio que acaban de publicar Elliot Tucker-Drob, Amanda Cheung y Daniel Brilley en Psychological Science.

El artículo se centra en la relación entre el interés por la ciencia y el rendimiento de los estudiantes en las pruebas de ciencia de los exámenes PISA. Lógicamente, los estudiantes a los que les interesa más la ciencia suelen puntuar más alto en estas pruebas. Lo interesante es que cómo de estrecha es esa relación depende de un número de factores. Si lo piensas bien, hay muchos obstáculos que pueden hacer que un estudiante con interés por la ciencia no llegue a ser bueno en ciencias. Tucker-Drob y colaboradores nos revelan algunos de ellos.

Uno de los resultados más interesantes es que el grado de relación entre interés por la ciencia y rendimiento científico depende del producto interior bruto (PIB) del país. En general, en los países más ricos, la relación entre interés y rendimiento es más fuerte. Se trata sólo de una correlación (aunque muy fuerte) que podría obedecer a varios motivos. La interpretación más sencilla es que los países más ricos proporcionan más oportunidades para que las personas con interés por ciencia desarrollen sus capacidades. En otras palabras, los países ricos facilitan que el talento se convierta en rendimiento. Aunque es interesante que también cabe la interpretación contraria: Tal vez los países donde las personas con interés por la ciencia pueden perseguir sus intereses acaben siendo más prósperos.

PIBReproduzco aquí la figura con los datos sobre la relación entre PIB y correlación interés-rendimiento. Cuidado al interpretar esta gráfica: Los países que están más arriba no son necesariamente los que obtienen mejor rendimiento en ciencias, sino aquellos donde la relación entre interés y rendimiento es más fuerte. Por una vez, agrada ver que España está ligeramente por encima del intervalo de confianza para esta regresión. Es decir, la relación entre interés y rendimiento es ligeramente mayor de lo que cabría predecir dado el PIB español.  Italia, por ejemplo, tiene un PIB ligeramente superior, pero una correlación interés-rendimiento claramente inferior. Tal vez los datos más positivos sean los de Australia o Reino Unido, países que además de tener un PIB alto presentan una relación interés-rendimiento excepcionalmente alta. Se trata de países especialmente buenos a la hora de hacer que los alumnos más interesados consigan un buen dominio de las ciencias. Es curioso que algunos países muy prósperos, como Luxemburgo, presentan sin embargo correlaciones muy bajas.

Otro dato interesante del estudio es que da pistas muy claras sobre cómo influye el estatus socio económico de la familia en la relación entre interés y rendimiento. Como cabría esperar, la ejecución de los niños está más relacionada con sus intereses en las familias de clase alta, que son las que tienen más recursos para hacer que los niños desarrollen sus intereses. Pero, y aquí viene lo bueno, esta relación está totalmente mediada por el estatus socio económico medio de las escuelas en las que estudian sus niños. Es decir, que importa más el estatus de la escuela que el estatus de la familia. O dicho de otra forma, si una familia tiene un niño con interés por la ciencia, merece la pena hacer el esfuerzo de enviar a ese niño a una escuela “por encima de sus posibilidades”.

El estudio arroja otros datos que dan que pensar, como que el interés por la ciencia correlaciona con el índice de democracia de un país, con su gasto en I+D, con el índice de justicia social y con el índice de coherencia social, aunque curiosamente no con el índice de desigualdad Gini ni con el acceso a la educación. Mastiquemos estos datos antes de que los resultados del siguiente informe nos quiten el apetito.

__________

Tucker-Drob, E. M., Cheung, A. K., & Briley, D. A. (in press). Gross domestic product, science interest, and science achievement: A person x nation interaction. Psychological Science.

Sistema Nacional de I+D: Manual de usuario y advertencias

Scientific Solutions desea darle la enhorabuena por su reciente adquisición de un Sistema Nacional de I+D. En las cajas que acompañan a esta nota podrá encontrar todos los componentes e instrucciones necesarios para ponerlo en funcionamiento y disfrutar cuanto antes de un agradable aroma de prosperidad en su hogar. Antes de su instalación, permítanos llamar su atención sobre una serie de consejos y advertencias que le ayudarán a alargar la vida de su Sistema Nacional de I+D y le evitarán peligros innecesarios a usted y a su familia.

El Sistema Nacional de I+D que acaba de adquirir es un aparato complejo dotado de los más modernos sistemas de auto-regulación. Le recomendamos que no interfiera con su funcionamiento salvo en casos de extrema necesidad. Si sospecha que su Sistema Nacional de I+D no funciona adecuadamente o consume más de lo normal, acuda a un técnico o especialista. En caso de abrir la carcasa y manipular los componentes de su Sistema Nacional de I+D, el proveedor no se hará responsable de los daños causados y la garantía se perderá irrevocablemente.

Si esto sucediera, entre otros desperfectos, observará que se derraman pancartas, protestas y escraches por la rejilla trasera del Sistema. Le recomendamos que contenga la fuga tan rápidamente como le sea posible y recuerde no llevarse las manos a los ojos si ha tocado los componentes denominados “predocs” y “postdocs”. Sea especialmente cauteloso si por error ha desconectado los módulos de investigación biomédica o si ha sustituido su sistema autónomo de reparación médica open-source por un sistema propietario más caro e ineficiente.

A diferencia de las versiones alemana y británica, el Sistema Nacional de I+D que usted ha adquirido presenta problemas de compatibilidad con elementos fabricados en otros países. Los componentes de su Sistema sólo pueden fabricarse en nuestras instalaciones regionales tras un proceso largo y caro. Debido a su elevado coste, le recomendamos no derrochar estos componentes. En caso de necesidad, un componente puede mantenerse provisionalmente en funcionamiento conectándolo a un Sistema Nacional extranjero. Sin embargo, cuando esto suceda, le recomendamos que ponga fin a esa situación atípica en cuanto las circunstancias lo permitan. De lo contrario, los componentes conectados a un sistema extranjero podrían presentar problemas de retro-compatibilidad o incluso quedarse atascados en el host y permanecer allí indefinidamente.

Su Sistema Nacional de I+D no debe desenchufarse bajo ningún concepto. Su alimentación está controlada por varios programas informáticos de los que encontrará más información en el manual adjunto. Sea especialmente cauteloso al configurar el software incluido en el Plan Nacional de I+D y en los programas Juan de la Cierva y Ramón y Cajal. En caso de interrumpirse el funcionamiento de estos programas, su Sistema Nacional de I+D podría sufrir daños irreparables como los que condujeron a la avería de su anterior Sistema Nacional de I+D durante los años 2009-2013. Para evitar problemas similares, bajo ningún concepto sitúe la fuente de alimentación cerca de cuerpos que desprendan calor, especialmente Velas u otros objetos inflamables.

Si contempla la posibilidad de instalar su Sistema Nacional de I+D en una universidad pública o privada, asegúrese antes de que se dan allí las condiciones de higiene y transparencia necesarias. Es particularmente importante que en las dependencias donde vaya a ubicarse su Sistema no se hayan “enchufado” otros aparatos que puedan interferir con su correcto funcionamiento o que consuman recursos necesarios para el Sistema Nacional de I+D.

Para mejorar la compatibilidad de su Sistema con aparatos extranjeros y optimizar su funcionamiento general, recomendamos que actualice su software instalando una Agencia Nacional de Investigación tan pronto como sea posible. Recuerde, no obstante, que las versiones más recientes de la ANI ya no son compatibles con Windos. Si desea beneficiarse de las prestaciones de esta aplicación, le recomendamos que instale otro entorno de ejecución antes de 2015. Consulte a un especialista para más detalles sobre el proceso de instalación.

Si no queda satisfecho con su Sistema Nacional de I+D o si detecta algún error en su funcionamiento, le rogamos que contacte con nosotros mediante una llamada telefónica o bien a través de nuestro servicio de atención al cliente. Le responderemos con la mayor celeridad, aunque debido a los recientes recortes en nuestra plantilla, sólo podremos garantizarle una atención en su lengua materna si llama desde Mallorca.

Recomendaciones de la Comisión Europea para la contratación de investigadores

La entrada más exitosa de la historia de este blog fue un programa de asignatura ficticio en el que me burlaba de la política de contratación imperante en las universidades españolas. Si el mundo funcionara medianamente bien, el verdadero programa de esa asignatura debería parecerse a esta iniciativa que acabo de conocer tan sólo hace unos minutos gracias a Ion Yarritu. Se trata de un sello de calidad que ofrece la Comisión Europea a las instituciones científicas que cumplen con unos requisitos mínimos de transparencia y excelencia en la contratación de investigadores. El proceso es bien sencillo. Las instituciones deben comprometerse a hacer una evaluación completa y transparente de su sistema de contratación y deben publicar periódicamente un informe sobre los resultados de ese análisis y sobre las medidas que van a tomar para mejorarlo. Todo el sistema debe estar sometido a un proceso de evaluación continuo por parte de la propia institución y por parte de agencias externas. Las instituciones que cumplen con estos requisitos reciben a cambio un sello de calidad que pueden lucir en sus páginas web y también pasan a figurar en el listado de instituciones reconocidas por EURAXESS. Aunque ha sido una grata noticia ver que mi universidad ya aparece en el listado, mi sonrisa se ha desvanecido cuando he movido la barra de desplazamiento hasta donde ponía SPAIN y he contemplado sin mucho asombro que ninguna universidad española aparece en el listado. Ni en el listado con las instituciones ya reconocidas, ni en el listado que recoge a todas las instituciones que han mostrado algún interés en este sello de calidad. Tan sólo tres instituciones españolas aparecen reconocidas: la fundación vasca para la investigación IKERBASQUE, el instituto del agua IMDEA, y el Instituto de Salud Carlos III.

En busca del impacto científico

Como casi todos los investigadores, tengo una carpeta llena de artículos en PDF que debería ir leyéndome durante los próximos meses. Basándome en mi experiencia previa, calculo que llegaré a leer un 10% de ellos y que el resto simplemente se quedará ahí, haciéndome sentir culpable hasta que en un arrebato de realismo los elimine sin ningún miramiento. En cualquier área de investigación, por muy específica o especializada que sea, se publican al año cientos o miles de artículos científicos. Posiblemente algunos de ellos contienen ideas geniales que los convertirán en referencia obligada durante los siguientes años. Y otros, en fin, podrían servir para avivar el fuego de la barbacoa sin ningún perjuicio para la ciencia. ¿Cómo saber cuáles merecen la pena y cuáles no?

Las instituciones que tienen que evaluar el rendimiento de sus investigadores se enfrentan a un problema similar. Que un investigador haya publicado cuatro artículos en un año en principio suena muy bien. Pero el trabajo que se esconde detrás de esos cuatro artículos (y su impacto futuro) es muy diferente si se trata de publicaciones en revistas locales que nadie lee que si se trata de publicaciones en revistas internacionales muy prestigiosas, cuyos artículos son aceptados sólo después de pasar por un proceso de revisión extremadamente duro y crítico. Todo el mundo entiende que un artículo publicado en Science o Nature no merece la misma valoración que un artículo publicado en la revista de la asociación de vecinos del barrio. ¿Pero cómo valorar el mérito relativo de dos publicaciones en situaciones menos extremas?

Durante los últimos años se han propuesto diversos indicadores para medir hasta qué punto una revista se puede considerar prestigiosa o no. Seguramente, el más popular de estos indicadores es el índice de impacto, publicado cada año en la Web of Knowledge por la agencia Thompson Reuters. La lógica que se esconde detrás del índice es sencilla: Una revista es “buena” si sus artículos son citados frecuentemente, especialmente si estas citas se producen en poco tiempo. En concreto, para calcular el índice de impacto de una revista en un año concreto, se mide el número de citas que durante ese año han recibido los artículos que esa revista ha publicado en los dos años anteriores y ese número se divide entre el número total de artículos que dicha revista publicó en esos dos años. Por ejemplo, si queremos saber el índice de impacto del 2012, contamos el número de citas que se han hecho en 2012 a artículos que la revista publicó en 2010 y 2011. Y luego dividimos ese número de citas entre el número de artículos que la revista publicó entre 2010 y 2011. Por tanto, lo que este índice nos dice es cuántas veces se citó de media en 2012 un artículo publicado por esa revista entre 2010 y 2011.

Tal vez la sencillez de esta idea sea la responsable de que en la actualidad los índices de impacto de las revistas se hayan convertido en un referente casi universal para decidir qué revistas valen la pena y cuáles no. Si el índice de impacto de una revista la coloca a la cabeza de su área de investigación, entonces merece la pena leer los artículos que se publican ahí. Y si hay que juzgar el mérito de un investigador, su trabajo se valora más si sus artículos se han publicado en esas pocas revistas que lideran el ranking.

Sin embargo, la utilización de este indicador como referencia casi exclusiva para medir la calidad de las publicaciones no está exenta de críticas. Posiblemente el principal problema del índice de impacto o de cualquier otro indicador que aspire a convertirse en universal es que, una vez conocida la fórmula que se utiliza para medir la calidad científica, siempre es fácil inventar “trampas” con las que conseguir un resultado más favorable. Por ejemplo, a pesar de su nombre, el International Journal of Clinical and Health Psychology es en realidad una revista española que posiblemente no figura entre las más importantes de su área. Sin embargo, su índice de impacto tradicionalmente se sitúa entre 1.5 y 2.5, una cifra sorprendentemente alta para una revista española. ¿Es posible que esta revista esté convirtiéndose en un referente internacional? Lo dudo. Lo que sucede es que esta revista suele obligar a los autores a incluir en sus artículos auto-citas a otros trabajos publicados en la revista. Si, por ejemplo, un autor desea publicar un estudio correlacional, entonces debe citar un artículo donde se explica cómo realizar un estudio correlacional. Como estas auto-citas sólo cuentan si se realizan a artículos publicados en los dos últimos años, entonces estos artículos “de referencia” se reescriben periódicamente para que siempre haya una versión reciente que citar, de modo que las auto-citas sigan contribuyendo al índice de impacto.

Leyendo un interesantísimo artículo de Brembs y colaboradores que se acaba de publicar en Frontiers in Human Neuroscience, he descubierto que, además de este tipo de trampas, las revistas también pueden negociar con Thompson Reuters qué tipo de artículos cuentan en el cómputo y cuáles no. En concreto, lo que se negocia es si algunas publicaciones que no son estrictamente artículos científicos, como las notas editoriales, los comentarios, o las cartas al editor, se consideran en el cómputo o no. Ignorando esos textos lo que se consigue es que el denominador por el que se dividen el número de citas sea más pequeño y así el índice de impacto sea mayor, aun teniendo el mismo número de citas. Brembs y colaboradores sugieren que el índice de impacto de algunas revistas muy prestigiosas podría estar hinchado mediante este tipo de estrategias. Por ejemplo, Current Biology saltó de un índice de impacto de 7.007 en 2011 a 11.910 en 2012 sin apenas recibir más citas, simplemente por una reducción en el número de artículos computados.

En cualquier caso, lo más interesante del análisis de Brembs y colaboradores no es que los índices de impacto se vean influidos por este tipo de triquiñuelas, sino que posiblemente no consiguen medir correctamente aquello que pretenden medir. Si los artículos publicados en revistas de alto impacto fueran realmente mejores, uno esperaría, por ejemplo, que los experimentos publicados en esas revistas tuvieran mayor potencia estadística, fueran más fáciles de replicar o presentaran un menor número de retracciones. Sin embargo, nada de esto sucede. Si acaso, lo contrario está más próximo a la verdad: Son las revistas de mayor impacto las que más retracciones publican. Y con respecto a los otros indicadores, no hay evidencia alguna de que el índice de impacto correlacione claramente con la calidad de las publicaciones.

En el sistema actual, los índices de impacto determinan qué artículos se leen y cuáles no, a qué investigadores se contrata y a quiénes no, qué equipos reciben financiación y qué equipos no. Ante la escasa validez de los índices de impacto, parece poco razonable seguir utilizándolos como referente único y universal para tomar todas estas decisiones. Sin embargo, no por ello podemos renunciar a tener indicadores que nos permitan valorar la calidad relativa de diferentes publicaciones. Al final de su artículo, Brembs y colaboradores sugieren que la solución pasa por disponer de múltiples indicadores de calidad que se fijen en diferentes propiedades de los artículos y revistas. Si algunos editores intentan falsear la calidad de su revista, es más difícil que lo consigan si el impacto científico se mide con diversos indicadores que si se mide con uno solo. Además, cada indicador será sensible a diferentes aspectos de lo que constituye la calidad de una revista y colectivamente proporcionarán más información que los actuales índices de impacto.

__________

Brembs, B., Button, K., & Munafò, M. (2013). Deep impact: Unintended consequences of journal rank. Frontiers in Human Neuroscience, 7, 291.

Introducción a la corrupción universitaria

Presentación de la asignatura

Al terminar la asignatura, el alumno será capaz de lograr la incorporación de amigos y familiares de hasta tercer grado de parentesco a cualquier departamento universitario. Asimismo, estará en posesión de las competencias necesarias para hacerles ascender hasta la figura de profesor titular en un plazo no superior a cinco años. El acceso a la figura de catedrático y los grados de parentesco primero y segundo forman parte del temario de Nepotismo Avanzado y no serán objeto de estudio o examen en la presente asignatura.

Requisitos previos

Ninguno. No obstante se recomienda haber superado previamente las asignaturas de Derecho de Sucesiones e Ingeniería Fiscal.

Temario

Ocultación de convocatorias en la sociedad de la información. En la era de las TICs no es fácil evitar que otros candidatos potenciales descubran la existencia de una convocatoria, especialmente en el caso del acceso a los cuerpos docentes del estado que absurdamente se publican en el BOE. No obstante, es posible paliar el impacto de estos incomprensibles requisitos mediante diversas estratagemas como, por ejemplo, errores en las URLs de los enlaces al texto de la convocatoria o la interposición de un intervalo de 5 días laborales en la respuesta a cualquier email en el que se solicite información adicional.

Disuasión de otros candidatos. Se propone desanimar cualquier intento de competencia sacando plazas con perfiles ridículamente hiperespecializados. Cuando el departamento necesite que el futuro profesor imparta diversas asignaturas, se ajustará el perfil de la plaza a la asignatura más atípica, si es posible una asignatura optativa o de libre configuración que no exista en ninguna otra universidad. Cuando sea posible, se avisará al favorito de la intención de sacar la plaza con meses de antelación, pero se publicará la misma sólo 7 días antes de la fecha límite para entregar la documentación, incluidos proyecto docente e investigador. Se garantiza así que en el caso de existir otro candidato, su proyecto sea el clásico truño que puede criticar hasta un niño de seis años.

Configuración de tribunales favorables. Hasta donde sea posible, el tribunal debe estar integrado por profesores del propio departamento que compartan el interés por tu amigo, familiar o exdoctorando. Si fuera necesario incorporar miembros externos, se recomienda invitar a profesores que no deseen estropear su relación con el departamento que ofrece la plaza. Se discuten los detalles de estas estrategias, técnicas alternativas y la gestión de posibles riesgos legales.

Racionalización y conciliación familiar. La utilización satisfactoria de estas estrategias no debería quitarte el sueño o exponerte a la crítica de familiares y amigos que no hayan podido conseguir una plaza. Al terminar la asignatura, serás capaz de explicar convincentemente que el recurso a estas técnicas es un mal necesario. De hecho, tiene importantes ventajas para el correcto funcionamiento del departamento. Los lazos afectivos que suponen el parentesco y la amistad lubrican las relaciones laborales y las protegen de la ansiedad existencial que podría producir una vida académica estéril. Se evita también la permanente competitividad que asola a los profesores de países más avanzados. Países donde, por otra parte, estarán encantados de acoger a los investigadores compatriotas que no hayan tenido la fortuna de ser tus doctorandos.

Actividades prácticas

Todos los alumnos deberán escribir un ensayo de entre 10 y 20 páginas bajo el tema “Mi sobrino no tiene la acreditación de la ANECA, ¿qué puedo hacer?”. Además, deberán diseñar una pancarta de protesta ante un caso ficticio de política universitaria responsable. A modo de ejemplo, el estudiante puede imaginar que un ministro de educación propone ajustar la carga docente del profesorado en función de su productividad científica. Se valorará positivamente la colaboración de un sobrino no acreditado en la elaboración de la pancarta.

Bibliografía obligatoria

Vadillo, M. A. (2012). Introducción a la corrupción universitaria. Madrid: Ramón Pareces. [Edición en tapa dura. 90 euros]

Bibliografía recomendada

Bécquer, G. A. (1864/1990). Cartas desde mi celda. Madrid: Planeta.

Camps, F. (2010). Aforismos. Valencia: Sacyr-Vallehermoso.

Puzo, M. (1969). The godfather. New York: G. P. Putnam’s Sons.

Sistema de evaluación

Se publicarán los detalles media hora antes del examen, que puede o no incluir preguntas no relacionadas con la asignatura.

La política de I+D y el marshmallow

En uno de los experimentos más famosos de la historia de la psicología, Walter Mischel les planteó  a un grupo de niños un serio dilema. Les preguntó si preferirían comer un marshmallow (vamos, una nube de toda la vida) o un  pretzel. Si el niño elegía la nube, Walter le decía a continuación que tenía que salir un momento del despacho y que si podía esperar unos minutos, a la vuelta le traería la nube. Pero si no era capaz de esperar, podía llamarle y él vendría en el acto y le traería un pretzel. Es decir, el niño tenía que elegir si quería comer la nube aunque tuviera que esperar a cambio o si quería comer el pretzel inmediatamente. Lógicamente algunos niños se rindieron a la tentación de coger el pretzel y otros fueron capaces de esperar. Lo interesante es lo que esta sencilla decisión revelaba sobre el futuro de esos niños. En una serie de estudios, Mischel y sus colaboradores comprobaron que los niños que habían sido capaces de esperar sacaban mejores notas 10 años después, puntuaban mejor en los tests de inteligencia, sus padres los describían más favorablemente, soportaban mejor la ansiedad y el estrés, tenían más habilidades sociales… Un estudio reciente muestra que incluso su índice de masa corporal es menor. ¡Toda una lección sobre la naturaleza humana!

Mientras escribo estas líneas me pregunto qué tipo de niños habrán sido las personas que nos gobiernan y que toman decisiones sobre nuestro futuro. Leo en la prensa, una vez más, que este año no habrá una convocatoria nacional para pedir subvenciones a proyectos de I+D, a la vez que se siguen estrangulando los sistemas de contratación de personal investigador, como el programa Ramón y Cajal o el programa Juan de la Cierva. Comparados con otro tipo de recortes, suprimir el gasto en investigación es terriblemente sencillo para cualquier gobierno. Si se hacen recortes en educación o en sanidad, si se bajan los sueldos a los funcionarios, las calles lógicamente se llenan de gente. Por el contrario, si uno no sólo recorta, sino que aniquila completamente el sistema nacional de I+D, no pasa nada. La sociedad no paga ningún precio a corto plazo. Hay cuatro manifestaciones pequeñitas de jovenzuelos con camisetas naranjas y poco más. Nadie duda de que esta política tenga un coste enorme a largo plazo, pero mientras tanto vamos tirando. No hay que olvidar tampoco que este “sacrificio” resulta tanto más fácil para quienes no comparten los valores de la ciencia. Al fin y al cabo, bajo toda su aparente complejidad técnica, la ciencia se asienta en una idea singularmente sencilla: Valorar más la verdad que la tradición.

Es muy interesante ver que en otros países europeos donde la crisis también está golpeando fuerte, el gasto en I+D no se ha recortado nada e incluso se ha ampliado. Muchos pueden decir que esos países están incrementando el gasto porque les ha ido algo mejor que a nosotros. Pero es difícil no preguntarse si no será que les va mejor porque incrementan el gasto en ciencia. No porque lo incrementen ahora, claro está, sino porque cada vez que en el pasado se han enfrentado a dilemas como estos, sistemáticamente han decidido no poner en riesgo lo que en el futuro pudiera darles de comer.

Los médicos suelen achacar nuestros problemas de salud a la obesidad, el sedentarismo, o el tabaquismo. Muchas de nuestras enfermedades se deben a la simple incapacidad para sacrificar el placer inmediato en favor de la salud futura. Me pregunto cuál de estas enfermedades matará a nuestro país.

__________

Mischel, W., Ebbesen, E. B., & Zeiss, A. R. (1972). Cognitive and attentional mechanisms in delay of gratification. Journal of Personality and Social Psychology, 21, 204-218.

Mischel, W., Shoda, Y., & Rodríguez, M. L. (1989). Delay of gratification in children. Science, 244, 933-938.

Schlam, T. R., Wilson, N. L., Shoda, Y., Mischel, W., & Ayduk, O. (2013). Preschoolers’ delay of gratification predicts their body mass 30 years later. Journal of Pediatrics, 162, 90-93.

Ranking académico de universidades del mundo

El pasado 15 de Agosto se publicó la nueva edición del prestigioso Academic Ranking of World Universities que cada año elabora la Universidad Jiao Tong de Shangai. Con respecto a la edición anterior, no se observa ninguna diferencia en las 16 primeras posiciones del ranking, que vuelve a estar liderado por Harvard, Stanford, el MIT, Berkeley y Cambridge. En el ámbito europeo las tres universidades líderes vuelven a ser la citada Cambridge, Oxford (en la posición 10) y University College London (21). Por primera vez en los diez años de historia del ranking, se hace un hueco la Universidad del País Vasco, que aparece en el bloque de posiciones 301-400 y se ubica así, según los autores del ranking, entre las 4-7 mejores universidades españolas. Otras universidades españolas que figuran en el ranking son la Autónoma de Madrid (201-300), la Complutense (201-300), la Autónoma de Barcelona (301-400), la Politécnica de Valencia (301-400), la Universidad de Valencia (301-400), la Universidad de Granada (401-500), la Pompeu Fabra (401-500), la Universidad de Vigo (401-500), la Universidad de Zaragoza (401-500).

Mario Bunge sobre la pseudociencia en la universidad

“Sin embargo, en la sociedad moderna la cría de cabras comienza en la cima, es decir, en la universidad, que es donde se instruyen los profesores. Esto no supone únicamente encender los candiles, sino también luchar contra quienes intentan apagarlos. En otras palabras, tenemos que afrontar resueltamente la desagradecida tarea de criticar a aquellos que han tomado el camino fácil del pensamiento acrítico y se enorgullecen de ser tan “abiertos” que pueden absorber y enseñar todo tipo de basura intelectual. Debemos insistir en que los profesores universitarios tienen el deber de estar a la altura de criterios de rigor intelectual cada vez más exigentes, así como de abstenerse de enseñar pseudociencia y anticiencia. La libertad académica sólo se refiere a la búsqueda y enseñanza de la verdad. No es una licencia para decir sandeces.” (Bunge, 2010, p. 189)

__________

Bunge, M. (2010). Las pseudociencias ¡vaya timo! Pamplona: Editorial Laetoli.

Españistán convoca concurso de acceso a los cuerpos docentes

No tengo ni idea de qué habrá que hacer para ser bombero. Pero intuyo que el proceso pasa por matricularse en una academia, estudiar un temario, ir al gimnasio asiduamente durante varios meses y apuntarse a unas oposiciones. Todo ello para comprobar en última instancia que para cubrir cincuenta plazas se presentan tres mil candidatos y que es poco probable que esos abdominales tan trabajados lleguen a ocupar una página en el calendario de la clásica camionera.

A juzgar por las cifras yo diría que es mucho más fácil presentarse a las convocatorias de profesor universitario. Sí, como lo oye. Le invito a que busque unas cuantas por Internet. Verá: una plaza, un aspirante; una plaza, un aspirante… La pauta se repite sin cesar. La razón tiene que ver con una cosa cuyo nombre empieza por corrup- y termina por -diocridad. Se diferencia del caso de los trajes en la tela, ya me entiende, pero se le parece en todo lo demás. Comprenderá usted que teniendo cada universidad un candidato favorito, no es plan publicitar a esas ofertas y confiar en aquello de “que gane el mejor”. Lo mismo se presenta un tío con treinta publicaciones y nos deja a Pepe sin plaza, no te… digo, jopetas. Por cada uno de estos enchufados (¿plugins?) y sobrinos-de que entran en la universidad hay un científico o académico competente que tiene que hacer las maletas y probar suerte en otro país. Pero esto poco importa en Españistán. Incluso queda margen para recortar la financiación de la I+D en 600 millones y dejar que se vayan unos pocos más.

No creo que en todo el territorio nacional haya un solo estudiante de la ESO lo suficientemente corto como para no poder imaginar cinco medidas con las que solucionar este problema, y seguro que al menos tres de esas medidas tienen coste cero. Por desgracia, mi fe en los estudiantes de secundaria no se extiende a los ministros habidos y por haber, y mucho menos a los decanos y rectores. Mientras el tiempo confirma si se cumple o no mi predicción que de nada cambiará, ¿me permite que le haga una sugerencia? Ahorre y envíe a sus hijos a una buena universidad estadounidense o noreuropea. Se lo agradecerán, ya verá. Total, si son personas inteligentes, terminarán allí de una forma u otra.

Pero, en fin, tampoco me haga mucho caso. Al fin y al cabo, yo estudié aquí.

Ranking de universidades públicas españolas

Un año más Buela-Casal y sus colaboradores publican en Psicothema el ranking de universidades públicas españolas, en este caso con los datos de productividad científica del 2010. Como en las dos ediciones anteriores, este ranking se elabora teniendo en cuenta el número de artículos publicados en revistas indexadas en el Journal Citation Reports (JCR), los tramos de investigación reconocidos, los proyectos de I+D adjudicados, las tesis doctorales defendidas, las becas FPU conseguidas, los doctorados con mención de calidad y el número de patentes. La Universidad Complutense de Madrid, la Universidad de Barcelona y la Universidad de Granada se hacen con los primeros puestos del ranking global. Sin embargo, cuando se corrige la producción científica global por el número de profesores, se observa que las universidades más productivas son la Pompeu Fabra, la Autónoma de Barcelona y la Pablo de Olavide. Comparando estos resultados con los del ranking de 2009 se observan pocos movimientos en las universidades más importantes: en los diez primeros puestos se repiten exactamente las mismas universidades que en la edición anterior. Las puntuaciones de este ranking también concuerdan razonablemente bien con las del prestigioso Academic Ranking of World Universities  (Shangai Jiao Tong University, 2010), que recogía la producción científica durante el 2010 de las 500 mejores universidades del mundo basándose principalmente en el número de publicaciones indexadas en el JCR y el número de profesores y alumnos que han logrado el Premio Nobel. En este ranking internacional aparecían únicamente diez universidades españolas, todas ellas entre los puestos 201 y 500. De entre esas diez universidades, seis también aparecen en las primeras posiciones del ranking de Buela-Casal y colaboradores: la Universidad Pompeu Fabra, la Autónoma de Barcelona, la Politécnica de Valencia, la Autónoma de Madrid, la Universidad de Barcelona y la Universidad de Granada.

__________

Buela-Casal, G., Bermúdez, M. P., Sierra, J. C., Quevedo-Blasco, R., Castro, A., & Guillén-Riquelme, A. (2011). Ranking de 2010 en producción y productividad en investigación de las universidades públicas españolas. Psicothema, 23, 527-536.

Shangai Jiao Tong University (2010). Academic Ranking of World Universities. Recuperado el 2 de enero de 2012 de http://www.arwu.org.