Los investigadores viven en una espiral en la que se prima la cantidad
sobre la calidad y se pierde de vista el objetivo de avanzar en la
frontera del saber.
Juan Ignacio Pérez
La actividad investigadora no ha dejado de crecer en el
mundo. A sostenerla se dedican volúmenes de recursos crecientes. Y como
consecuencia, cada vez hay más resultados científicos que se quieren
publicar. Por otro lado, no dejan de surgir disciplinas, subdisciplinas y
especialidades, y es normal que su aparición venga acompañada por la
creación de nuevas revistas científicas en las que se publican los
trabajos de aquellas. Los profesionales de la investigación y quienes
aspiran a serlo sufren una presión cada vez mayor para publicar artículos
con los resultados de su trabajo. Como consecuencia de todo ello cada
día se publican infinidad de artículos científicos, miles, de todo tipo
de temas, cada vez más y, en general, cada vez más breves.
Una parte importante de esos artículos no los lee nadie
o, si los lee, no parece que dejen huella. Según estimaciones de hace
casi tres décadas, un 55% de los artículos científicos no se citan
nunca, y muchos otros son consultados y, a veces, citados en muy pocas
ocasiones (Hamilton, 1990; Pendlebury, 1991). Pero según análisis más recientes, parece ser que esas estimaciones son exageradas (Van Noorden, 2017). El porcentaje de artículos de las alrededor de 12.000 revistas referenciadas en la Web of Science
que no han sido citados nunca no llega al 10% en lo que llevamos de
siglo, aunque seguramente es más alto en los miles de revistas no
recogidas y que, sin embargo, figuran en el currículo de muchísimos
investigadores y en la producción de muchos centros de investigación.
Según
Van Noorden (2017), un 4% de todos los artículos publicados en revistas
biomédicas, un 8% de los de química y un 11% de los de física no había
sido citado diez años después. Si se excluyen las autocitas, o sea, las
ocasiones en que un investigador cita su propio trabajo, el porcentaje
de artículos no citados sube de manera considerable (en algunas
especialidades hasta un 50%).
“Hay muchísima investigación que tiene un impacto mínimo o que lo tiene nulo”
Las anteriores son las disciplinas con mínimos
porcentajes de artículos no citados. En ingeniería y tecnología llegan a
ser el 24%. Considerando la literatura científica en su conjunto (39
millones de artículos de todas las disciplinas recogidas en la Web of Science)
desde 1990 hasta 2016, el 21% no había recibido ninguna cita. La mayor
parte de los artículos no citados se habían publicado en revistas poco
conocidas. Esa es la razón por la que muy probablemente el porcentaje de
artículos no citados es aún mayor en las revistas no recogidas en esa
base documental.
En otra categoría se encuentran las revistas de humanidades.
El 65% de los artículos de ese campo no había sido citado en 2006, lo
que puede deberse, parcialmente al menos, a que en la investigación en
humanidades hay quizás menor dependencia del saber acumulado que en las
ciencias naturales. Y además, en la Web of Science no están bien representadas esas disciplinas, porque ignora muchas revistas y libros.
La diferencia entre las estimaciones de 1990 y 1991 y las
más recientes se debe, en parte, a que las primeras incluían cartas al
editor, respuestas, editoriales y, en general, todas las piezas
publicadas por las revistas, mientras que las más recientes solo
valoraba las de los artículos de investigación publicados. Pero otra
razón es que a lo largo de los años se ha producido un descenso en el
porcentaje de artículos no citados y ese descenso obedece, en cierta
medida al menos, a que en cada artículo se incluyen cada vez más citas.
“Una parte muy importante de la investigación no es relevante a juicio de la propia comunidad científica”
Por último, los especialistas en cienciometría advierten
acerca del hecho de que hay más artículos que son citados una o dos
veces que los que no son citados. Y si se tiene en cuenta lo
superficiales que son muchas de las citas, el diagnóstico del fenómeno
no es nada halagüeño. Hay muchísima investigación que tiene un impacto
mínimo o que lo tiene nulo.
Puede resultar aventurado
considerar muchos de los artículos no citados o con una o dos únicas
citas carentes de todo interés. La trayectoria de un artículo puede ser
muy azarosa y acabar teniendo suficiente impacto muchos años después de
su publicación aunque en los inmediatamente siguientes su influencia
haya sido mínima o nula. Pero no es verosímil que eso ocurra con la
mayoría de los artículos que no se citan o se citan mínimamente. La
cruda conclusión es que mucha investigación realizada (a la vista de los
datos anteriores cabría hablar quizás de un 20%, aproximadamente) no
interesa a nadie y quizás un porcentaje similar interesa a algunos, pero
interesa poco. En otras palabras, una parte muy importante de la investigación no es relevante a juicio de la propia comunidad científica, por lo que es desconocida y el esfuerzo que se le ha dedicado ha sido esfuerzo baldío.
Una derivación extrema y, cabría decir, patológica de este estado de cosas es el fenómeno de las revistas depredadoras
de acceso abierto. Como puede atestiguar cualquier investigador en
ejercicio, hay empresas que organizan congresos científicos y
editoriales que publican revistas supuestamente especializadas que
ofrecen la posibilidad de presentar comunicaciones (en los congresos) o
publicar artículos (en las revistas) previo pago de importantes
cantidades de dinero. Jeffrey Beall,
bibliotecario de la Universidad de Colorado en Denver (EEUU), ha
confeccionado una lista de revistas depredadoras que puede consultarse aquí (actualizada en 2015) y Antonio Martínez Ron ha tratado el fenómeno en Vozpópuli.
Existen
esas revistas y se celebran esos congresos porque hay investigadores
que los alimentan con sus contribuciones. No solamente carecen de
credibilidad en la comunidad científica; no tienen, además, ningún
interés para nadie. Aunque sus publicaciones tengan eco escaso o nulo,
las revistas de calidad ejercen al menos un cierto control. Las
depredadoras no llegan ni a cubrir esos mínimos.
Quizás hay demasiados científicos y no hay suficientes problemas interesantes que resolver
Quizás todo esto obedezca a que hay demasiados
científicos y a que, por el contrario, no haya suficientes problemas
interesantes que resolver. De ser así, nos encontraríamos ante un sistema científico sobredimensionado
y la mejor forma de resolver el problema sería ir reduciendo poco a
poco sus dimensiones y, a la vista de su evolución, tomar las decisiones
que fuese menester.
Creo, sin embargo, que el
problema es de otra naturaleza. Las más de las ocasiones el sistema
científico recluta y promociona a sus profesionales de acuerdo con
criterios cuantitativos. No se valora la calidad de las realizaciones a la hora de evaluar la trayectoria de los candidatos a
ocupar puestos de personal investigador; tampoco se examinan, salvo de
manera puramente formal a veces, los proyectos que pretenden
desarrollar. La selección del personal investigador y los premios o
promociones se basan de forma mayoritaria (aunque no en todos los casos)
en el número de artículos y en indicadores numéricos del impacto
de las revistas en que publican sus investigaciones. Y ese sistema
incentiva la producción de muchos artículos, aunque una parte grande de
ellos carezcan de interés, pero no incentiva la investigación de
calidad.
"En determinados campos hay tanta competencia que se piden “currículos imposibles”
De ser ese el problema, explicaría también que haya jóvenes muy preparados que no pueden dedicarse a la investigación científica
porque no se les ofrecen oportunidades. El sistema se ha hecho tan
competitivo (en términos estrictamente numéricos) que en muchos campos
hacen falta cantidades ridículamente altas de artículos para
estabilizarse en la profesión científica. Se necesitan, de hecho,
“currículos imposibles”.
La lógica de ese sistema ha conducido, por otra parte, a la formación de un negocio editorial gigantesco
que obtiene pingües beneficios del uso gratuito de resultados de
investigación que han costado muchísimo a los contribuyentes de los
países que la financian. Al sistema editorial se le suministran
grandísimas cantidades de originales; un porcentaje alto es rechazado,
lo que permite mantener la ficción de que se seleccionan en virtud de su calidad
y hace más justificable que se pidan enormes cantidades de dinero para
poder acceder al conocimiento depositado en sus revistas.
Los
sistemas científicos de prácticamente todos los países funcionan de
forma similar. Depositan en el uso de métricas sencillas su confianza y
permiten la selección del personal sin que, en el fondo, hayan de
tomarse verdaderas decisiones en el proceso. La decisión es la relativa a
los criterios bibliométricos que se seguirán en los procesos de
selección. Pero en realidad los responsables de las instituciones concernidas no ejercen su responsabilidad de forma plena.
Ya
no se trata de hacer buenas investigaciones tratando de avanzar en la
frontera del saber y dar a conocer posteriormente los resultados a los
demás miembros de la comunidad científica. Se trata, cada vez más, de publicar la máxima cantidad posible de artículos en las revistas de mayor impacto.
El sistema de publicaciones ha perdido así su función original y ha
pasado a satisfacer los requerimientos de una comunidad necesitada de
acreditar logros para estabilizarse o progresar en la carrera académica.
En definitiva, el sistema ha confundido el fin con el medio para alcanzarlo, pervirtiendo así su razón de ser.
JUAN IGNACIO PÉREZ* Vía VOZ PÓPULI
* Juan Ignacio Pérez es biólogo, catedrático y director de la Cátedra de Cultura Científica de la UPV/EHU.
No hay comentarios:
Publicar un comentario