Los sistemas fraudulentos de evaluación de revistas son un fenómeno secundario, derivados en gran medida de la necesidad de acreditación de las revistas fraudulentas y del vacío existente para evaluar revistas de segundo orden más allá de las bases de datos de Thomson Reuters o Elsevier, y que por tanto también están necesitadas de acreditaciones externas. Si con las revistas Predatory teníamos a un grupo de revistas que les ofrecían a los autores publicar en ellas a cambio de dinero y sin controles de calidad, con este nuevo fenómeno, las bases de datos ofrecen a las revistas indexación y el cálculo de métricas a cambio de un módico precio, que en muchos casos va aumentando con los años. Pero que nadie se lleve a engaño, estos indicadores no sirven para nada. Son indicadores poco transparentes, en el mejor de los casos basados en Google Scholar Metrics y por supuesto no están validados por la comunidad científica ni son tenidos en cuenta por ninguna agencia de evaluación nacional. Es decir, que no sirven para conseguir un sexenio. Mucho ojo aquellos que se preparen para justificar los méritos de sus trabajos.
Estos productos métricos se crean originalmente para dar validez a las revistas Predatory, y son creadas por el mismo gremio. Esto permitía a las revistas Predatory mostrar en sus portadas indicios de calidad similares al Impact Factor generados por empresas desconocidas con un portal web que en muchos casos tenía aspecto de ser la marca blanca de Web of Science. No obstante, pronto se dieron cuenta de que muchas revistas que no eran Predator, ávidas de “medallas”, empezaron a llamar a sus puertas para pedirles ser indexadas en sus productos, por lo que ampliaron su fraudulento negocio en poco tiempo.
Jeffrey Beall nos alerta de un listado de páginas fraudulentas (36 en total) que generan métricas de impacto a las revistas, y que en muchos casos optan por la estrategia de suplantar al famoso Impact Factor. El último objetivo de este grupo de productos es sacarle las perras a las revistas que quieran ser sometidas a evaluación.
Finalmente reproduzco el consejo de Jeffrey Beall: “No envíen artículos a revistas que presentan indicadores de impacto de estas bases de datos». Estas métricas son un buen indicio de que lo que hay detrás huele a podrido.
Comments are closed