La serie de seis webinars “Fortalecimiento de las redes de información en salud” que tienen como público objetivo las redes de la Biblioteca Virtual en Salud (BVS) y Bibliotecas del Sistema Único de Salud (BiblioSUS) se inició en junio del corriente año. Los tres primeros webinars de tuvieron como tema el bibliográfico y el rol de la Red como divulgadora e intermediaria del conocimiento científico en salud.
Los siguientes tres webinars, por su vez, trataron de temas de comunicación científica en el ámbito de las fuentes de información de la BVS. El último tema, presentado el 14 de octubre, se refiere a Evaluación de la ciencia y los índices de impacto, y fue presentado por dos profesionales, Lilian Calò, Coordinadora de Comunicación Científica e institucional de BIREME/OPS/OMS y Jaider Ochoa-Gutiérrez, Docente de Escuela Interamericana de Bibliotecología, Universidad de Antioquia, Medellín, Colombia.
Lilian comenzó por contextualizar la necesidad de evaluar la ciencia para elaborar políticas públicas, fomentar investigación relevante, mensurar el desempeño de programas de posgrado, y contratar y promover investigadores con base en el mérito de su trabajo de investigación. El impacto de la ciencia, sin embargo, no se puede medir en un breve plazo, pero los indicadores de impacto de las publicaciones científicas, generalmente basados en citas, son procesados en 2-3 años. Índices de impacto científico hay muchos y el más conocido de ellos, el Factor de Impacto, inspiró una serie de otros índices muy semejantes, pero competidores, como el SCImago Journal Rank, Cite Score y otros.
El uso de indicadores de impacto no es sencillo, y su interpretación requiere un conocimiento de su cálculo y de la base de datos que se utiliza para contabilizar las citas. Un hecho, todavía, parece haberse tornado un consenso desde los primeros años del siglo 21, que los índices de impacto basados en citas se crearon para evaluar revistas, pero no se deben usar para evaluar investigadores en procesos de selección para contratación o progresión en la carrera, como afirman la San Francisco Declaration on Research Assessment[1] y el Manifiesto de Leiden[2]. Una medida de excelencia de las revistas científicas es su indexación en bases de datos temáticas (p. ej. LILACS, MEDLINE, PubMed) o multidisciplinares (Web of Science, SciELO, Scopus, y otras), pues los criterios de ingreso y permanencia en estas bases son bien rígidos.
Complementando los índices tradicionales basados en citas, hay también las medidas de uso y download, que sirven para medir en que extensión los artículos son accedidos y leídos, sin, todavía ser citados. Calò mencionó también las métricas basadas en redes sociales, que son reunidas bajo el índice Altmetrics.
A continuación, Jaider Ochoa Gutierrez presentó el escenario para la evolución de la ciencia Latinoamericana y del Caribe a través de métricas responsables. Según Ochoa, a pesar de la múltiple oferta de métricas – generalmente basadas en citas – sigue siendo problemática la evaluación de la ciencia, dimensionalmente hablando. Las citas, pondera Ochoa, están tradicionalmente asociadas a artículos de revista y desconoce otros tipos de documentos, como libros, informes de investigación, patentes, trabajos de grado, etc. Además, hay que considerar las diferencias disciplinares en los modos de producción y en la valoración de la construcción del conocimiento en diferentes idiomas.
Al proponer métricas responsables, Ochoa aclara que eso implica en participar de un ejercicio cooperativo de evaluación en el cual la ciencia abierta tiene un rol muy importante. Además, hay que buscar criterios para medir diferentes formas de desempeño e impacto – científico, social, económico y político. No solo eso, como también integrar las fuentes de datos de uso bibliométrico, y medir el impacto de diferentes tipos de documentos. Ochoa muestra que se debe llevar en cuenta, además, las formas de acceso a los documentos, las rutas para el acceso abierto, los costos de APC[3], e tantas otras variables, que normalmente no se consideran en los análisis bibliométricos. La importancia de crear y utilizar métricas responsables está en el hecho de que la investigación se evidencia como un bien financiado por el Estado y, por tanto, se hace necesario conocer/estimar su impacto.
[1] La Declaración sobre Evaluación de la Investigación (Declaration on Research Assessment, DORA) reconoce la necesidad de mejorar las formas en que se evalúan los resultados de la investigación académica. La declaración fue desarrollada en 2012 durante la Reunión Anual de la Sociedad Americana de Biología Celular en San Francisco, y se ha convertido en una iniciativa mundial que abarca todas las disciplinas académicas y todas las partes interesadas, incluidos patrocinadores, editores, sociedades profesionales, instituciones e investigadores. https://sfdora.org/
[2] Manifiesto de Leiden para métricas en investigación. http://www.leidenmanifesto.org/
[3] APC significa article processing charge, tasa de procesamiento de artículo, que en ciertas revistas de acceso abierto se cobran a los autores para mantener el modelo de negocio de la revista.