Un caso de gestión de la innovación: la revisión por pares y los índices de impacto

18
Jul

En estos tiempos en que abundan los gurús, coaches y manuales milagrosos que nos enseñan cómo gestionar la innovación, puede ser interesante analizar algunas herramientas que funcionan en el campo con mayor presión innovadora que existe: la propia producción científica.

Efectivamente, desde un punto de vista práctico, la ciencia es un “negocio” que se dedica a la generación de nuevas ideas. Su principal cortapisa es que no posee un método de contraste objetivo, como lo es el mercado en otros ámbitos. El éxito empresarial se puede interpretar de distintas maneras, pero se basa siempre en la consecución de objetivo claro: vender más y mejor. ¿Cómo se resuelve el problema de la innovación cuando no se dispone de un contraste objetivo para identificar el trabajo bien realizado?

La solución en ciencia, en particular en ciencia básica, donde la venta de patentes apenas es significativa, es radical: el sistema ha construido su propia estructura de selección interna. Sus elementos principales son: la revisión por pares (peer review), los sistemas de clasificación de las revistas científicas, los sistemas de clasificación de los científicos e instituciones de investigación.

Viñeta sobre al dificultad de publicar un paper

Esencialmente funciona así: los investigadores y sus instituciones tratan de publicar sus resultados. Las revistas científicas reciben sus propuestas de artículos, a través de un editor: se trata de un científico de gran prestigio en su campo (luego veremos cómo se establece ese prestigio). El editor lee el artículo, y elige dos, tres científicos solventes (los “pares”) que revisan la propuestas, y realizan una propuesta al editor, quien decide si merecen ser publicadas.

Las revistas, a su vez, luchan por adquirir su propio prestigio: este se consigue si la revista es consultada a menudo por los científicos, y genera a su vez nuevas ideas. De entre las formas de medir ese “impacto científico”, el más exitoso es el índice de impacto diseñado por la empresa Institute for Scientific Information (ISI), que evalúa la cantidad de veces que los artículos de cada revista son citados en los artículos de los años siguientes. A partir de ahí, el prestigio de una revista redunda en el de un investigador o el de un centro de investigación, cuyo objetivo es publicar artículos, pero sobre todo en las revistas con mejores índices de impacto. El prestigio del investigador le permite acceder no sólo a mejores posibilidades de trabajo, sino ubicarse en el sistema de evaluación, pudiendo ser con más frecuencia evaluador, o llegando incluso a ser editor de revistas.

ISI Web Of Knowledge

El sistema no es perfecto, presenta casos de comportamientos tendenciosos, de clientelismos, y ni siquiera está libre del fraude: a menudo se han conocido denuncias en esos sentidos. Pero por encima de ello, funciona de manera impresionante, y es responsable de la enorme fuerza productiva que hoy posee la ciencia.

Como caso de éxito, se pueden destacar varios elementos. En primer lugar, resulta clave la competitividad y el establecimiento de escalafones, que incentiva a producir más y mejores ideas. En ámbitos locales, y en campos de ciencias blandas, en ciertos casos se ha denunciado desde distintos posicionamientos esa competitividad, y se han buscado fórmulas alternativas: es llamativo que siempre han desembocado en fracaso y una gestión corrupta y clientelar. En segundo lugar, el sistema supone una auténtica “gestión de la honestidad”: el sistema se basa en una correcta conducta ética de los científicos. Se producen comportamientos inapropiados, porque no creo que los científicos sean, en promedio, mejores personas que el resto, pero en general el nivel de honradez es alto: un buen contraejemplo para quienes no consideran que las cuestiones morales sean relevantes en los procesos productivos.

Un “caso” que puede ser muy sugerente para la gestión de la innovación en muchas otras situaciones.