La polémica desatada en torno a la limitación de los cupos para ingresar al Conicet al cierre de 2016 suscita numerosos interrogantes y puede ser una oportunidad para debatir los criterios que rigen a las instituciones públicas –universidades incluidas– dedicadas a promover la investigación científica y el desarrollo tecnológico. ¿Cómo se evalúa la calidad de una investigación? ¿En base a qué premisas debe juzgarse el desempeño de un científico? ¿Qué principios escoger para regular la promoción de una carrera académica? Este debate no se plantea sólo –ni siquiera principalmente– en Argentina. Estas cuestiones son motivo de legítima preocupación en todos los países donde el Estado invierte en investigación y desarrollo e innovación, y educación universitaria. 

Por ejemplo, ¿cómo ponderar el contenido de una publicación? Para un investigador en ciencias naturales, ¿es lo mismo publicar un artículo en Science que en una revista desconocida por sus pares, aún con referatos? Si la primera pondera más, ¿cuánto más?, ¿el doble, el triple? Estos criterios no son inocentes, ya que definen los resultados de concursos, ingresos a instituciones, regulan los salarios de los investigadores, la promoción en una carrera, el financiamiento de proyectos, la oportunidad de dirigir becarios, el prestigio. 

Muchas actividades son evaluadas en forma arbitraria. Un investigador también aporta al conocimiento cuando participa en la formación de otros investigadores, como ser tesistas de doctorado o maestría y becarios como aquellos del Conicet o la CNPQ en Brasil, cuando integra proyectos de investigación en otros ámbitos, o en el exterior, obtiene recursos para desarrollar proyectos con algo grado de transferabilidad tecnológica al sector privado, entre otros aspectos. 

Suele ocurrir que unas pocas e irrelevantes publicaciones pesan más que innumerables actividades científicas de fundamental impacto para el desarrollo del conocimiento. O, paradojalmente, que a la hora de evaluar la promoción de un investigador en su carrera, se pondere en mayor cuantía sus publicaciones en revistas casi desconocidas o de bajo impacto, que el valioso tiempo destinado por él o ella a la formación de los becarios y tesistas, muchos de los que participaron de la toma del Ministerio de Ciencia Tecnología e Innovación en la Argentina.

Todo esto sin referirnos a los sesgos ideológicos que suelen regir el armado de rankings y criterios de evaluación. ¿Y si una revista pondera más que otra porque la segunda es considerada de “izquierda” o “heterodoxa”? Uno de los rasgos más controvertidos de los actuales sistemas de evaluación es el productivismo. Para posicionarse en sus carreras los investigadores deben exhibir ‘productividad’ acumulando publicaciones que suman puntos. Estos incentivos crean hábitos cada vez más reñidos con el espíritu científico. El resultado recurrente es el ‘refrito’, el mismo paper publicado en varias versiones con ligeras diferencias formales o en diferentes idiomas, como alguna vez señaló un prolífico investigador suizo, Bruno Frey. Se impone la urgencia por estrechar contactos personales con editores de publicaciones bien clasificadas, circunstancia que los inviste del poder para jerarquizar el trabajo científico en todo el planeta. Los papers invariablemente computan mejor que los libros. “El Origen de las Especies” o “los Philosophiænaturalis principia mathematica” para los sistemas de evaluación académica contemporáneos tienen menos valor que cualquier paper publicado en la revista apropiada.

Pero el productivismo reduce la calidad por otro motivo esencial. El trabajo científico no suele ajustarse a los plazos de los sistemas de evaluación. Trabajos como el de Andrew Wiles en su demostración del “Último teorema de Fermat”, quien se recluyó de la vida académica durante seis años para concluir sus investigaciones son prácticamente imposibles dadas las exigencias por resultados inmediatos. Ferdinand Braudel se demoró 26 años para concluir su monumental “Mediterráneo”. Piero Sraffa no publicó un solo paper por décadas antes de “Producción de Mercancías”. Muchos investigadores se deciden a publicar textos fundamentales una vez que alcanzaron el umbral de puntos imprescindibles para acceder a una posición confortable en sus carreras. 

Dado que en ningún lugar del mundo hasta el presente se encontró una regla, índice, o criterio incontrastable para evaluar la calidad científica, la única opción que le resta a la comunidad académica a la hora de mejorar las instituciones científicas y universitarias es discutir estos asuntos con seriedad, espíritu científico y vocación democrática. El Conicet también se debe esta discusión y una profunda reforma. Un problema de puja presupuestaria e ingreso de nuevos investigadores, cuyo reclamo es legítimo, no puede ni debe ocultar el problema esencial de determinar qué, cómo y para qué se evalúa la calidad científica, y de qué manera.

* Universidad Nacional de Moreno.

** Citra-Conicet y Universidad de Buenos Aires.