103
REDES
, VOL. 25, Nº 49, BERNAL, DICIEMBRE DE 2019, PP. 105-109
INTRODUCCIÓN
Hernán Thomas* / Lucas Becerra** /
Florencia Trentini***
A lo largo de las últimas décadas se ha consolidado y difundido a nivel glo-
bal una forma de evaluación académica. La piedra basal de esta forma esta-
bilizada de evaluación es constituida por una unidad particular: la
publicación científica. La ponderación de calidad de las publicaciones de
un investigador se cristalizó como criterio fundamental de determinación
de valor: “la excelencia académica”.
Esa “excelencia” se construyó sobre un criterio de calidad también obje-
tivado: el ranking por citaciones y la categorización –a escala global– de las
publicaciones científicas. La regla descriptiva de de Solla Price: “investiga-
dor es aquella persona que publica un paper por año” derivó en una califi-
cación normativa: “es investigador de excelencia aquel que publica en
revistas  de mago y presenta un ‘índice h’ elevado”.
Esta forma de evaluación permeó el conjunto de instituciones de
Investigación y Desarrollo, las universidades, las financiadoras y, por deriva-
ción, la asignación de méritos, posiciones en rankings, cargos, subsidios, así
como de recursos: financieros, humanos, materiales. Se difundió a punto tal
que derivó en criterio “universal”: adoptado por todos los sistemas de evalua-
ción científica en cada uno de los países que tienen un sistema académico esta-
ble y conformado. Tanto países desarrollados como en vías de desarrollo.
[1]
* Instituto de Estudios sobre la Ciencia y la Tecnología, Universidad Nacional de Quilmes,
Conicet. Correo electrónico: <thomas@unq.edu.ar>.
** Instituto de Estudios sobre la Ciencia y la Tecnología, Universidad Nacional de Quilmes,
Conicet. Correo electrónico: <lucas.becerra@unq.edu.ar>.
*** Instituto de Estudios sobre la Ciencia y la Tecnología, Universidad Nacional de
Quilmes, Conicet. Correo electrónico: <maria.trentini@unq.edu.ar>.
[1] Esta expresión se utiliza aquí en los términos comúnmente aceptados, haciendo refe-
rencia a las diferencias en el nivel de ingreso per cápita entre países.
104 HERNÁN THOMAS / LUCAS BECERRA / FLORENCIA TRENTINI
Considerada como una manera objetiva y justa de diferenciar lo bueno
de lo malo, lo deseable de lo indeseable, esta forma de asignación de méri-
tos derivó en una regla básica para todas las comunidades científicas:
publish or perish”.
Privilegiada sobre todo otro criterio de ponderación, la excelencia aca-
démica medida según cantidad de publicaciones científicas –y la “calidad”
de las revistas en que se publica, que también se establece a partir de una
medición cuantitativa– pasó a ser el criterio principal, desplazando y subor-
dinando toda otra consideración.
Durante décadas, esta fue la ley. Inicialmente resistida en algunos
medios, en algunas disciplinas, en algunos campos de actividad, en algunas
instituciones. En las últimas décadas, es aceptada, hegemónicamente, en
diferentes territorios, por diferentes comunidades científicas, en distintas
disciplinas, como un criterio tan válido como homogéneo.
No obstante, en los últimos años, diferentes voces comenzaron a cues-
tionar esta homogeneidad, a problematizar las consecuencias de tal hege-
monía, a describir los efectos no deseados de las instrumentalizaciones que
se fueron conformando a medida que se universalizaba su aplicación.
Así, en diferentes regiones, en distintas comunidades epistémicas,
comenzaron a expresarse objeciones de distinto tipo, heterogéneas.
Algunas planteando cuestiones de forma –predominio de criterios cuan-
titativos, problematización de la construcción de indicadores de impacto
y citación, etc.–, otras, explicitando planteos contrahegemónicos –gober-
nanza de agendas científicas, predominio de comunidades científicas
radicadas en países centrales, subordinación de problemáticas periféricas,
etcétera.
Esas voces disidentes crecieron en escala y alcance hasta evidenciar un
verdadero “malestar en la cultura” de la evaluación académica.
Los contraargumentos han alcanzado tal volumen y profundidad que
resulta ineludible dar espacio a un debate. De eso se trata el presente dos-
sier: de generar un insumo para la efectivización de esa discusión.
No solo es relevante abordar esta temática porque se vincula con la
estructuración de las carreras de los investigadores científicos, de ingenieros
y tecnólogos, sino –y fundamentalmente– porque hoy la forma de evalua-
ción académica incide –directa y poderosamente– en la determinación de
qué investigar, qué agendas priorizar, qué procesos de desarrollo subsidiar,
qué tecnologías producir, qué sociedades construir. O, en otros términos,
porque no se trata de un problema intracomunitario –mucho menos cor-
porativo– de la comunidad científica, sino de una discusión clave en la
construcción de futuros de la humanidad.
105
REDES
, VOL. 25, Nº 49, BERNAL, DICIEMBRE DE 2019, PP. 105-109
Con este fin, relevamos y publicamos en castellano algunos de los prin-
cipales documentos que condensan esta discusión. Estos documentos
adquirieron la forma de manifiestos, de producción asociada y colaborativa,
intentando explicitar la preocupación de colectivos de investigadores sobre
la forma y el rumbo de la evaluación académica y, en particular, de su capa-
cidad de orientar las actividades de investigación y desarrollo como un sis-
tema de premios y castigos.
Estos documentos, en orden cronológico, son los siguientes.
2010 - “Innovación, sustentabilidad y desarrollo. Un Nuevo Manifiesto. En
2010, el Social, Technological and Environmental Pathways to
Sustainability Centre ( Centre) de la Universidad de Sussex lanzó el
“Innovation, Sustainability and Development. A new manifestó”. Este
documento, heredero del histórico “Manifiesto de Sussex”, publicado cua-
renta años antes, se centra en el papel de la ciencia y la tecnología para el
desarrollo sustentable con justicia social. El nuevo manifiesto llama a con-
ceptualizar y diseñar una nueva política de innovación basada en pregun-
tas como: ¿cuál ciencia y cuál tecnología es necesaria para el futuro de la
humanidad?; ¿para quién y de quién son los frutos de la innovación? y, en
particular, ¿qué clase de cambio tecnológico y social es deseable impulsar?
En otras palabras, se plantea la necesidad de promover formas –y direccio-
nes– de innovación más diversas y mucho mejor distribuidas en pro de
una mayor justicia social.
2010 - “El Manifesto de la ciencia lenta. También en 2010, la Slow
Science Academy lanza el “Manifiesto de la Ciencia Lenta”, donde se
plantea la necesidad de superar cualitativamente los criterios ordenadores
de la “ciencia acelerada de comienzos del siglo ”. Estos criterios se han
cristalizado en un flujo constante y creciente de publicaciones en revistas
con referato –y la medición de su impacto–, y la proliferación de blogs
científicos, las necesidades de los medios de comunicación, las relaciones
públicas, y la creciente especialización y diversificación en todas las
disciplinas.
Sin embargo, afirma, estas prácticas de producción de conocimiento no
pueden resumir el accionar de la comunidad académica. Es necesario tiem-
po para pensar. Los académicos necesitan tiempo para leer, y tiempo para
equivocarse. “La ciencia no siempre sabe qué es lo que puede ser en este
momento”. Es necesario comprender y respetar los tiempos del desarrollo
de conocimiento científico, más allá de las simples métricas que le dan vali-
dez dentro del sistema de evaluación.
106 HERNÁN THOMAS / LUCAS BECERRA / FLORENCIA TRENTINI
2012 - “Declaración de San Francisco sobre la Evaluación de la investigación
(doRa). El 16 de diciembre de 2012, en la Ciudad de San Francisco, Estados
Unidos, un grupo de editores de revistas académicas se congregó durante la
reunión anual de la American Society for Cell Biology () a debatir sobre
la necesidad de mejorar la forma en que las agencias de financiación, las ins-
tituciones académicas y otros grupos evalúan la investigación y la produc-
ción científica. Como resultado se elaboró la “Declaración de San Francisco
sobre la Evaluación de la Investigación” (, por sus siglas en inglés).
Sobre la base del reconocimiento de la diversidad de productos de la
investigación científica –artículos de investigación que informan sobre nue-
vos conocimientos, datos, reactivos y software; propiedad intelectual y capa-
citación de jóvenes científicos– y las necesidades de evaluación de calidad
e impacto –de las agencias financiadoras, las instituciones que emplean
científicos y los propios científicos–, esta declaración sostiene que el Índice
de Impacto –el cual es ampliamente utilizado con estos fines– tiene una
serie de deficiencias –bien documentadas– como herramienta para la eva-
luación de la investigación, en términos de precisión y prudencia.
A partir de allí, en  se establecen una serie de recomendaciones
relativas a eliminar el uso de métricas basadas en revistas, evaluar la inves-
tigación por sus propios méritos –en lugar de basarse en cuál revista se
publica la investigación–, y la necesidad de aprovechar las oportunidades
que ofrece la publicación en línea.
2014 - “Estatuto de la desexcelencia (Versión 1.1)”. En 2014, el Atelier des
Chercheurs () de la Université Libre de Bruxelles () publicó la
“Charte de la désexcellence”. Este manifiesto se orienta abierta y crítica-
mente contra el pensamiento neoliberal y gerencial de “la excelencia
impreso sobre la producción de conocimiento científico en las universida-
des y centros de investigación. Esta mal entendida “excelencia” –afirma– ha
producido dinámicas perjudiciales para la creación de nuevos conocimien-
tos: competencia exacerbada, desvalorización del conocimiento construido
en la experiencia, transformación continua de las prácticas profesionales,
precarización, indiferencia respecto de los contenidos, evaluaciones estan-
darizadas y repetidas, todas tendientes a generar pérdida de la autoestima,
desmotivación, disminución de la calidad del trabajo realizado.
Este proceso fue acompañado por la producción de “indicadores de
Excelencia”, buscando “garantizar un buen posicionamiento en las evalua-
ciones y en los escalafones”. Sin embargo –sostiene la “Charte”– esos indi-
cadores no dicen nada de la calidad del trabajo académico y ocultan el
constante descenso de su calidad y de sus productos.
107
REDES
, VOL. 25, Nº 49, BERNAL, DICIEMBRE DE 2019, PP. 105-109
Sobre esta constatación surge la noción de “desexcelencia”, que invita a
preocuparse por la calidad efectiva del trabajo, “que se vincula tanto con la
naturaleza de lo que se logra como con la satisfacción que deriva de ello”.
El “Estatuto de la desexcelencia” se orienta a “rechazar la noción de exce-
lencia como sustituto de un trabajo honesto y bien hecho” y a “construir
una universidad de servicio público, democrática y accesible, una universi-
dad diferente a la que se edifica frente a nosotros”.
2015 - “El Manifiesto de Leiden sobre indicadores de investigación”. Publicado
originalmente en la revista Nature –firmado por Diana Hicks, Paul Wouters,
Ludo Waltman, Sarah de Rijcke e Ismael Rafols–, en 2015, el Manifiesto
de Leiden critica el mal uso de indicadores bibliométricos y la tendencia a
la sustitución de la evaluación cualitativa realizada por pares, por el uso de
parámetros cuantitativos como el índice h, o el factor de impacto. Esta mala
reformulación del proceso de evaluación genera implicancias no deseadas
sobre la gobernanza de la ciencia.
Es por esto que se formulan diez criterios que condensan las buenas
prácticas para la evaluación de la investigación basada en el proceso del peer
review: la evaluación cuantitativa tiene que apoyar la valoración cualitativa
por expertos; el desempeño debe ser medido de acuerdo con las misiones
de investigación de la institución, grupo o investigador; la excelencia en
investigación de relevancia local debe ser protegida; los procesos de recopi-
lación y análisis de datos deben ser abiertos, transparentes y simples; los
datos y análisis deben estar abiertos a verificación por los evaluados; las dife-
rencias en las prácticas de publicación y citación entre campos científicos
deben tenerse en cuenta; la evaluación individual de investigadores debe
basarse en la valoración cualitativa de su portafolio de investigación; debe
evitarse la concreción improcedente y la falsa precisión; deben reconocerse
los efectos sistémicos de la evaluación y los indicadores; los indicadores
deben ser examinados y actualizados periódicamente.
2015 - “Manifiesto académico: de la universidad ocupada a la universidad
pública”. En consonancia con los principios de la “Charte de la désexcellen-
ce”, en 2015 se publica en la revista Minerva –firmado por Willem Halffman
y Hans Radder–“The Academic Manifesto”. En este documento se afirma
que las universidades están siendo “ocupadas” por una visión empresarial
bajo un régimen obsesionado con el reconocimiento cuantitativo de la pro-
ducción, fomentando prácticas de competitividad creciente, construyendo
discursos de eficiencia y “excelencia” y una errónea idea de bienestar
económico.
108 HERNÁN THOMAS / LUCAS BECERRA / FLORENCIA TRENTINI
La respuesta a esta ocupación empresarial es, según este manifiesto, for-
talecer la “idea de universidad pública, más próxima a ser un bien común
comprometido con el conocimiento de la sociedad que a una corporación”,
y sugiere medidas orientadas a tal fin. En especial, el documento explora
estrategias destinadas a renovar la vida política de las universidades.
2016 - “Salvar la ciencia”. Publicado en 2016 por Daniel Sarewitz en The
New Atlantis, este artículo en clave de manifiesto fuertemente crítico llama
a salvar una ciencia que se ha vuelto, desde las propuestas de Vannevar
Bush, poco confiable, inútil y falaz. La promesa de posguerra de una comu-
nidad científica liderando la creación de “nuevos productos y procesos para
dar salud, pleno empleo y seguridad militar a la nación” se ha vuelto, con
el tiempo, una mentira.
La mentira –denuncia– consiste en formar un sentido común donde “el
libre juego de intelectos libres” proporciona el conocimiento que la nación
necesita para afrontar sus necesidades –presentes y futuras–. La mentira,
galvanizó en un mecanismo por el cual los políticos dan fondos de los con-
tribuyentes a los científicos, y solo los científicos pueden evaluar la investi-
gación que hacen. Con el corolario prohibitivo de que cualquier intromisión
externa para orientar el curso de la ciencia solo interfiere en su avance libre
e impredecible.
El problema –plantea– es que esta mentira funciona en parte como ver-
dad. La ciencia ha sido importante para el desarrollo tecnológico, por
supuesto. Los científicos descubrieron y probaron fenómenos que resulta-
ron tener aplicaciones tecnológicas muy amplias. Pero “los milagros de la
modernidad”, según este documento, no provinieron del “libre juego de
intelectos libres”, sino de la subordinación de la creatividad científica a las
necesidades tecnológicas del Departamento de Defensa de Estados Unidos.
Así, el Manifiesto llama a salvar la ciencia, lo que implica revisar desde las
fuentes de financiación y las agendas de investigación hasta las prácticas de
evaluación.
UN PASO MÁS EN EL CAMINO DEL MALESTAR DE LA CULTURA
Si bien entendíamos que era importante poner en disponibilidad estos
documentos en español, todos juntos en un dossier con una edición cuida-
da y fiel a los originales, no nos parecía un trabajo suficiente –un insumo
adecuado para el debate– sin agregar algunos niveles de análisis. Con este
objetivo, el dossier se complementa con dos artículos.
109
REDES
, VOL. 25, Nº 49, BERNAL, DICIEMBRE DE 2019, PP. 105-109
En “Críticas recientes a la evaluación de la investigación: ¿vino nuevo
en odres viejos?”, Noela Invernizzi y Amílcar Davyt respondieron a nuestra
solicitud, describiendo y posicionando cada uno de estos documentos,
comparando sus afirmaciones, diferenciando sus focos y acentos, sistema-
tizando sus críticas, dimensionando el alcance de sus cuestionamientos.
En “La evaluación académica como sistema socio-técnico. Micro y
macropolítica de la jerarquización de productos y actividades científicas y
tecnológicas”, intentamos comprender los procesos de construcción de fun-
cionamiento o no funcionamiento de los sistemas de evaluación académica
vigentes, sus dinámicas problema / solución, los motivos de su estabiliza-
ción y universalización, el alcance de las críticas incluidas en los diferentes
manifiestos. Y, yendo un poco más allá, intentamos analizar sus problemá-
ticas derivaciones sobre los procesos de construcción de poder, de confor-
mación de prácticas hegemónicas, de invisibilización de problemáticas
locales, de inhibición de procesos de desarrollo tecno-productivo local, de
incidencia negativa sobre dinámicas sociopolíticas de inclusión e
igualdad.
Para los países en vías de desarrollo, la evaluación académica no es un
problema menor. No solo porque la generación de capacidades cognitivas,
científico-tecnológicas, es “consensuadamente” reconocida por todos como
una cuestión estratégica. Fundamentalmente, porque cuando los sistemas
político-decisorios son frágiles, los sistemas tecno-productivos están poco
desarrollados, las desigualdades sociales y de recursos materiales son flagran-
tes, el desarrollo de conocimiento científico y tecnológico no se orienta a
la resolución de problemas sociales y ambientales situados localmente y las
estrategias gubernamentales se restringen a apagar los incendios de la
coyuntura, las débiles señales generadas por las políticas de investigación y
desarrollo son sustituidas por lo más claro, evidente e inmediato que inter-
pela a un investigador o un tecnólogo: el sistema de evaluación académica.
Más concretamente, en tales condiciones, la evaluación académica deviene
la única y real política científica y tecnológica.