1
DOI: https://doi.org/10.48160/18517072re61.906
Evaluación de la ciencia. Tendencias y
heterogeneidades en el sistema universitario
argentino+
Fabiana Bekerman*
Carolina Monti**
Resumen
Existe un amplio consenso en la literatura acerca del predominio de un modelo
de evaluación caracterizado por una concepción universalista de la noción de
+ Los resultados presentados en este artículo fueron producidos por el proyecto de
investigación titulado “Cartografía de la evaluación académica en Argentina. Estado del arte y
agenda de cambio institucional para una ciencia más abierta, inclusiva y socialmente relevante”
acreditado y financiado en el contexto de la convocatoria PISAC 2022 Plan Nacional de CTI, en
la línea Evaluación científico-tecnológica y académica. Aportes, debates y principales
propuestas.
* Instituto de Ciencias Humanas, Sociales y Ambientales, Consejo Nacional de Investigaciones
Científicas y Técnicas. Universidad Nacional de Cuyo, Argentina. Correo electrónico:
bekermanf@gmail.com
** Instituto de Limnología "Dr. Raúl A. Ringuelet", Consejo Nacional de Investigaciones Científicas
y Técnicas. Universidad Nacional de La Plata. Correo electrónico: caro.montif@gmail.com
2
Revista Redes 61 – ISSN 1851-7072
excelencia académica, asociada con un productivismo medido por cantidad de
papers publicados en revistas de alto impacto, principalmente en inglés.
Numerosos autores advierten que este paradigma de evaluación tiene
consecuencias negativas especialmente para América Latina y tanto en la
región como a nivel global ha sido fuertemente cuestionado. Ante este
panorama nos preguntamos cómo se desarrolla la práctica evaluativa en las
universidades nacionales argentinas, qué elementos del modelo hegemónico
internacional se reproducen y qué particularidades presenta. Centramos
nuestra atención en la evaluación de los proyectos o propuestas de
investigación en el conjunto de universidades nacionales de gestión pública a
partir de un estudio nacional cuya metodología incluyó la aplicación de una
encuesta y la realización de entrevistas a funcionarios responsables de las
áreas de investigación de las universidades. Entre los hallazgos destacamos la
amplia diversidad del sistema universitario y el fuerte rol que cumple la
autonomía institucional en las definiciones de calidad y excelencia, así como en
las modalidades de evaluación de la investigación.
Palabras clave
PRÁCTICAS EVALUATIVAS, PROYECTOS DE INVESTIGACIÓN, UNIVERSIDADES NACIONALES
3
Revista Redes 61 – ISSN 1851-7072
Introducción
Existe un amplio consenso en la literatura acerca del predominio de un modelo
de evaluación caracterizado por una concepción universalista de la noción de
excelencia académica, asociada con un productivismo medido por cantidad de
papers publicados en revistas de alto impacto y principalmente en inglés.
Numerosos autores advierten que este paradigma de evaluación tiene
consecuencias negativas especialmente para América Latina y tanto en la
región como a nivel global ha sido profundamente cuestionado. En este
contexto, nos preguntamos cómo se desarrolla la práctica evaluativa en las
universidades nacionales argentinas, qué elementos del modelo hegemónico
internacional se reproducen y qué particularidades presenta. Centramos
nuestra atención en la evaluación de los proyectos o propuestas de
investigación en el conjunto de universidades nacionales de gestión pública.
Si bien existen trabajos previos que analizan este aspecto en la evaluación de
las publicaciones (Salatino y Gallardo, 2020; Salatino y Macedo, 2022) y las
trayectorias académicas individuales en los dos sistemas principales de
categorización existentes en Argentina: el CONICET (Beigel, Gallardo y
Bekerman, 2018) y el Programa de Incentivos a los docentes-investigadores
(actualmente, PRINUAR) (Beigel y Bekerman, 2019, Prati, 2024). Sin embargo,
se ha abordado en menor medida el análisis de la evaluación de propuestas o
proyectos de investigación y de qué manera el modelo hegemónico de
evaluación está implicado en ella.
4
Revista Redes 61 – ISSN 1851-7072
Precisamente, este trabajo se propone realizar un acercamiento
empírico a este aspecto a partir del análisis de los resultados de un estudio
nacional sobre las modalidades de evaluación de los proyectos financiados por
el conjunto de las universidades nacionales. Indagamos acerca de las
convocatorias, la entidad responsable de elaborar las bases y criterios de
evaluación, la periodicidad con la que estos son modificados, la frecuencia de
apertura, las ventanillas de presentación, la existencia y composición de un
comité de ética encargado de evaluar las postulaciones y la dinámica de
renovación de sus integrantes. También se buscó conocer las modalidades de
evaluación implementadas al finalizar la ejecución de los proyectos aprobados.
Respecto de los criterios de evaluación utilizados por las universidades,
buscamos identificar los aspectos considerados más relevantes en la
evaluación de los proyectos y los antecedentes del equipo de dirección y de
trabajo, así como el peso específico de la relevancia o impacto social de los
proyectos. Rastreamos la existencia de instrumentos de evaluación
estandarizados, la frecuencia con la que estos son revisados, y el tipo de
acceso que presentan. En cuanto a las comisiones evaluadoras de los
proyectos de investigación, se analizaron los criterios de selección de
evaluadoras/es, las instancias de capacitación para evaluadoras/es, las
modalidades de evaluación en cuanto al anonimato y la remuneración, las
facilidades o dificultades de la institución para conformar dichas comisiones, y
el tipo de acceso a los dictámenes de evaluación.
5
Revista Redes 61 – ISSN 1851-7072
Este análisis pretende complementar la bibliografía disponible
abordando un objeto menos explorado, a partir de una lógica “botton-up”
sostenida en el relevamiento primario de información, para alcanzar una
descripción densa y detallada de las modalidades, tendencias y
particularidades de las prácticas de evaluación de los proyectos de
investigación en el sistema universitario nacional.
El trabajo se estructura en cuatro secciones. La primera, intenta
recuperar la genealogía de los cambios en los paradigmas de evaluación, sus
implicancias y las principales críticas recibidas a nivel global, latinoamericano y
nacional. En segundo lugar, detallamos los aspectos metodológicos del
abordaje realizado. En tercer lugar, presentamos los resultados de la encuesta
nacional divididos en los siguientes aspectos: organización y gestión de las
convocatorias de los proyectos de investigación en las universidades
nacionales; criterios de evaluación de las propuestas y criterios de selección de
los pares evaluadores. Finalmente, recuperamos las modalidades de la
evaluación en el conjunto de las instituciones relevadas poniéndolas en
relación con los aspectos principales de la evaluación tanto vinculadas al
modelo hegemónico como a las recientes propuestas de modificación de ese
paradigma.
Revisando las críticas globales al modelo hegemónico
de evaluación
6
Revista Redes 61 – ISSN 1851-7072
El desarrollo y los cambios producidos en los sistemas de evaluación han sido
analizado por diversos autores a lo largo del globo. Rushforth, et.al. (2025)
proponen pensarlo a partir de la acumulación en capas de tres paradigmas de
evaluación que han ido creando sistemas con características complejas e
híbridas: uno, centrado en la evaluación profesional-disciplinaria que se
caracteriza por la alta autonomía de los departamentos académicos y la
dependencia de estándares disciplinarios internos para decisiones de
contratación, promoción y asignación de recursos; otro, basado en la
excelencia y la competencia, que fue surgiendo a principios de los 90 y se
consolidó con la creciente disponibilidad de datos bibliométricos y su uso en
sistemas de financiación basados en el rendimiento; y, finalmente, un tercer
paradigma sostenido sobre la idea de evaluación responsable de la
investigación que surgió a partir de 2012 como una respuesta a las falencias de
los paradigmas anteriores y cuya crítica principal es el excesivo énfasis en la
autocita, la especialización y la competencia.
En línea con esta genealogía, Koch, Peña y Puppato (2025) sostienen
que la evaluación de la ciencia se ha transformado desde prácticas internas y
colectivas hasta convertirse en un proceso institucionalizado y burocrático
tendiente a estructurar la distribución del capital científico. Originalmente, el
prestigio se basaba en redes de socialización en sociedades científicas,
mediante reuniones y publicaciones especializadas que establecían
mecanismos de jerarquización. Luego, a partir de la segunda guerra mundial,
los países comenzaron a implementar políticas científicas orientadas a la
7
Revista Redes 61 – ISSN 1851-7072
jerarquización de las comunicaciones científicas, promoviendo subsidios vía
fondos concursables en reemplazo de las asignaciones directas otorgadas a
las instituciones científicas. Este cambio respaldó el surgimiento de los
mecanismos de selección para fomentar la excelencia y la competitividad entre
investigadores y vino acompañado de la indexación de las revistas científicas,
es decir, el posicionamiento de ciertas revistas indexadas y de corriente
principal. Todo ello impulsado por la creación del Institute for Scientific
Information (ISI) en 1955 y los tres índices asociados que fueron construidos
posteriormente (Science Citation Index, Social Science Citation Index y Arts &
Humanities Citation Index) cuya novedad fue la jerarquización basada en las
citas recibidas por las revistas y la generación de un espacio para la evaluación
cuantitativa de la ciencia, orientada a gestionar recursos y a hacer medible la
actividad científica. En este contexto surgió la cienciometría y los indicadores,
como el factor de impacto y el índice h, que buscan medir la influencia de las
publicaciones y de investigadores/as mediante las citas recibidas.
Como consecuencia de este devenir histórico, las prácticas de
evaluación académica han asumido de manera creciente un enfoque hacia la
estandarización internacional, impulsada por indicadores cuantitativos. Esto se
ha sustentado en herramientas propias de la bibliometría y se ha justificado en
una concepción universalista de la noción de excelencia académica, asociada
particularmente con un productivismo medido por cantidad de papers
publicados en revistas de alto impacto, principalmente en inglés y en el estilo
8
Revista Redes 61 – ISSN 1851-7072
de escritura IMRyD (Introducción, Metodología, Resultados y Discusión)
(Gareau, 1988; Schøtt, 1988; Sutz, 2020; Vessuri, 1987).
Sin embargo, este modelo ha sido fuertemente cuestionado a partir de
diversas declaraciones, manifiestos y documentos críticos. Entre los más
relevantes se destacan la Declaración de San Francisco (DORA) en 2012 y el
Manifiesto de Leiden en 2015 que promueven prácticas de evaluación
responsable tendientes a mejorar la calidad y la integridad de las
investigaciones mediante el uso adecuado de las métricas. Recientemente, en
2020 con el surgimiento de la ciencia abierta, se introdujo un nuevo paradigma
de evaluación que retoma la Recomendación de la UNESCO (2021)
enfatizando la necesidad del acceso gratuito al conocimiento científico y la
apertura de metodologías de investigación y procesos de evaluación (Araujo,
2025). En 2022 se firmó la Coalición para el Avance de la Evaluación de la
Investigación (CoARA) que marcó un cambio relevante porque exige a las
instituciones signatarias reformar activamente sus procedimientos de
evaluación, centrándose principalmente en la evaluación cualitativa y el uso
responsable de indicadores. Esta coalición busca ampliar la definición de
excelencia en la investigación y promueve la evaluación sostenida
principalmente por la valoración cualitativa, donde la revisión por pares
apoyada por el uso responsable de indicadores cuantitativos es central. Junto
con estas tendencias ha surgido el concepto de Evaluación Responsable de la
Investigación (RRA) que Muhonen y Himanen (2025) sintetizan en cuatro
aspectos principales: reconocimiento de la diversidad en actividades de
9
Revista Redes 61 – ISSN 1851-7072
investigación, resultados, carreras y disciplinas; utilización de métodos
cuantitativos solo para apoyar la evaluación cualitativa; eliminación del uso
inapropiado de métricas basadas en revistas y publicaciones; y, transparencia
sobre los criterios, datos y análisis utilizados en la evaluación.
Estas declaraciones no son las únicas, sino que, por el contrario,
abundan documentos, principios y manifiestos que buscan limitar las prácticas
evaluativas sostenidas cuantitativamente. En ese sentido, Invernizzi y Davyt
(2020) analizan un conjunto de siete documentos críticos de la evaluación
académica publicados entre 2010 y 2016 y sostienen que los primeros
cuestionamientos pueden rastrearse en la década de 1960 advirtiendo un
desplazamiento del centro de la discusión desde la revisión por pares hacia la
evaluación cuantitativa mediante indicadores bibliométricos. Por otro lado,
afirman que las críticas orientadas al deterioro de la calidad y relevancia de la
actividad científica han ido creciendo en los últimos años al compás de la
ampliación de la evaluación cuantitativa en la dinámica de producción de
conocimiento y de la actividad universitaria. En términos generales, las críticas
a la evaluación académica están centradas en los procesos de pares y las
evaluaciones cuantitativas. Sin embargo, los planteos en torno al uso de
indicadores bibliométricos ocupan mayor espacio y presentan más detalles en
la mayoría de los documentos recientes. Otro de los cuestionamientos
principales refiere a la aplicación de un estándar común y único tanto a las
diferentes áreas del conocimiento científico como a las fases de la
10
Revista Redes 61 – ISSN 1851-7072
investigación –de básico a aplicado– como a regiones del mundo con
diferentes grados de desarrollo científico.
Voces críticas desde la región latinoamericana
En América Latina numerosos autores han recuperado las críticas al modelo de
evaluación que prioriza la cantidad por sobre la calidad alegando que
promueven un sesgo hacia disciplinas más exactas y un enfoque hegemónico
que favorece a los países del Norte Global. Koch, Peña y Puppato (2025)
sostienen que a principios de 1979 la situación de la ciencia y la producción
científica latinoamericana estaba marcada por la falta de presencia
internacional de las publicaciones que se estaban generando en la región,
poniendo de manifiesto la necesidad de crear sistemas de información propios.
Vélez Cuartas et. al. (2022) también advierten sobre las consecuencias
negativas del paradigma internacional de evaluación para el universo de
revistas de América Latina y el Caribe porque impone métricas e indicadores
con criterios eurocéntricos y angloparlantes que no reflejan la realidad
latinoamericana y llevan a una dependencia de grandes bases de datos
gestionadas por oligopolios científico-tecnológico-editoriales. Así, la baja
presencia de la producción científica de la región en estos espacios no se debe
a una falta de calidad o cantidad, sino a mecanismos de invisibilización que
refuerzan las asimetrías y el poder de quienes dominan los circuitos de
producción.
11
Revista Redes 61 – ISSN 1851-7072
En términos de Sutz y Gras (2024) el núcleo de la crítica radica en cómo
los criterios cuantitativos y hegemónicos de los sistemas de evaluación
moldean las agendas científicas y las prácticas de investigación,
descontextualizando las investigaciones, limitando su pertinencia social y
relevancia local. Además, la hipervaloración del artículo en revistas de alto
impacto fomenta malas prácticas como la fragmentación de resultados y la
republicación de trabajos con cambios poco sustantivos, promoviendo un
productivismo vacío que prioriza la cantidad sobre la calidad o la significancia
real. En tercer lugar, señalan una devaluación y marginalización de otros
productos y procesos esenciales como los libros (fundamentales para el
desarrollo conceptual en muchas áreas), las revistas nacionales (clave para la
vinculación local), la docencia, la formación de recursos humanos, la extensión
y la gestión. En paralelo, mencionan los sesgos que genera la primacía del
inglés en la evaluación, dado que las grandes bases de datos bibliométricos
como Web of Science y Scopus invisibilizan la investigación publicada en otras
lenguas. Esto obliga a los investigadores a adoptar agendas y enfoques de la
ciencia hegemónica, lo que en Iberoamérica se traduce en una reducción de
publicaciones en español y portugués. Finalmente, advierten un internalismo,
afirmando que los sistemas de evaluación se centran en comunidades
disciplinarias y limitan la incorporación de actores externos que podrían
enriquecer las agendas con demandas sociales.
En definitiva, numerosos autores han señalado un conjunto de aspectos
que opacan la evaluación de la calidad intrínseca de la producción científica y
12
Revista Redes 61 – ISSN 1851-7072
la originalidad de las investigaciones (Aksnes, Langfeldt y Wouters, 2019;
Gingras, 2016; Ràfols y Stirling, 2021; Ràfols, 2019; Vessuri, Guédon y Cetto,
2013), así como la relevancia social en contexto (Sutz, 2020; Vélez Cuartas et
al., 2019), y los obstáculos que todo ello implica para el florecimiento de la
diversidad de disciplinas, lenguas y estilos de escritura, el desarrollo de las
agendas locales de investigación y la expansión de la vinculación con actores
extraacadémicos (Beigel y Gallardo, 2021). Se señala, además, la pérdida de la
interdisciplinariedad, creatividad y producción de conocimiento aplicable a
contextos locales (Beigel y Gomez, 2025).
Como corolario de este proceso crítico han surgido propuestas de
ciencia abierta que promueven vías alternativas para propiciar formas de
evaluación más responsables y con mayor adecuación al contexto situado de
producción de conocimientos y coherentes con tradiciones propias en la región
latinoamericana, tales como la extensión de la universidad con la sociedad o la
investigación social participativa (Beigel, 2022). En esta línea han surgido
iniciativas regionales, como el Foro Latinoamericano de Evaluación Científica
(FOLEC) de CLACSO, creado en 2019, que busca revisar los modelos de
evaluación hacia enfoques abiertos, colaborativos y democratizadores. En
Argentina, el CONICET adhirió a la Declaración de San Francisco sobre la
Evaluación de la Investigación (DORA) en 2022, comprometiéndose a mejorar
la evaluación y a no usar métricas basadas en revistas como sustituto de la
calidad individual. Otros hitos significativos para la ciencia abierta en Argentina
son la creación de la Biblioteca Electrónica de Ciencia y Tecnología (BECYT)
13
Revista Redes 61 – ISSN 1851-7072
en 2002, el Sistema Nacional de Repositorios Digitales (SNRD) en 2011, la Ley
N° 26.899 de 2013 sobre Repositorios Digitales Institucionales de Acceso
Abierto y la adhesión por parte del Comité Asesor en Ciencia Abierta y
Ciudadana del ex MINCyT (2022) a las recomendaciones de la UNESCO en
relación con la calidad, integridad, equidad, diversidad e inclusión, así como la
valoración de conocimientos locales y publicaciones multilingües.
Metodología, relevamiento y análisis empírico
Los resultados que presentamos en este trabajo corresponden a un
estudio nacional desarrollado a partir de un proyecto de mayor alcance,
denominado “Cartografía de la evaluación académica en Argentina. Estado del
arte y agenda de cambio institucional para una ciencia más abierta, inclusiva y
socialmente relevante” y financiado por la convocatoria PISAC 2022 Plan
Nacional de CTI, cuyo objetivo principal era construir una tipología de
modalidades de evaluación existente en las instituciones universitarias del país.
La metodología se estructuró mediante un diseño de investigación que
incluyó la aplicación de una encuesta autoadministrada, enviada a través del
software LimeSurvey, a funcionarios responsables de las áreas de
investigación pertenecientes al universo total de universidades nacionales de
gestión pública en Argentina. La encuesta se aplicó durante 2023 y 2024. De
las 60 encuestas enviadas obtuvimos 32 respuestas (53%): 29 de ellas de
forma completa y 3 incompletas. El análisis de los resultados se realizó en base
a un enfoque descriptivo dado el carácter exploratorio del estudio. El proyecto
14
Revista Redes 61 – ISSN 1851-7072
fue desfinanciado en el contexto de cambio político que Argentina experimentó
en 2023 y no pudimos completar el relevamiento; sin embargo, aún con los
sesgos que puede generar la tasa de respuesta consideramos que el análisis
es valioso en tanto nos brinda un panorama extendido de la situación para más
de la mitad de las universidades nacionales.
El cuestionario estaba conformado por 5 bloques y un total de 66
preguntas. El bloque 1 correspondiente a datos personales y demográficos:
edad, género, provincia de residencia, universidad de pertenencia, cargo
desempeñado, fecha de inicio en el cargo. El bloque 2 incluyó interrogantes
vinculados a la gestión de la investigación, tales como: área o secretaría
encargada, definición institucional de investigación y docente-investigador,
existencia de cargos específicos para estas actividades, entre otras. El bloque
3 abordó aspectos vinculados con la evaluación de los proyectos de
investigación: definición de las convocatorias, temáticas financiadas, normativa,
instrumento o herramienta de evaluación, aspectos más valorados e
indicadores o modos de evaluación, conformación de los comités evaluadores,
mecanismos de evaluación y publicación de resultados, entre otros. El bloque 4
estuvo orientado específicamente a la evaluación y valoración de las
trayectorias de investigación tanto en el caso de los concursos docentes como
en aquellos casos donde encontramos la existencia de grupos de investigación
por fuera de los proyectos e institutos. Finalmente, el Bloque 5 se concentró en
la evaluación de la función de investigación relacionada con las
15
Revista Redes 61 – ISSN 1851-7072
autoevaluaciones y las evaluaciones externas que realizan y de las que son
objeto las universidades nacionales.
Resultados y discusión
Organización y gestión de las convocatorias
Entre los datos demográficos relevados observamos que más de la mitad de
los gestores de investigación en las universidades nacionales son hombres y
pertenecen a un rango etario medio. Sin embargo, en las franjas más jóvenes y
superiores hay preeminencia de mujeres (Gráfico 1). La mayoría de estos
cargos son de reciente ingreso: el 53% de los gestores tienen una antigüedad
de 2 años o menos, el 31% entre 3 y 6 años, y sólo el 16% lleva 7 años o más
en el cargo.
Gráfico 1: Rango etario y género de los gestores de investigación en las
universidades nacionales. Porcentaje. N=32
Fuente: Elaboración propia en base a resultados de Encuesta PISAC, 2024
16
Revista Redes 61 – ISSN 1851-7072
El área o espacio de la universidad encargada de gestionar las convocatorias y
evaluar las actividades de investigación corresponde, mayoritariamente, a una
Secretaría de Investigación (72%) que asume diversas denominaciones:
Secretaría de Ciencia y Técnica, de Investigación y Posgrado, entre otras. En
menor medida, al Rectorado (19%) mientras que sólo el 6% declaró que cada
unidad académica define los términos de la evaluación y el 3% afirmó que esa
tarea le corresponde al Consejo Superior.
En relación con el espacio institucional donde se definen los criterios y
las bases de las convocatorias de los proyectos de investigación que las
universidades financian, el 75% de los casos manifestó que corresponde a la
Secretaría de Ciencia y Técnica dependiente del Rectorado. Es decir,
nuevamente, es la administración central de las universidades la que determina
estos aspectos.
Consultados sobre la frecuencia con la cual las bases de las
convocatorias se modifican o actualizan, la mayoría de los gestores que
respondieron la encuesta informaron que están definidas en una normativa
relativamente estable y cada gestión presenta cambios o adaptaciones en las
convocatorias que lanza, tal como muestra la siguiente Tabla 1.
17
Revista Redes 61 – ISSN 1851-7072
Tabla 1: Frecuencia en el cambio de las bases de las convocatorias.
Porcentaje. N=32
Frecuencia de cambio de convocatorias %
Definidos en una normativa estable y cada gestión actualiza las bases 65.6
En cada período de gestión institucional 9.4
En cada convocatoria 3.1
Se actualizan cada 2 años entre convocatorias 3.1
Otras respuestas 9.4
S/D 9.4
Total 100.0
Fuente: Elaboración propia en base a resultados de Encuesta PISAC, 2024
En relación con las temáticas de investigación que se financian, más de la
mitad de las instituciones (56%) contempla en sus convocatorias temas
generales y temas orientados. La frecuencia de las aperturas de las
convocatorias de proyectos de investigación es anual en el 53% de las
universidades que respondieron la encuesta. El resto de los casos declararon
diversas modalidades: bianual, trianual, ventanilla permanente o convocatorias
esporádicas.
18
Revista Redes 61 – ISSN 1851-7072
Tabla 2: Temáticas financiadas en las convocatorias. Porcentaje. N=32
Temáticas financiadas en convocatorias %
Temas generales y temas orientados 56.3
Temas generales 15.6
Temas orientados 12.5
Otras respuestas 9.4
S/D 6.3
Total 100.0
Fuente: Elaboración propia en base a resultados de Encuesta PISAC, 2024
Por otro lado, casi la totalidad de las universidades (84%) afirmó que disponen
de una normativa propia que reglamenta las convocatorias y sólo tres de ellas
carecen de esta herramienta. Un dato relevante entre las universidades que sí
poseen normativa es que la mayoría tiene una antigüedad de hasta 5 años, es
decir que han sido modificadas recientemente; aunque un 26% mantiene la
misma normativa desde hace 10 años.
19
Revista Redes 61 – ISSN 1851-7072
Gráfico 2: Antigüedad de las normativas en las universidades. Porcentaje.
N=27
Fuente: Elaboración propia en base a resultados de Encuesta PISAC, 2024
Casi la totalidad de las universidades participantes (88%) disponen de una
planilla o instrumento de evaluación que es revisada o actualizada en cada
nueva convocatoria (43%), anualmente (23%) o bianualmente (18%) y tres
casos respondieron otras opciones: cada cuatro años; cada uno o dos años;
cada diez años cuando la resolución de proyectos se modifica. Además, el 66%
de las universidades informó que esas grillas de evaluación están disponibles y
son de acceso público.
Criterios de evaluación de los proyectos de investigación
Respecto de los ítems que son considerados más relevantes al momento de
evaluar los proyectos, los y las gestores seleccionaron en primer lugar, la
originalidad y relevancia temática del proyecto; luego, la estructura y
coherencia interna; y, en tercer lugar, la trayectoria del director/a (Gráfico 3).
20
Revista Redes 61 – ISSN 1851-7072
Cabe destacar que la trayectoria del director/a se refiere a su paso por la
universidad tanto en cargos de investigación, gestión y otros espacios propios
del campo universitario. En definitiva, los tres aspectos más valorados están
fuertemente vinculados con criterios tradicionales e institucionales propios de
las universidades.
Gráfico 3: Aspectos más valorados en la evaluación de los proyectos que
financian las universidades. Porcentaje. N=30
Fuente: Elaboración propia en base a resultados de Encuesta PISAC, 2024
Otro interrogante de nuestro estudio estuvo orientado a conocer cuáles
son los aspectos más valorados sobre las personas a cargo de los proyectos.
Los resultados indican que, en primer lugar, se ponderan los antecedentes de
investigación; en segundo lugar, la categorización del director o directora en el
programa de incentivo a los docentes-investigadores (actualmente, PRINUAR),
y en tercer lugar su formación académica. La encuesta enviada aclaraba que
los antecedentes de investigación se referían a tareas realizadas en la
21
Revista Redes 61 – ISSN 1851-7072
universidad (dirección de proyectos, creación de grupos de trabajo o líneas de
investigación, participación en proyectos de cátedras, etc.). Teniendo en cuenta
esto observamos nuevamente que los y las encuestados/as ponderan en
primer lugar aspectos vinculados al propio espacio universitario. Además, se
destaca el lugar marginal que ocupó la “producción científica del director/a” que
fue seleccionada sólo por el 7% de quienes respondieron la encuesta.
Gráfico 4: Aspectos más valorados del director/a del proyecto.
Porcentaje. N=30
Fuente: Elaboración propia en base a resultados de Encuesta PISAC, 2024
Respecto de cuáles son los aspectos más valorados en relación con el
equipo de investigación de los proyectos, las respuestas obtenidas dieron como
resultado una tendencia similar a la anterior, aunque en este caso los
antecedentes de investigación fue el aspecto elegido en primer lugar por más
de la mitad de quienes respondieron la encuesta (Gráfico 6). A diferencia del
22
Revista Redes 61 – ISSN 1851-7072
ranking obtenido para el caso del director o directora del proyecto, en este
caso, el segundo lugar es ocupado por la producción científica del equipo de
investigación aunque con una proporción marcadamente menor. En tercer
lugar, fueron seleccionados dos ítems: categoría en el programa de incentivos
y formación académica.
Gráfico 5: Aspectos más valorados del equipo de investigación del
proyecto. Porcentaje. N=30
Fuente: Elaboración propia en base a resultados de Encuesta PISAC, 2024
Criterios de selección de los comités o pares evaluadores
La mayoría de las universidades considera dificultosa la tarea de
conformar los comités evaluadores (84% de quienes respondieron la encuesta),
dada la sobrecarga de tareas de evaluación en diferentes espacios y
actividades. En cuanto a la modalidad de la evaluación, el 72% de las
instituciones lo hace de modo virtual lo cual supone una tarea individual y
23
Revista Redes 61 – ISSN 1851-7072
personal que imposibilita un intercambio o discusión de criterios entre los
evaluadores/as; mientras que el 13% lo desarrolla de un modo mixto (virtual y
presencial) y sólo tres universidades lo realiza de manera totalmente
presencial.
Interrogados sobre los aspectos más valorados al momento de
conformar los comités evaluadores los tres primeros ítems elegidos fueron: que
pertenezcan a una institución universitaria diferente a la que convoca y evalúa;
en segundo lugar, la categoría que detentan en el programa de incentivos a los
docentes-investigadores y en ese sentido las universidades adoptan el criterio
de este programa que habilita sólo a quienes detentan categoría I y II
(categorías superiores) para evaluar proyectos; y, en tercer lugar, que
compartan la disciplina o área temática del proyecto que evalúan. Los tres
principales criterios valorados en el proceso de selección de pares evaluadores
responden a principios o reglas tradicionalmente universitarias de evaluación:
extrainstitucionalidad, categoría en el Programa de categorización docente e
interdisciplinariedad.
24
Revista Redes 61 – ISSN 1851-7072
Gráfico 6: Aspectos más valorados en la conformación de los comités
evaluadores de los proyectos. Porcentaje. N=30
Fuente: Elaboración propia en base a resultados de Encuesta PISAC, 2024
Ante la pregunta sobre si existen instancias de capacitación para los y
las evaluadores/as, el 72% declaró que cuentan con algún tipo de orientación
ya sea reuniones, tutoriales u otro.
25
Revista Redes 61 – ISSN 1851-7072
Gráfico 7: Existencia de orientación para los/as evaluadores/as.
Porcentaje. N=32
Fuente: Elaboración propia en base a resultados de Encuesta PISAC, 2024
La tarea de evaluación no es rentada en la mayoría de las
universidades: el 34% afirmó que no es rentada “a secas” y una proporción
similar sostuvo que, si bien no es rentada, constituye un aspecto valorado en la
trayectoria académica de quienes realizan la evaluación. Sólo el 16% informó
que es una actividad rentada en sus universidades y el 9% de las instituciones
financian viáticos para los y las evaluadores/as.
26
Revista Redes 61 – ISSN 1851-7072
Gráfico 8: Tipo de remuneración de la tarea de evaluación. Porcentaje.
N=32
Fuente: Elaboración propia en base a resultados de Encuesta PISAC, 2024
Respecto del acceso a la identidad de los evaluadores y evaluadoras
durante el proceso de evaluación, en el 66% de los casos es reservada: 47%
de las instituciones mantiene el anonimato durante todo el proceso y 19% de
ellas permite el conocer el nombre de los y las evaluadores luego de publicar
los resultados de la evaluación (Tabla 3). Ante la consulta sobre si los
dictámenes de las evaluaciones son notificados a los postulantes o difundidos
de manera pública, el 81% informó que son enviados a las personas
involucradas y el 12% que son publicados en sitios web institucionales.
27
Revista Redes 61 – ISSN 1851-7072
Tabla 3: Anonimato de los y las evaluadores/as. Porcentaje. N=32
Anonimato en las evaluaciones %
Anónimos durante todo el proceso 46.9
No son anónimos 28.1
Anónimos durante la evaluación y luego de la publicación de resultados se puede acceder
a sus nombres 18.8
S/D 6.3
Fuente: Elaboración propia en base a resultados de Encuesta PISAC, 2024
Sobre la modalidad de evaluación de los informes finales de los
proyectos ya ejecutados, la mayor parte de las universidades declaró hacerlo a
través de una evaluación cualitativa a cargo de una comisión de expertos
(62%). Un 12% prioriza indicadores de impacto social del proyecto, el 9%
realiza una evaluación centrada en aspectos formales (como rendición correcta
de cuentas, cumplimiento de cuestiones administrativas, etc.) y el 6% considera
la formación de recursos humanos. Entre las respuestas no identificamos la
incorporación en los procesos de evaluación de actores extra universitarios o
de beneficiarios de los proyectos.
28
Revista Redes 61 – ISSN 1851-7072
Gráfico 10: Criterios de evaluación de los informes finales de los
proyectos. Porcentaje. N=32
Fuente: Elaboración propia en base a resultados de Encuesta PISAC, 2024
Reflexiones finales
Si tal como afirma Luis Sanz Menéndez “la evaluación es a la ciencia
como la democracia a nuestra sociedad” (2014:138) cabe preguntarse ¿qué
tipo de evaluación predomina en las universidades?, ¿para qué, para quién y
bajo qué criterios? Estas preguntas orientaron el presente trabajo que se
propuso conocer las prácticas evaluativas vigentes en el sistema universitario,
específicamente vinculadas con las propuestas o proyectos de investigación
que las instituciones financian no sólo para describirlas sino, además, para
valorar las implicancias e impactos del modelo hegemónico de evaluación en
las instituciones universitarias del país.
29
Revista Redes 61 – ISSN 1851-7072
Entre las modalidades de gestión de las convocatorias, destacamos que
la mayoría de los gestores/as de investigación en las universidades nacionales
son varones de mediana edad y han asumido recientemente (dos años o
menos de antigüedad en el cargo). El espacio encargado de gestionar las
convocatorias corresponde a la administración central (Rectorado) a través de
una secretaría y lo mismo sucede con la normativa que regula y define las
bases de las convocatorias. Las temáticas financiadas incluyen
mayoritariamente temas generales y orientados y la frecuencia de las
convocatorias es mayoritariamente anual. Casi la totalidad de los casos
dispone de una grilla o herramienta de evaluación, a excepción de dos
instituciones las cuales evalúan a través de criterios ad hoc elaborados en cada
convocatoria; para el resto de los casos, los instrumentos de evaluación (y sus
criterios) son revisados en cada convocatoria y en su mayoría son de acceso
público.
En relación con los criterios de evaluación de los proyectos, así como de
selección de los pares evaluadores, hemos podido observar que las
universidades nacionales aplican/replican reglas, principios y criterios
fuertemente vinculados al propio desarrollo histórico-estructural del campo
universitario argentino. Estudios previos demuestran que en nuestro país se
han ido configurando dos sistemas de categorización de trayectorias: uno,
utilizado para evaluar al personal investigador del CONICET que ha priorizado
la productividad y el factor de impacto o la indexación de las revistas científicas
en línea con los estándares internacionales; y, otro, sostenido en el Programa
30
Revista Redes 61 – ISSN 1851-7072
de Incentivos a los docentes investigadores (actualmente PRINUAR) que
evalúa al personal docente de las universidades y ha permitido valorar mayor
diversidad de productos y actividades asociadas con las funciones misionales
de la universidad. Este último programa, creado en 1993, fue diseñado
principalmente por los rectores de las universidades nacionales nucleados en el
Consejo Interuniversitario Nacional (CIN) y eso fue dando lugar a un modelo
original, a un estándar de producción científica propiamente universitario y
diferenciado del CONICET. De esta manera, la autonomía y autarquía propia
de las universidades han constituido históricamente la base de la resistencia a
la implementación de un modelo de evaluación externo y la materialización de
modalidades, sistemas y prácticas de evaluación propiamente universitarias
que tienden a ser más permeables a la diversidad de estilos de producción y
circulación del conocimiento (Beigel y Bekerman, 2019).
Los resultados que presentamos en este trabajo nos han permitido
advertir una continuidad y similitudes con aquellos hallazgos previos,
vinculados a la evaluación de trayectorias, demostrando que el campo
universitario mantiene reglas propias que operan también en la evaluación de
los proyectos o propuestas de investigación. En ese sentido, los principales
aspectos considerados prioritarios en las instancias de evaluación de las
propuestas de investigación están vinculados con criterios típicamente
universitarios: originalidad y relevancia temática; estructura y coherencia
interna; trayectoria del director o directora en la universidad. En línea con esto,
los tres aspectos más valorados en relación con la evaluación del director del
31
Revista Redes 61 – ISSN 1851-7072
proyecto son: antecedentes de investigación en la universidad; categorización
en el Programa de incentivos a los docentes-investigadores y formación
académica. La producción científica del director ocupa un lugar marginal como
criterio relevante y los tres aspectos ponderados están alejados de los
estándares de producción globales o la productividad medida en cantidad de
papers y su inclusión en índices mainstream.
Respecto de los aspectos más valorados del equipo de investigación de
los proyectos, más de la mitad de las respuestas indicó en primer lugar los
antecedentes de investigación, los cuales incluyen la dirección de proyectos, el
establecimiento de líneas de trabajo, investigaciones de cátedra, de extensión,
de vinculación, etc., es decir, actividades propiamente docentes que no se
restringen específicamente a la producción científica indexada en bases
internacionales.
Lo mismo sucede con los criterios que predominan al momento de
seleccionar a los y las evaluadores/as donde se valora fuertemente la
pertenencia a otra universidad, la categoría en el Programa de incentivos y la
cercanía temática/disciplinar. Esto indica, además, que ciertos aspectos
promovidos por el movimiento reciente de ciencia abierta permanecen ajenos a
la evaluación universitaria. Nos referimos, por ejemplo, al componente
extradisciplinar o la incorporación de beneficiarios/as potenciales del proyecto
en el proceso de evaluación.
La práctica evaluativa en las universidades se desarrolla
mayoritariamente bajo una modalidad virtual, lo cual supone una tarea
32
Revista Redes 61 – ISSN 1851-7072
individual y en solitario que no habilita el intercambio, debate o tensiones en
relación con la calidad y excelencia que podrían surgir en una reunión de
comité de evaluadores/as. Además, el 47% de las instituciones consultadas
mantiene el anonimato de los y las evaluadores/as durante todo el proceso.
Ambas modalidades van a contramano de las recientes tendencias a nivel
global y regional, cristalizadas en espacios como CoAra y otras declaraciones
que revalorizan la evaluación cualitativa de pares y la apertura de la
información y transparencia a lo largo del proceso evaluativo.
Respecto de la evaluación ex post, es decir, de los informes finales
presentados luego de ejecutados los proyectos, la mayoría de los casos
informó que está a cargo de un comité de expertos de la propia universidad que
utiliza criterios cualitativos para hacer la evaluación. Esto indica que se
sostiene en una práctica endogámica, internalista, centrada en la evaluación de
pares que comparten las lógicas y reglas del campo académico manteniendo a
los actores extrauniversitarios ajenos al proceso de evaluación.
Podemos afirmar, entonces, que el modelo de evaluación
homogeneizante, productivista y bibliométrico que se ha instalado fuertemente
en el Norte Global no ha calado en el sistema universitario argentino, sino que,
por el contrario, las instituciones continúan ejerciendo una fuerte autonomía
que resulta clave en la gobernanza de la evaluación. Esa frontera institucional
que caracterizamos como poco porosa limita también la incorporación de
criterios de evaluación que podrían orientar las prácticas hacia instancias
33
Revista Redes 61 – ISSN 1851-7072
inclusivas, abiertas a la comunidad, multifacéticas, alineadas con las recientes
propuestas y principios que están surgiendo en la región y en el mundo.
En definitiva, la evaluación de los proyectos de investigación financiados
por el conjunto de las universidades nacionales de gestión pública está
fuertemente sostenida en reglas históricas propias del campo universitario.
Prevalecen criterios vinculados a las tareas docentes y al único programa de
categorización de trayectorias que actualmente se denomina PRINUAR, pero
cuyo origen se remonta a mediados de los noventa. Junto con este programa
fueron surgiendo criterios propios de evaluación en las universidades que se
han mantenido relativamente estables y refractarios a las modificaciones
externas. Esta autonomía institucional mantiene un sistema de evaluación con
características propias y al mismo tiempo limita las posibilidades de cambio ya
sea para incorporar patrones del paradigma dominante o de las nuevas
perspectivas críticas.
34
Revista Redes 61 – ISSN 1851-7072
Referencias bibliográficas
Aksnes, D. W., Langfeldt, L. y P. Wouters (2019), “Citations, citation indicators,
and research quality: An overview of basic concepts and theories”, SAGE
Open, 9, (1). https://doi.org/10.1177/2158244019829575
Araujo, S. (2025), “Evaluación institucional, investigación y ciencia abierta en
Argentina”, en L. Rovelli y P. Vommaro (coords.), Evaluación académica y
científica en transición: Configuraciones institucionales, prácticas
evaluativas y lineamientos de cambio en Argentina, CLACSO, pp. 63-110.
Beigel, F. y S. Gomez (2025), “Uruguay: a case of multi-level research
assessment, evaluation burn-out and an autonomist vocation” (Publicación
anticipada/preprint). Disponible en:
https://www.researchgate.net/publication/394435677_Uruguay_a_case_of
_multi-level_research_assessment_evaluation_burn-
out_and_an_autonomist_vocation
Beigel, F. (2022), “El proyecto de ciencia abierta en un mundo desigual”,
Relaciones Internacionales, 50, pp. 163–181.
Beigel, F. y O. Gallardo (2021), “Productividad, bibliodiversidad y bilingüismo en
un corpus completo de producciones científicas”, Revista Iberoamericana
de Ciencia, Tecnología y Sociedad (CTS), 16, (46), pp. 41–71.
Beigel, F. y F. Bekerman (2019), Culturas evaluativas: Impactos y dilemas del
Programa de Incentivos a Docentes-Investigadores en Argentina (1993–
2018), Buenos Aires, CLACSO - IEC CONADU.
35
Revista Redes 61 – ISSN 1851-7072
Beigel, F., Gallardo, O., y F. Bekerman (2018), “Institutional expansion and
scientific development in the periphery. The structural heterogeneity of
Argentina's academic field (1983-2015)”, Minerva, A Review of Science,
Learning and Policy, 56, (1), pp. 1-28.
Gareau, F. H. (1988), “Another type of third world dependency: The social
sciences”, International Sociology, 3, (2), pp. 171–178.
https://doi.org/10.1177/026858088003002005
Gingras, Y. (2016), Bibliometrics and research evaluation: Uses and abuses,
Massachusetts, MIT Press.
Invernizzi, N. y A. Davyt (2020), “Críticas recientes a la evaluación de la
investigación: ¿vino nuevo en odres viejos?” Redes. Revista de Estudios
Sociales de la Ciencia y la Tecnología, 25, (49), pp. 233–252.
https://doi.org/10.48160/18517072re49.78
Koch, T., Peña Pallauta, P. y L. Puppato (2025), “De la evaluación global en la
realidad local. El papel de los índices internacionales en la organización
de la ciencia en Chile y América Latina”, en del Río Riande, G. y P.
Pantaleo (eds.) Editar, publicar y financiar ciencia en América Latina,
Córdoba, Paideia Editorial.
Muhonen, R., y L. Himanen (2025), “Evaluation as a source of unhappiness in
academia—unpacking the boundaries of responsible research
assessment”, Research Evaluation, 34, (3).
https://doi.org/10.1093/reseval/rvaf034
36
Revista Redes 61 – ISSN 1851-7072
Prati, M. (2024), El Programa de Incentivos: Formulación, implementación y
efectos de una política universitaria en la Argentina, La Plata, Universidad
Nacional de La Plata. https://doi.org/10.24215/978-950-34-2459-9
Ràfols, I. (2019), “S&T indicators in the wild: Contextualization and participation
for responsible metrics”, Research Evaluation, 28, (1), pp. 7–22.
https://doi.org/10.1093/reseval/rvy030
Ràfols, I. y A. Stirling (2021), “Designing indicators for opening up evaluation:
Insights from research assessment”, en P. Dahler-Larsen (Ed.), A
research agenda for evaluation, Edward Elgar Publishing, pp. 165–194.
https://doi.org/10.4337/9781839101083
Rushforth, A. (2025), “Beyond impact factors? Lessons from the Dutch attempt
to transform academic research assessment”, Research Evaluation, 34.
(Publicación anticipada/preprint).
Salatino, M. y A. Macedo (2022), “El acceso abierto como instrumento para la
transformación de la evaluación académica”, Tramas y Redes: Revista del
Consejo Latinoamericano de Ciencias Sociales, 3, pp. 349–358.
https://doi.org/10.54871/cl4c317a
Salatino, M. y O. Gallardo (2020), “Cartografías de la ciencia política argentina:
Un análisis de sus espacios de producción/circulación”, Civilizar: Ciencias
Sociales y Humanas, 20, (39), pp. 99-114.
https://doi.org/10.22518/jour.ccsh/2020.2a06
37
Revista Redes 61 – ISSN 1851-7072
Sanz-Menéndez, L. (2014), “La evaluación de la ciencia y la investigación /
Evaluation of science and research”, Revista Española de Sociología, 21,
pp. 137-148.
Schøtt, T. (1988), “International influence in science: Beyond center and
periphery”, Social Science Research, 17, (3), pp. 219-238.
https://doi.org/10.1016/0049-089X(88)90014-2
Sutz, J., y N. Gras (2024), “La evaluación de la investigación: no cambiar,
cambiar, cómo cambiar”, Integración y Conocimiento: Revista del Núcleo
de Estudios e Investigaciones en Educación Superior del Mercosur, 13,
(1), pp. 109-135.
Sutz, J. (2020), “Redefining the concept of excellence in research with
development in mind”, en E. Kraemer-Mbula, R. Tijssen, M. L. Wallace, y
R. McLean (Eds.), Transforming research excellence: New ideas from the
global south, Cape Town, African Minds, pp. 19–38.
Vélez-Cuartas, G., Uribe-Tirado, A., Restrepo-Quintero, D., Ochoa-Gutierrez,
J., Pallares, C., Gómez-Molina, H. F., y M Suárez-Tamayo (2022), “El
imperativo de evaluar la investigación científica y humanística de manera
responsable”. Memorias de eventos del Centro Editorial del Rosario, 5,
pp. 20-33.
Vélez Cuartas, G., Uribe-Tirado, A., Restrepo-Quintero, D., Ochoa-Gutierrez, J.,
Pallares, C., Gómez-Molina, H. F., Suárez-Tamayo, M., y J. Calle (2019),
“Hacia un modelo de medición de la ciencia desde el sur global: Métricas
38
Revista Redes 61 – ISSN 1851-7072
responsables”, Palabra Clave, 8, (2), e068.
https://doi.org/10.24215/18539912e068
Vessuri, H., Guédon, J. C., y A. M. Cetto (2013), “Excellence or quality? Impact
of the current competition regime on science and scientific publishing in
Latin America and its implications for development”, Current Sociology,
62, (5), pp. 647-665. https://doi.org/10.1177/0011392113512839
Vessuri, H. (1987). “The social study of science in Latin America”, Social
Studies of Science, 17, (3). https://doi.org/10.1177/030631287017003006
Artículo recibido el 3 de septiembre de 2025
Aprobado para su publicación el 11 de diciembre de 2025