Con fecha de 26 de noviembre se han publicado los criterios específicos para la evaluación de los sexenios de investigación mediante Resolución de 12 de noviembre de 2019, de la Comisión Nacional Evaluadora de la Actividad Investigadora (BOE, 2019).
Ante esta nueva convocatoria nos preguntamos: ¿Qué cambios hay en relación a la convocatoria de 2017 y 2018? ¿Son más justos los criterios de 2019? ¿Se avanza o hay un camino de ida y vuelta sin avanzar?
Cuestión 1. Subcampo 7.2 Ciencias de la Educación.
Convocatoria | ||
2017 | 2018 | 2019 |
Después de la publicación de la Resolución del 1 de diciembre de 2017, se informa de que se crea el Comité Asesor 7 (2): Ciencias de la Educación, en concreto el 6 de marzo de 2018 | Ya aparece el subcampo 7.2. Ciencias de la Educación | Se mantiene el subcampo 7.2. Ciencias de la Educación |
Cuestión 2. El número de autores por publicación.
Se especifica algo más, pero siempre en cumplimiento de la línea general de no especificar con demasiado detalle (lo que aumentaría la seguridad y la fiabilidad, pero aumentaría la probabilidad de recursos) y, finalmente, dar mucha manga ancha a las decisiones subjetivas de los miembros de la comisión:
Convocatoria | ||
2017 | 2018 | 2019 |
El número de autores de una aportación deberá estar justificado por el tema, su complejidad y su extensión | El número de autores de una aportación deberá estar justificado por el tema, su complejidad y su extensión. Como principio, general un número elevado de autores implicará la aplicación de un factor de reducción en la valoración del trabajo si sus exigencias de contenido y metodología no lo justifican | Se mantiene igual que en la convocatoria 2018 Se mantiene la imprecisión, criterios como contenido y metodología que no aparecían en 2017 |
Cuestión 3. Cambio en la redacción.
Son bases de datos referenciales, y en realidad SSE y SE son los dos componentes de JCR. Por tanto, se trataría más de un error de redacción.
Convocatoria | ||
2017 | 2018 | 2019 |
Los artículos publicados en revistas de reconocida valía, aceptándose como tales las incluidas en los listados por ámbitos científicos del «Journal Citation Reports (Social Sciences Edition)» y «Journal Citation Reports (Science Edition)» |
Se mantiene
| Los artículos publicados en revistas de reconocida valía, aceptándose como tales las incluidas en los listados por ámbitos científicos del «Journal Citation Reports (JCR), Social Sciences Edition y Science Edition» |
Cuestión 4. Posición de la revista en SJR.
Se vuelve al criterio de 2017, esto se ajusta mejor a la fluctuación Q2-Q3, tal vez para amortiguar la entrada de más revistas en educación en SCOPUS, y por tanto, en SJR o que haya revistas que en SCOPUS presentan valores mejores que otras que están en JCR pero con valores inferiores a otras en el SJR (son hipótesis).
Se continua en la misma línea de especificar con demasiado detalle, lo que vuelve a dejar la interpretación en manos de los miembros de la comisión, vuelve a la confusión de qué es “posición relevante”:
- ¿En relación a todas las revistas de la base o también a las revistas españolas? creo que de manera injusta se mantiene la diferencia entre JCR y SJR, que a fin de cuentas son dos empresas en pura y dura competición
- ¿Por qué no considerar al mismo nivel SJR como JCR?
- ¿Por qué en un ámbito de investigación española en ciencias sociales se privilegia a la base de datos que peor recoge la producción de ciencias sociales, que es menos sensible a la producción en otros idiomas (aunque haya corregido eso un poco en la última década?
- ¿Sigue habiendo complejos de “ser más científicos” o ser más “duros”, de parecernos más a las ciencias naturales?
Lo que queda claro es que esta cuestión está pendiente por quien hace esta normativa, reconocer el esfuerzo que representa para muchas revistas estar en SCOPUS y la imposibilidad de entrar en JCR; por decisiones puramente empresariales-“ese mercado ya lo tenemos cubierto”-, que no científicas, o de mantenerse en posiciones relevantes sencillamente porque se compite contra empresas multinacionales en un negocio editorial de muchos millones de euros, aunque recojan mucho peor nuestra realidad social.
Hasta que llegue el momento en esto es fundamental que citemos nuestras revistas, si queremos sobrevivir, conscientes de que hay tentaciones como el Self-Citation o Stacking (Davis, 2018) o malas prácticas como los Citation Cartel (Davis, 2012). Todas ellas rompen con las reglas de juego justas y en las que nosotros y nosotras como autoras nos vemos perjudicados cuando se dan dentro del mundo editorial.
Convocatoria | ||
2017 | 2018 | 2019 |
Asimismo (sin que necesariamente se valoren por igual), los artículos publicados en revistas situadas en posiciones relevantes de los listados de Scimago Journal Rank (SJR), y en «Arts and Humanities Citation Index» de la «Web of Science». | Asimismo (sin que necesariamente se valoren por igual), los artículos publicados en revistas situadas en posiciones relevantes (Q1 y Q2) de los listados de Scimago Journal Rank (SJR), y en «Arts & Humanities Citation Index» de la «Web of Science». | Asimismo (sin que necesariamente se valoren por igual), los artículos publicados en revistas situadas en posiciones relevantes de los listados de «Scimago Journal Rank (SJR). |
Se elimina: «Arts and Humanities Citation Index» de la «Web of Science».
Cuestión 5. Incorporación de indicios de calidad: sello de calidad FECYT y calidad del ranking Dialnet Métricas.
Una demanda razonable el sello de calidad FECYT y “curiosa” la incorporación del Dialnet Métricas, pero pone en valor la importancia de este tipo de medidas que arrojan otros indicios de calidad para las revistas, aunque resulta “curiosa” la admisión de un sistema que aún está en pruebas, en contraste con la “falta de aprecio institucional” que tuvo que sufrir INRECS. Ahora bien, estos indicios están “siempre bajo el criterio de la comisión”.
La duda está servida: ¿Qué es “valorar también, pero nunca del mismo modo”…? un criterio, pero inespecífico ¿Se aprecia el intento de gradación que hizo la FECYT, que ha sido tan criticado por los o las expertas (Ruíz Corbella y Galán, 2019)?
Convocatoria | ||
2017
| 2018 | 2019 |
Se podrán valorar también, pero nunca del mismo modo, revistas cuya inclusión en bases de datos especializadas constituya, a juicio del Comité asesor, un claro indicio de calidad. En todo caso, la mera indización o indexación de una publicación en una base de datos sin que incluya índices de gradación no es en sí misma un indicio de calidad |
Se mantiene
|
Se mantiene
|
Aquí un matiz en el apéndice de las convocatorias sobre la calidad de los medios de difusión: el sello de calidad FECYT pasa de ser un criterio general a un criterio específico dentro del campo 7.1, 7.2, 9, 10 y 11. no afecta a todos los campos como antes, esto tiene su sentido en las revistas de ciencias sociales, puesto que en las de ciencias naturales, etc., puede llegar a ser algo más “anecdótico”, al tener sistemas comunes de evaluación, publicación y evaluación, a diferencias de las ciencias sociales.
Convocatoria
| ||
2017 | 2018 | 2019 |
Asimismo, se tendrá especialmente en cuenta la indexación de las revistas en las bases de datos internacionales más acreditadas que las categoricen por índice de impacto y difusión. Podrán valorarse, a juicio de la comisión, aquellas revistas que cuenten con el sello de calidad de la FECYT | Asimismo, se tendrá especialmente en cuenta la indexación de las revistas en las bases de datos internacionales más acreditadas que las categoricen por índice de impacto y difusión. Podrán valorarse, a juicio de la comisión, aquellas revistas que cuenten con el sello de calidad de la FECYT | Asimismo, se tendrá especialmente en cuenta la indexación de las revistas en las bases de datos internacionales más acreditadas que las categoricen por índice de impacto y difusión |
Cuestión 6. Scholarly Publishers Indicators (SPI).
Se mantiene igual el criterio del SPI para libros y capítulos de libro.
Cuestión 7. Desaparece la referencia a revistas electrónicas.
Como es lógico las revistas electrónicas asumen el estatus en esta norma de revista, no como antes que era por añadidura y en criterio de “revista en papel”. Era un criterio que no reflejaba la realidad de la comunicación y difusión científica, que hayan tenido que pasar casi 25 años desde la creación en España de la primera revista electrónica (Aliaga, 2019) para que haya por fin un reconocimiento oficial de que hay que evaluar el contenido e impacto de las revistas de investigación, y no su soporte o formato exterior, es algo bastante sorprendente, y denota una resistencia institucional al cambio digna de estudio.
Convocatoria | ||
2017 | 2018 | 2019 |
Las revistas electrónicas estarán sujetas a los mismos criterios que las demás
(Aparecía 14 veces electrónicas asociada a revistas)
| Las revistas electrónicas estarán sujetas a los mismos criterios que las demás
(Aparecía 14 veces electrónicas asociada a revistas)
| (No aparece ya). |
Algunas reflexiones
Esta nueva convocatoria de sexenios de investigación 2019 implica:
- Se consolida el subcampo 7.2.
- Se vuelve al criterio 2017 en SJR “posiciones relevantes”. Es inespecífico, pero puede ser el intento por solucionar desajustes del criterio Q1-Q2 de 2018 aunque puede generar problemas de disparidad en la valoración.
- Se incluye como criterio específico el sello de calidad FECYT, y también se considera el ranking Dialnet Métricas como indicios de calidad, a pesar de su corta evolución y de la inestabilidad de sus resultados.
- SPI se consolida como un indicador de calidad, conectado a posición y orientación a resultados de investigación, ampliando el panorama de “artículos de revista” que dominó la evaluación de sexenios durante mucho tiempo.
- Se habla de revistas y se obvia ya si se trata de revistas electrónicas. La norma se ajusta a la realidad.
Creemos que son criterios con “buena intención” o “de manga más larga para la comisión”, es decir, aunque imprecisos parece que intentan captar la complejidad y diversidad de nuestro campo, pero se mueven entre un ir y venir hacia el mismo lugar que no ayuda a avanzar en una mayor claridad y justicia en la evaluación. Queda, por tanto, trabajo por hacer.
El hecho de que no hay duda de que la creación del subcampo 7.2 de Ciencias de la Educación puede traer mayor transparencia y ajuste de la evaluación a los investigadores e investigadoras que se someten evaluación su actividad científica, la cuestión no queda del todo clara, todavía se mantienen ciertas sombras.
Hay camino por recorrer para contar con criterios más transparentes y justos (Galán, 2017b). Ya vimos en la convocatoria de 2017 el impacto positivo que tuvo la creación del comité asesor y su composición más acorde a los perfiles de ciencias de la educación, no parece que fue así para el 2018. Veremos ahora con la nueva convocatoria.
Todo esto es fruto de la capacidad de aunar esfuerzos colectivos y del trabajo de muchos compañeros y compañeras de Educación, algo impagable por la importancia que tiene reconocer el trabajo de calidad de todo investigador e investigadora, de modo que los sistemas utilizados sean justos, transparentes y de calidad (Galán, 2017a). No obstante, como nos recuerda Galán (2018) hay preguntas y cuestiones pendientes, lo que nos debe animar a continuar apoyando y contribuyendo, cada uno y cada una desde donde considere, si así lo entiende, por reclamar las mejoras necesarias.
Nota: esperamos no habernos dejado nada o haber realizado algún error. De todos modos, cualquier cosa consultad el BOE que es el documento oficial.
Referencias bibliográficas:
Aliaga, F. (2019). Evolución de la edición científica en España: dos décadas comunicando investigación. Aula Magna 2.0. [Blog]. Recuperado de: http://cuedespyd.hypotheses.org/6887
BOE (2017). Resolución de 23 de noviembre de 2017, de la Comisión Nacional Evaluadora de la Actividad Investigadora, por la que se publican los criterios específicos aprobados para cada uno de los campos de evaluación. Recuperado de: https://www.boe.es/diario_boe/txt.php?id=BOE-A-2017-14085
BOE (2018). Resolución de 14 de noviembre de 2018, de la Comisión Nacional Evaluadora de la Actividad Investigadora, por la que se publican los criterios específicos aprobados para cada uno de los campos de evaluación: https://www.boe.es/diario_boe/txt.php?id=BOE-A-2018-16138
BOE (2019). Resolución de 12 de noviembre de 2019, de la Comisión Nacional Evaluadora de la Actividad Investigadora, por la que se publican los criterios específicos aprobados para cada uno de los campos de evaluación. Recuperado de: https://www.boe.es/diario_boe/txt.php?id=BOE-A-2019-17008
Davis, P. (2012). The Emergence of a Citation Cartel. The Scholarly Kitchen. [Blog]. Recuperado de: https://scholarlykitchen.sspnet.org/2012/04/10/emergence-of-a-citation-cartel/
Davis, P. (2018). Impact Factor Denied to 20 Journals for Self-Citation, Stacking. The Scholarly Kitchen. [Blog]. Recuperado de: https://scholarlykitchen.sspnet.org/2018/06/27/impact-factor-denied-20-journals-self-citation-stacking/
Galán, A. (2017a). Sobre sexenios y acreditaciones: un nuevo retroceso. Aula Magna 2.0. [Blog]. Recuperado de: http://cuedespyd.hypotheses.org/2577
Galán, A. (2017b). Carbón de sexenios por Navidad: Aula Magna 2.0 ha hablado con los Reyes Magos de la ANECA. Aula Magna 2.0. [Blog]. Recuperado de: http://cuedespyd.hypotheses.org/3317
Galán, A. (2018). El reto del nuevo campo “Ciencias de la Educación” en la CNEAI. Aula Magna 2.0. [Blog]. Recuperado de: https://cuedespyd.hypotheses.org/3573
Ruíz Corbella, M. y Galán, A. (2019). El ranking de la FECYT frente a las revistas con Sello de Calidad: una herramienta en la dirección equivocada Aula Magna 2.0. [Blog]. Recuperado de: http://cuedespyd.hypotheses.org/6551
Cómo citar esta entrada:
Sánchez-Santamaría, J. y Aliaga, F. (2019). Sexenios de Investigación en el Subcampo 7.2 en la CNEA: ¿En qué punto estamos? ¿Se ha avanzado o hay un camino de ida y vuelta a cuestiones por resolver?. Aula Magna 2.0. [Blog]. Recuperado de: https://cuedespyd.hypotheses.org/?p=7015
Tomado de Aula Magna 2.0 con permiso de sus editores
No hay comentarios:
Publicar un comentario