Por Antonio Bolívar
Catedrático de Didáctica y Organización Escolar de la Univ. de Granada
Editor de la Revista “Profesorado. Revista de Curriculum y Formación del Profesorado”
“The medium is the message” es el conocido aforismo acuñado por Marshall McLuhan, hace ya casi medio siglo, para significar que la forma de un medio ya incrusta cualquier mensaje que transmita, por lo que el medio condiciona simbólicamente cómo se percibe un mensaje. Sugiero aplicarlo, analógicamente, a lo que está sucediendo en el mundo académico de las publicaciones científicas en revistas. Uno contempla con un cierto estupor cómo, desde diferentes frentes no importa tanto el contenido, originalidad o relevancia de lo que publica, cuanto el medio que se publica y, particularmente, su indexación. La agencia evaluadora a nivel nacional (ANECA), tanto para las acreditaciones como para los sexenios, no tiene que leer ningún trabajo, sólo la indexación, particularmente el cuartil JCR de la revista. Lo que cuenta es dónde se publica, no la relevancia de lo que se haya publicado. Para eso estuvieron ya los revisores de la revista.
Ante esto, que “clama al cielo”, por fin una sentencia del Tribunal Supremo (TS 968/2018) del pasado 12 de junio obliga a leer los trabajos presentados para la evaluación de la investigación (“sexenios”), en lugar de limitarse a ver si la revista tiene un impacto reconocido o no. Como comenta la sentencia Emilio Delgado (2018), “la calidad de las publicaciones puede ser estimada a partir de la calidad del medio de difusión, pero no puede limitarse a ella. Debe contemplarse el valor de la aportación atendiendo a su contenido y la CNEAI debe motivar sus resoluciones atendiendo no solo al medio sino al contenido de cada trabajo”. Sin embargo, la CENAI (ahora dentro de ANECA) en la convocatoria de este año, no dándose por aludida, ha prescindido casi totalmente de dicha sentencia.
De modo similar a como ocurre con las agencias de clasificación de las entidades financieras (como los ratings de Moody’s, S&P o Fitch), las agencias de indexación que los gestionan reciben sustanciosos beneficios por esa labor, sin que nadie vigile o ponga en discusión tales criterios. La clasificación por parte de Thomson & Reuters (ahora Clarivate analytics) en el Journal Citation Report, se dice que es “en función de las citas recibidas”, pero solo ellos las controlan, indexan y clasifican. Estos datos del FI (Factor Impacto) no son siempre transparentes, en algunos casos no coinciden con los que hacen los que hacemos los propios editores. Más bien. miramos con admiración o estupor la clasificación dada. Por lo demás, como sabemos, son empresas privadas, ahora en manos de capital asiático (Onex and Baring Asia).
Como analizaban y destacaban Ruiz-Corbella, Galán y Diestro (2014), si bien las políticas de evaluación de la calidad por la producción investigadora “de impacto” ha potenciado el crecimiento exponencial de las revistas científicas españolas del área de educación y de sus indicadores de calidad, competir en FI con ellas es una misión casi imposible para nuestras revistas. Se En nuestro caso se añade que la mayoría de nuestras revistas de educación están autogestionadas, sin disponer de medios de financiación, excepto alguna ayuda mínima esporádica. En los últimos años, no obstante, esta política ha “contribuido a mejorar la calidad y visibilidad de las revistas españolas de educación” (Haba-Osca et al., 2019: 127).
Métricas discutibles, no diferenciales: Libros, artículos
Se ha impuesto el modelo de las ciencias naturales o “puras” como el único válido para todas las ramas del conocimiento, donde los libros son siempre de divulgación (manuales para alumnado) y no suelen tener -por eso- valor alguno. Pero en el ámbito de las Humanidades y Ciencias Sociales no es así. Hay libros (pienso en Ramón Carrande con “Carlos V y sus banqueros” o la “Historia de la lengua española” de Rafael Lapesa) que han marcado varias generaciones. Como señalan Haba-Osca et al. (2019: 116), si en las Ciencias Experimentales la información se transmite principalmente a través de artículos de revista, “que suman en ella porcentajes de citas superiores al 80 por ciento, seguidos de lejos por los libros, con tantos por ciento en torno a 10”. Por el contrario, en las Ciencias Sociales y las Humanidades predominan los libros (en torno al 50 y el 65 por ciento de las citas) y los artículos de revista se quedan en un 10-13 %. Puedo certificarlo en mi caso personal: de las 19.500 citas en Google Scholar, excepto algún artículo aislado, los porcentajes mayores -con gran diferencia- lo obtienen los libros.
Esto justificaría que no se aplique la misma métrica en todos los campos disciplinares, diferenciando el valor de las monografías y artículos, sin limitarse prioritariamente a las revistas científicas. La normativa de sexenios de este año (BOE, 26/11/2018) vuelve a refrendar dicho criterio, especificando que “se valorarán preferentemente: a) Los artículos publicados en revistas de reconocida valía (JCR); b) Asimismo (sin que necesariamente se valoren por igual), los artículos publicados en revistas situadas en posiciones relevantes (Q1 y Q2) de los listados de (SJR) y en A&HCI de la “Web of Science”. Varios colegas hemos concluido que, con estos criterios, lo mejor era no incluir libros entre las cinco aportaciones (aun cuando estuvieran publicados en editoriales como Routledge o Springer).
La verdad que esta división tajante entre JCR y SJR suena, en determinados casos, irrisoria. Por experiencia propia, este año al introducir el ISSN de la revista, si no era JCR aparecía como “otra”, si tenía JCR aparecía clasificada. Eso daba como paradoja (continuo con mi ejemplificación personal) que un artículo en “Educational Policy Analysis Archives”, es “otra”, pero en SRS es Q2 (algunos años en Q1); mientras que “Universitas Psychologica” es JCR, pero en SJR es Q4. ¿Qué significa ese desprecio de ser de “otra” categoría, si no está indexada en JCR? En los criterios de ANECA para CU se exigen, al menos, 3 JCR-Q1, pero no se admite su equivalencia en SJR. Una revista excelente del prestigio como “Journal of Educational Change” de Springer (al igual que otras de esta editorial) no están en JCR, pero es desde 2009 Q1 en SJR.
En el caso de los libros del ámbito de las Humanidades y las Ciencias Sociales, en España, el “Grupo de Investigación sobre el Libro Académico (ÍLIA)” del CSIC (Giménez-Toledo et al., 2015a; 2015b) ha estudiado bien el tema y ha propuesto unos indicadores SPI (Scholarly Publishers Indicators) para valorar las editoriales científicas, a partir de tres tipos de indicadores (prestigio editorial, especialización temática; y procesos de selección de originales). Sin duda es un trabajo de primer orden y de gran valor, para cartografiar este territorio del que solo teníamos intuiciones. No obstante, obviamente, como se suele hacer en las revistas, no puede entrar en el valor de cada libro, sólo la editorial en que está publicado. Además, como nos referimos después, en último término, como ha podido comprobar cualquiera que haya publicado un libro últimamente, importa negociar la cantidad a pagar por la publicación. Hay algunas editoriales (por experiencia propia, La Muralla), que no entra esta dimensión, pero una mayoría -al menos en educación- han generalizado “pagar para publicar”. Esto en los libros impresos, porque los editados digitalmente introducen otras variables, tanto en su valoración académica como en su (auto)financiación (Repiso y Montero, 2019).
Alt-metrics: otras métricas en la investigación
La comunidad de investigación demanda, como señala Springer de sus revistas, más métricas (complementarias o alternativas) que solo el índice de la revista. Se ha dado en llamar “altmetrics” a un conjunto de métricas, alternativas al FI, usadas para medir los diferentes impactos de la investigación, más allá de las métricas tradicionales de la producción científica. Además del número de citas, se emplean otros aspectos del impacto de un trabajo: datos o bases de conocimiento, número de visualizaciones del artículo, descargas, o menciones en medios sociales. Muchos editores de revistas ofrecen estas métricas adicionales, incluso el grupo Elsevier, como Springer, progresivamente están acogiendo estas métricas como medida de la influencia de revistas y de autores. Así EPAA (Educational Policy Analysis Archives) ofrece una estadística por artículo del número de visiones/descargas del trabajo en pdf a lo largo del tiempo. Es un modo complementario para ver la influencia del trabajo científico dentro de los nuevos contextos digitales, sociales (Facebook y Twitter) o empleado en gestores de bibliografía (como Mendeley). Se hecho disponemos de todo un conjunto de otras métricas. Por ejemplo, ver: http://www.metrics-toolkit.org/explore-metrics/
Creo que no se puede discutir la pertinencia de estas otras medidas. Además de que esté publicado en una revista JCR o SJR, su indexación ha de ser “triangulada” con estas otras métricas complementarias. Hay papers publicados en una revista JCR o SJR que nunca ha sido citado (pero asume el valor de la revista). Estas otras métricas le restarían valor o se lo incrementarían, sin bastar el medio en que se ha publicado. En fin, el FI podría ser mejorado a partir de las críticas señaladas, y ser tomado como parte de un sistema más amplio de medidas. En cualquier caso, como dice el editor de una revista (López, 2018: 2), y muchos estaríamos de acuerdo, “es necesario romper el supuesto de que las medidas de citación son equivalentes a las de calidad de la investigación o de la publicación”.
Como señalábamos en otro trabajo anterior en Aula Magna 2.0 (Bolívar, 2016) la “Declaración de San Francisco sobre la Evaluación de la Investigación” (DORA, 2012), conocida por sus siglas inglesas como DORA (Declaration on Research Assessment), se ha configurado como la principal propuesta alternativa: las métricas no pueden sustituir las decisiones informadas. La valoración de la calidad de una investigación o de un artículo debe basarse en la investigación misma y no, por ejemplo, en el factor de impacto de la revista donde se haya publicado. No hacerlo así significa que los evaluadores abandonan su responsabilidad. Posteriormente el Manifiesto de Leiden (2014) sobre métrica de la investigación, elaborado por la Universidad de Leiden, ha sido publicado en Nature, una de las revistas científicas más importantes del mundo (Hicks et al. 2015). Se manifiesta la creciente preocupación por un uso incorrecto generalizado de los indicadores en la evaluación del desempeño científico” y establecediez principios de buenas prácticas en evaluación basada en indicadores métricos tanto para que los investigadores puedan pedir cuentas a los evaluadores, como para que éstos tengan en cuenta en los indicadores. No vamos a recogerlos aquí, pero muchos de ellos, son de sentido común, aún cuando no se apliquen, como “las diferencias en las prácticas de publicación y citación entre campos científicos deben tenerse en cuenta”; o “la evaluación individual de investigadores debe basarse en la valoración cualitativa de su portafolio de investigación”.
Por su parte, DORA prosigue con una amplia adhesión por Instituciones y Universidades. El año pasado Redalyc nos exigió a las revistas que indexa firmar y seguir los principios de DORA, principalmente al reducir el énfasis en el factor de impacto de la revista como herramienta promocional. Creen que es importante valorar una revista en función de su contenido en lugar de usar citas para medir el impacto. Por las limitaciones del FI formulan un conjunto de recomendaciones a agencias financiadoras, instituciones académicas y revistas, para mejorar la forma en que se evalúa la calidad de la producción científica.
Después de todo lo anterior, un punto final a reflexionar, como me comentaba un colega, es si este modo de evaluación según la indexación/impacto de lo publicado crea más seguridad jurídica que ser evaluado por una Comisión, que otro en que -además, de modo complementario- se valore diferencialmente cada trabajo. Son, en muchos casos, estos imperativos en aras de la objetividad, los que hacen mantener sistemas claramente insatisfactorios.
Corrupción y mercantilización de la investigación educativa
Quiero llamar la atención, desde mi propia experiencia como editor, evaluador e investigador normal, del creciente número de prácticas que corrompen y mercantilizan, hasta extremos hoy desconocidos, la investigación académica que, por principio, debiera suponerse como incontaminada, al anteponer lo lucrativo a lo científico. En cierta medida esta dimensión no es independiente de la anterior: las prácticas que tenemos hoy en día están generando estos comportamientos corruptos en las comunidades de investigadores. Por ejemplo, como mostraré, la necesidad de publicar (pronto y rápido) está generando el pago y negocios financieros con las publicaciones (pay to publish). Sólo voy a señalar aquellas prácticas corruptas con las que me he cruzado pero, sin duda, habrá otras muchas que desconozco.
En primer lugar, ante la demanda de publicar en revistas bien indexadas, todas de acceso abierto, ha surgido todo un negocio (“Publishing Fees”) en que publicar artículos puede tener un coste (“Article Publishing Charge”), en algunos casos, cercano a los 3.000 dólares. A ello se suma los costes de traducción y revisión al inglés. Algunas tienen descuentos especiales si el país está catalogado como de bajo desarrollo. Por supuesto, que todos los trabajos pasan por revisores, pero el proceso de admisión y, sobre todo, el tiempo de edición se acorta enormemente (en un mes en MDPI puede estar publicado). Para incrementar el negocio, estas grandes organizaciones editoras no están especializadas, admiten artículos de todos los campos, contando con una amplia panoplia de revistas con títulos generalistas.
Sobre esta “rebaja” especial para residentes en países catalogados por el Banco Mundial como de “bajo desarrollo”, una anécdota real reciente, llena de ironía. Me comenta una colega de Psicología de la Educación de la Universidad de Granada que, al mostrar su extrañeza por la alta tasa que le cobraban por el artículo, los editores creyeron que sería del país “Granada” (Antillas del Caribe) y, en tal caso, le ofrecían dicha tasa rebajada especial. Sin comentarios.
Así la empresa “Frontiers”, radicada en Suiza, que tiene revistas en todos los campos, “Frontiers in Psychology”, que es JCR-Q1 y SJR-Q1 cobra 2850 USC por artículo. Sin embargo, en “Frontiers in Education” sólo 950 USC, seguramente porque aún no está indizada en JCR ni en SJR. Cuando lo logre, subirá el coste.
MDPI (Multidisciplinary Digital Publishing Institute) publica 213 revistas de todos los ámbitos disciplinares. La mayoría de los empleados de MDPI tienen su sede en China, aunque la empresa está localizada en Suiza, con dos oficinas más en Europa. Es quizá el ejemplo de negocio “puro y duro”. Dado que muchos investigadores de educación publican, me voy a extender algo. Las revistas de MPDI fueron incluidas en la lista de Jeffrey Beall de compañías depredadoras (predatory list) de Open Access en 2014, sin embargo (?) fue sacada de la lista en 2015 (el National Publication Committee de Noruega la sigue manteniendo como no académica). Entre otras razones para la inclusión en la lista depredadora se decía que “las revistas de MDPI contienen cientos de artículos revisados a la ligera que se escriben y publican principalmente para ganar”, que “la revisión por pares es simplemente un paso superficial que los editores tienen que soportar antes de publicar artículos y aceptar dinero de los autores; o que “envían correos no deseados masivos para solicitar artículos”. En fin, puro negocio. De las 213 revistas, “Educational Sciences” no está indexada en JCR o SJR, pero otras como “Sustainability” (donde he visto artículos de educación), ya son SJR-Q2 y JCR-Q3. Cobra 1700 CHF (francos suizos), sin embargo, publicar en “Educational Sciences” (no esta indizada) solo 550 CHF.
Pero también se han apuntado al negocio creciente casas editoras de prestigio, como Oxford University Press [https://academic.oup.com/journals]. Cuenta también con muchas revistas de todas las áreas pero, como ejemplo, “Research Evaluation” (SJR-Q1; JCR-Q3) cobra 2315 euros por artículo (si tiene figuras en color se incrementa en 525 por figura).
Igualmente, Taylor and Francis, que tiene ese amplio conjunto de revistas prestigiosas, se ha apuntado el Open Acces con “Charge” o “Fee”. “Cogent Education” (SJR-Q3), publica más de 150 articulos de modo continuo en un único volumen anual. Cobra un mínimo de 1350 $ por artículo, (Article Publishing Charge, APC). No obstante, dice: “Cogent OA opera un modelo Freedom APC; por el cual, si no tiene fondos disponibles para usted, puede elegir pagar lo que pueda. Para respaldar la publicación de acceso abierto sostenible, se aplica un APC mínimo para garantizar que cubrimos los costos del proceso de revisión por pares, edición, composición tipográfica, publicación en nuestro sitio web, mercadeo e indexación en las principales bases de datos”. Se puede ver en:https://www.cogentoa.com/journal/education , o en la webhttps://www.tandfonline.com/toc/oaed20/current
También la Editorial Sage se ha abierto a esta posibilidad con “AERA Open” (ISSN: 2332-8584), pero en ese caso -de modo más serio- solo se cobra, una vez aceptado el artículo, por gastos de publicación (APC) entre 700 USC, con descuentos muy notables si se es miembro de AERA, estudiante de posgrado o ciudadano de países con bajo desarrollo. Aún no está indizada en SJR o JCR. Pero, como indica, la ventaja de publicar en una revista de acceso abierto es la velocidad de publicación.
Todos recibimos cantidad de correos no deseados (que además no permiten “unsubscribe”) ofreciendo publicar en revistas de todo tipo, con nombres generalistas que puedan acoger todo. Como otras prácticas comerciales, emplean los más diversos métodos para “engañar” a los autores. Si hay que poner (para “aparentar”) ética de las publicaciones, se incluyen los códigos que hagan falta. Lo importante es pagar y cobrar. A cambio se publica pronto. Incluso grandes organizaciones para la revisión técnica en inglés de los artículos, como Proodreading/editing, para que no tengan problemas de aceptación por revisores o editores. Su módico “charge” es 120 USD por 15-19 páginas. Menos mal que contamos con listas de editores académicos de acceso abierto depredadores (predatory scholarly open-access publishers). La lista de Beall de editores depredadores (Beall’s List of Predatory Publishers) informa de las revistas guiadas por prácticas comerciales de ganar buenos ingresos a costa de los autores [https://beallslist.weebly.com/], y debe ser consultada previamente para “no caer en la trampa”.
Llevaría muy lejos (y no deseo incrementar la extensión) el cobro por libros en edición digital. Existen igualmente múltiples “negocios” dedicados a dicha edición. En el caso de los libros y monografías impresas, como antes señalaba, si bien el SPI ha supuesto un importante avance, ha quedado, en muchas editoriales, completamente “viciado” por el pago previo de los autores. Ignoro si, entre el “sistema de selección de originales” que emplea ILIA, las editoriales le declaran que es este, pero mucho me temo que no. Es verdad que el mundo digital ha hecho que la venta de ejemplares no haga rentable, en algunos casos, la edición. Pero eso es algo comprensible y otro que por el hecho mismo de pagar sea publicado, al margen de una revisión seria del contenido. La edición (solo) digital de libros o la autoedición han introducido nuevos aspectos en la financiación (pagar por editar). Se puede ver lo que señalan Repiso y Montero (2019). Otras prácticas corruptas también acontecen cuando, para incrementar su valor académico, se hacen pasar Actas y comunicaciones a Congresos como libros. Las editoriales (McGraw Hill, Wolters Kluwer) no tienen problema si reciben sustanciosos beneficios. Por señalar un ejemplo cercano, el “XV Congreso Internacional de Organización de las Instituciones Educativas”, celebrado en Lleida (octubre, 2018), fue editado como libro por Wolters Kluwer sin hacer referencia en ningún lugar a que eran actas y comunicaciones de un congreso, “blanqueándolo” como libro. Si este es el juego (vale más un libro que un Congreso), vamos a jugar a él. Práctica que, por cierto, ya pusieron en marcha Elsevier con los “Proceedings”, aunque sin ocultarlo, pero sí otorgándole un SJR (lo que convierte en atractivo el Congreso y justifica la sustanciosa inscripción).
En fin, si para los méritos de una plaza, de un sexenio o de la acreditación se cuenta con escaso tiempo, ya se sabe: se puede publicar -de otro modo- “pagando”. En mi Facultad, dirijo una Unidad Científica de Excelencia que, entre otros fines, tiene promover la publicación de artículos Q1-Q2, cofinanciado la traducción o las tasas, una vez que ha sido aceptado. El profesorado, particularmente joven (más necesitado), ha aprendido el camino: publicar pagando y solicitar ayuda de esta Unidad, o -sobre todo- de los Proyectos de Investigación, si se cuenta con ellos. En último extremo, pagándolo por cuenta propia, si la necesidad apremia y se puede.
La gravedad del asunto que pongo sobre la mesa tiene dos dimensiones:
[a] Que los modos actuales de evaluación de la investigación y de la propia carrera académica promuevan, alienten y -en último extremo- refrenden este tipo de prácticas.
[b] A los jóvenes becarios y docentes les estamos induciendo a que hay que publicar, como sea, y donde se pueda, lo más fácil en estos medios depredadores pagando. Además, si lo que importa es esto, otras muchas tareas, propias del docente universitario, máxime si está en formación, deben ser desdeñadas.
Cada uno tendrá sus experiencias, en mi caso, en los medios en que me muevo, observo cómo, de modo creciente, se están desarrollando. El futuro de la investigación educativa, de continuar por este camino, es oscuro y su refugio en el academicismo (número de artículos e indexación de cada uno) la alejarán -cada vez más- de su trabajo con los escuelas, docentes y aulas. En último extremo estamos en una cultura de que “importa lo que funciona” (“it matters what works”). Con todas estas vías y caminos, estamos enseñando lo que importa, por dónde hay que ir si se quiere llegar rápido.
Referencias bibliográficas:
Bolívar, A. (2016). La calidad de la investigación, el impacto de una revista y los negocios financieros. Aula Magna 2.0. [Blog]. Recuperado de:https://cuedespyd.hypotheses.org/2296
Delgado López Cozar, E. (2018). Sexenios 2018, cambios relevantes: reformando la evaluación de la transferencia de conocimiento y con novedades del Tribunal Supremo. Aula Magna 2.0 [Blog]. Recuperado de: https://cuedespyd.hypotheses.org/5753
DORA (2012). Declaración de San Francisco sobre la Evaluación de la Investigación”https://sfdora.org/read/es/. También ver: https://twitter.com/DORAssessment
Giménez-Toledo, E., Mañana-Rodríguez, J. y Tejada-Artigas, C.M. (2015a). Revisión de iniciativas nacionales e internacionales sobre evaluación de libros y editoriales. El Profesional de la Información, 24, 705-716. DOI: 10.3145/epi.2015.nov.18
Giménez-Toledo, E. y Tejada-Artigas, C. M. (2015b). Proceso de publicación, calidad y prestigio de las editoriales científicas en educación. Educación XX1, 18(1), 17-44. DOI:10.5944/educXX1.18.1.12310
Haba-Osca, J.; González-Sala, F. y Osca-Lluch, J. (2019). Las revistas de educación a nivel mundial: un análisis de las publicaciones incluidas en el Journal Citation Reports (JCR) del 2016. Revista de Educación, 383, 113-131. DOI: 10.4438/1988-592X-RE-2019-383-403
Hicks, D.; Wouters, P.; Waltman, L.; de Rijcke, S.; Rafols, I. (2015). Bibliometrics: The Leiden Manifesto for research metrics. Nature, 520, 429-431. http://www.ingenio.upv.es/sites/default/files/adjunto-pagina-basica/manifiesto_es.pdf
López López, W. (2018). Sobre la evaluación de la investigación y los investigadores: Criticas a las métricas y recomendaciones. Universitas Psychologica, 17(4), 1-2. DOI:10.11144/Javeriana.upsy17-4.seii
Manifiesto de Leiden (2014). Manifiesto de Leiden sobre indicadores de investigación.http://www.leidenmanifesto.org/
Repiso, R. y Montero, J. (2019). Edición impresa tradicional, digital, bajo demanda y auto-sufragada. Cuatro modelos de edición de libros que requieren ser evaluados de manera diferente. Bibliotecas. Anales de Investigación; 15(2).http://www.rafaelrepiso.com/2018/09/23/editorial-edicion/
Ruiz-Corbella, M., Galán, A. y Diestro, A. (2014). Las revistas científicas de educación en España: evolución y perspectivas de futuro. Relieve. Revista Electrónica de Investigación y Evaluación Educativa, 20 (2). DOI: 10.7203/relieve.20.2.4361
Cómo citar esta entrada:
Bolívar, A. (2019). El “medio es el mensaje” o la mercantilización de la investigación educativa. Un negocio creciente. Aula Magna 2.0. [Blog]. Recuperado de:https://cuedespyd.hypotheses.org/5798
Tomado de Aula Magna 2.0 con permiso de sus editores
No hay comentarios:
Publicar un comentario