Por Ernesto López Gómez y Marta Ruíz Corbella. Facultad de Educación (UNED). Coeditor y Editora de Aula Magna 2.0.
(Tomado de Aula Magna 2.0 con permiso de sus editores)
(Tomado de Aula Magna 2.0 con permiso de sus editores)


Precisamente, estas líneas quieren sintetizar –sin una voluntad exhaustiva– algunas investigaciones actuales centradas en la plataforma ResearchGate como objeto de estudio e investigación. Para ello, se recuperan tres trabajos publicados en lo que va de año, que aportan aproximaciones diferentes en torno a sus aplicaciones bibliométricas (Orduña-Malea, Martín-Martín y Delgado López-Cozar, 2016), su empleo para establecer métricas fiables de reputación académica (reputational metrics) (Nicholas, Clark y Herman, 2016) y, finalmente, la pregunta de si ResearchGate es un indicador altmetriceficaz para los investigadores activos (Yu et al., 2016).


“mide fundamentalmente el grado de participación de un usuario en la plataforma ResearchGate y no el prestigio de un investigador, que es lo que la información oficial declara (…) es un pésimo indicador de rendimiento científico y debe ser desechado de forma enérgica por la comunidad científica, y no ser empleado en procesos de evaluación de la actividad científica” (p. 310)
También el trabajo de Nicholas, Clark y Herman (2016) analiza el ResearchGate Score, y señalan que el despliegue de métricas de participación alternativas como las preguntas y respuestas puede conducir a anomalías en la reputación del investigador. La respuesta a esta cuestión, sobre el aumento del valor del indicador de RG Score gracias al compromiso y a la dimensión comunitaria y participativa en la red, mucho tiene que ver, en palabras de estos autores, con que “RG Score is primarily driven by the incentive to promote the site and establish a broad base of active users” (Nicholas, Clark y Herman, 2016, 9). Lo que nos lleva a poner “en cuarentena” esta red social como un indicador para la evaluación del impacto de un investigador o de uno de sus trabajos. En cambio, la investigación de Yu et al. (2016) publicada en la revista Computers in Human Behavior pone de manifiesto, tras una investigación en la que compara las métricas de 300 miembros de ResearchGate en el área de “supply chain management” con las métricas de SciVal, lo siguiente:
“The results demonstrate that the ResearchGate score has potential as an alternative performance indicator for academic institutions. (…) This research provides empirical evidence that demonstrates that the ResearchGate score can be an effective indicator for measuring an individual researcher’s performance. When used along with other bibliometrics such as impact points, number of citations, and number of downloads ResearchGate can provide comprehensive measurements for researchers, institutions, countries, and even research disciplines” (p. 1005)
Efectivamente, no podemos apostar en estos momentos, y de forma absoluta, por estas métricas, como las que se derivan de esta red social. A la vez que parece evidente que medir exclusivamente el valor de un artículo, de un investigador, por el factor de impacto a partir de sus citas está resultando insuficiente en el sentido de que se pierden otros muchos factores relevantes que no se reflejan en una referencia bibliográfica. Llegar a un equilibrio, o a una nueva fórmula en la que se tengan en cuenta ambas perspectivas es una línea prioritaria por la que consideramos que debe avanzar la valoración de la reputación de investigadores y, como no, de las revistas científicas en las que estos publican. Todavía queda mucho por hacer, pero la publicación de estos tres artículos que hemos expuesto en esta entrada son muestra de que se está trabajando y reflexionando sobre ello, que no existe unanimidad entre los expertos por lo que se requiere aún de más investigaciones para identificar cómo medir el impacto real de una investigación, a la vez que desarrollar los espacios, aplicaciones, instrumentos, etc., de la web en las que poder difundir nuestra investigación. Ahora bien, dentro de esta aún incertidumbre sí que constatamos que las redes sociales tienen mucho que aportar en estas evaluaciones, por lo que son una herramienta de interacción y difusión que no debemos dejar de lado por sus muy variadas potencialidades.
Referencias bibliográficas:
Nicholas, D., Clark, D., & Herman, E. (2016). ResearchGate: Reputation uncovered. Learned Publishing, 29(3), 173-182.
Orduña-Malea, E., Martín-Martín, A., & Delgado López-Cózar, E. (2016). ResearchGate como fuente de evaluación científica: desvelando sus aplicaciones bibliométricas. El profesional de la información, 25(2), 303-310.
Yu, M. C., Wu, Y. C. J., Alhalabi, W., Kao, H. Y., & Wu, W. H. (2016). ResearchGate: An effective altmetric indicator for active researchers? Computers in Human Behavior, 55, 1001-1006.
Orduña-Malea, E., Martín-Martín, A., & Delgado López-Cózar, E. (2016). ResearchGate como fuente de evaluación científica: desvelando sus aplicaciones bibliométricas. El profesional de la información, 25(2), 303-310.
Yu, M. C., Wu, Y. C. J., Alhalabi, W., Kao, H. Y., & Wu, W. H. (2016). ResearchGate: An effective altmetric indicator for active researchers? Computers in Human Behavior, 55, 1001-1006.
Cómo citar esta entrada:
López Gómez, E. y Ruiz-Corbella, M. (2016). ¿Qué mide realmente ResearchGate Score? Debates en torno a las métricas fiables de reputación académica. Aula Magna 2.0. [Blog]. Recuperado de: https://cuedespyd.hypotheses.org/2227
Tomado de Aula Magna 2.0 con permiso de sus editores
No hay comentarios:
Publicar un comentario