lunes, 29 de noviembre de 2021

¿Nos podemos fiar de la evaluación en la educación a distancia digital? (vídeo)

 Por Lorenzo García Aretio

Les dejo el vídeo de la conferencia inaugural que en el día de ayer (15/11) pronuncié en el ámbito del II Congreso Virtual de la Universidad Nacional Abierta (UNA) de Venezuela.

El tema entiendo que es de sumo interés, no ya por lo debatido en tiempos de pandemia, sino como asunto medular de la literatura pedagógica y del buen hacer en educación. Aquí tienen el vídeo.

 

Citar así esta entrada:
García Aretio, L. (16/11/2021). ¿Nos podemos fiar de la evaluación en la educación a distancia digital? (vídeo). Contextos universitarios mediados. (ISSN: 2340-552X). Recuperado de https://aretio.hypotheses.org/6647.

Tomado de Contextos universitarios mediados con permiso de su autor

sábado, 20 de noviembre de 2021

El impacto de la credibilidad docente y la motivación del estudiante en la evaluación de la docencia

 Por Facundo Froment[i], Rocío Bohórquez[ii] y Alfonso Javier García[iii]

Universidad de Sevilla

La evaluación del desempeño docente es un reto y una necesidad para la comunidad universitaria, que le atribuye importancia en tanto que refleja la calidad del proceso de enseñanza-aprendizaje. Diferentes factores influyen en los resultados de la relación profesorado-alumnado, como la credibilidad docente o la motivación académica. Por ello, el objetivo de este estudio fue predecir la evaluación de los docentes universitarios a partir de las percepciones de los estudiantes sobre la credibilidad docente, mediada por la motivación del estudiantado universitario, estableciéndose las siguientes hipótesis: existe una relación positiva entre credibilidad docente y evaluación docente (H1); existe una relación positiva entre credibilidad docente y motivación académica (H2); existe una relación positiva entre motivación académica y evaluación docente (H3) y la motivación académica media la relación directa entre credibilidad docente y evaluación docente (H4).

En el estudio participaron 674 estudiantes de la Universidad de Sevilla de los Grados en Educación Primaria (32.2%), Educación Infantil (17.5%), Pedagogía (26.7%), Ciencias de la Actividad Física y el Deporte (13.6%), Psicología (2.8%) y Relaciones Laborales y Recursos Humanos (7.1%). La edad media de los participantes fue de 20.71 (DT=2.52), siendo la distribución de la participación por sexo de 527 mujeres (78.2%) y 147 hombres (21.8%). Para analizar las percepciones del estudiantado sobre la credibilidad docente, se utilizó la versión española de la Escala de Credibilidad (Froment et al., 2019). Este instrumento presenta 18 adjetivos bipolares, seis para cada dimensión (competencia, buena voluntad y confianza). Para medir la motivación académica del estudiantado respecto a una determinada clase, se utilizó el Cuestionario de Estrategias de Aprendizaje y Motivación (Martínez y Galán, 2000). Éste se compone de 25 ítems distribuidos en las subescalas orientación intrínseca, orientación extrínseca, valor de la tarea, control sobre creencias, autoeficacia y ansiedad. Para la evaluación del desempeño docente se aplicó el Cuestionario de Evaluación de la Docencia Universitaria (López-Barajas y Ruiz-Carrascosa, 2005). Este instrumento está compuesto por 24 ítems, distribuidos en las subescalas interacción con el alumnado, metodología, obligaciones docentes y evaluación, y medios y recursos. Para determinar la fiabilidad de los instrumentos empleados, éstos fueron sometidos a un análisis de consistencia interna atendiendo a la fiabilidad compuesta, obteniéndose valores aceptables al ser > .70 (Hair et al., 2017): .96 para credibilidad docente; .89 para motivación académica y .96 para evaluación docente. Para analizar la relación entre credibilidad docente, motivación académica y evaluación de la docencia, se aplicó un modelo de ecuaciones estructurales utilizando la técnica de mínimos cuadrados parciales (PLS-SEM), un modelo basado en la varianza que se emplea fundamentalmente en el ámbito de la educación (Ghasemy et al., 2020; Lin et al., 2020).

Fuente de la imagen: Pixabay

Los modelos de mínimos cuadrados parciales se definen mediante dos conjuntos de ecuaciones lineales: el modelo de medida, que describe el vínculo entre un constructo y sus indicadores, y el modelo estructural, que se centra en las relaciones entre los constructos (Henseler, 2017). Así, la evaluación PLS-SEM se realizó inicialmente en dos etapas (Roldán y Sánchez-Franco, 2012): la evaluación del modelo de medida y la del modelo estructural. Posteriormente, se realizó una evaluación de la habilidad predictiva del modelo fuera de la muestra (holdout sample) (Shmueli et al., 2016). De esta manera, PLS-SEM permite cumplir con dos propósitos de investigación (Henseler, 2018): (1) Explicativo, para comprender las relaciones causales entre variables y (2) predictivo, con el objetivo de predecir valores para casos individuales. Los resultados obtenidos destacan el efecto directo de la credibilidad docente y la motivación sobre la evaluación de la docencia, así como el efecto de mediación de la motivación entre la credibilidad docente y la evaluación de la docencia. Mediante la validez predictiva del modelo, se concluye que la credibilidad docente y la motivación del estudiantado universitario predicen la evaluación de los docentes universitarios. Se relacionan los hallazgos con la literatura previa y se proponen futuras investigaciones que indaguen en otras tácticas posibles de los docentes para mejorar el proceso de enseñanza-aprendizaje. Igualmente, se proporcionan estrategias para que el profesorado gestione su credibilidad en el contexto docente, aumentando así la motivación de sus estudiantes y mejorando las evaluaciones acerca de su docencia.

Artículo original de la revista:

Froment, F., Bohórquez, M. R. y García González, A. J. (2021). El impacto de la credibilidad docente y la motivación del estudiante en la evaluación de la docencia | The impact of teacher credibility and student motivation on teaching evaluations. Revista Española de Pedagogía, 79 (280), 413-435. https://doi.org/10.22550/REP79-3-2021-03

Cómo citar esta entrada:

Froment, F., Bohórquez, M. R. y García González, A. J. (2021). El impacto de la credibilidad docente y la motivación del estudiante en la evaluación de la docencia. Aula Magna 2.0. [Blog]. https://cuedespyd.hypotheses.org/9565

Tomado de Aula Magna 2.0. [Blog]. https://cuedespyd.hypotheses.org/9565 con permiso de sus editores

viernes, 19 de noviembre de 2021

Amauta Rímac, la voz docente

 Por Cristóbal Suárez Guerrero 


Educar en Apurímac. Resistencia creadora en tiempos de pandemia” es un libro (de acceso abierto) que recoge la voz de 30 maestras y maestros de Apurímac (Apu, dios y Rímac, hablador, dios que habla en quechua), Perú. Con este libro se busca amplificar la voz (Rímac) del/a docente (Amauta) de Apurímac y visibilizar tres aspectos clave de su magisterio en esta zona del Perú: el compromiso social por el cambio, la innovación pedagógica como rasgo profesional y la resiliencia docente como actitud.

La originalidad de este libro no es la búsqueda de la innovación por la innovaciónEste libro es la síntesis de un acto de resistencia, no como resignación, sino como respuesta comprometida, creadora frente a los seculares abandonos y las nuevas pandemias.

Este libro fue perfilado en la “I Jornada de innovación educativa en el ande peruano en tiempos de pandemia” que sirvió de preámbulo para el desarrollo editorial. Tanto la jornada como el libro se enmarcan en el proyecto “Ponderar las necesidades educativas de los Andes peruanos en tiempos de pandemia. Encuentros para seguir educando”, del Vicerrectorado de Internacionalización y Cooperación de la Universitat de València, por la que se conceden las ayudas Cátedra UNESCO para acciones de Educación para el Desarrollo, Ciudadanía Global y Sensibilización 2020- 2021. Gracias al equipo formado por Ricard HuertaPilar SanzAmparo Tijeras, y el que escribe esta nota, Cristóbal Suárez, el apoyo de CRAERI y la inestimable coordinación de la Dirección Regional de Educación de Apurímac, órgano de gestión estatal del Ministerio de Educación del Perú, es que este libro llega a buen puerto y sirve, esperamos, poner en evidencia del trabajo comprometido y creativo del magisterio apurimeño, a quien va dedicado. 

Luego de los generosos prólogos de Carles Padilla, Vicerector d’Internacionalització i Cooperació de la Universitat de València y de Lourdes del Carmen Vigil, Directora de la Dirección Regional de Educación Apurímac, así como de un capítulo escrito por los coordinadores del libro titulado “Praxis educativa y resiliencia docente en Apurímac”, y el exquisito capítulo de Ricard Huerta, “Creatividad, naturaleza y tecnologías digitales. Imagen de la escuela rural en Perú”, el libro se abre a su razón de ser: ocho trabajos de innovación educativa, seleccionados de un poco más de doscientos, presentados por docentes de la región de Apurímac.

Aunque el libro ha sido coordinado por docentes de la Universitat de València, ha sido vivido y escrito por los docentes apurimeños que buscaron dar respuesta a la pregunta “sencilla”: ¿qué hace un/a docente cuando la realidad educativa es más potente que la teoría? Las respuestas creadoras que los maestros y las maestras de los Andes peruanos ponen en marcha cuando el pensamiento pedagógico y su empatía social se cruzan como herramientas de trabajo son:

Pretextos para crecer desde casa

Miriam Felicitas Cabezas Flores y Ronald Ortiz Centeno

I.E. Nº 55006-11 Modesto Gayoso Moras de Santiago Pata. UGEL Andahuaylas

Sembrando el diálogo familiar

Aldo Latorre Lovón, Eva Roxana Flores Jauregui, Braulio Chino Mamani, David Quintana Altamirano, Carlos Lizárraga Valer, Wendy Córdova Huaraca, Alida Anyosa Cáceres, Arturo Espinoza Cruz y Richard Hugo Barazorda Garcés

I.E.S. Ramón Castilla de Curahuasi. UGEL Abancay

Los chasquis pedagógicos en acción

María Elena Tapia Fuentes, Luis Vilca Acostupa, Dionicio Moraya Tapia

I.E. Nº 55008 Antonio Centeno Zela de Huaquirca. UGEL Antabamba

Leer, escribir y crecer en familia

Luz Marina Yovana Torres Avega, Ana Soria Serrano, Delia Norma Espinoza Pacheco

I.E. N°64 Divino Niño Jesús de Pairaca. UGEL Aymaraes

Un portafolio digital de aprendizaje desde casa

Alejandro Alcides Torres Huamán

I.E. 54479 de Curampa. UGEL Chincheros

La mochila de los saberes ancestrales

Lennin Leonid Portugal Quispe, Flor Yesica Mamani Vargas, Julián Portugal Hurtado, Marleny Sandra Choque Gonzales, Flor de María Quispe Pari, Eulogio Cabrera Escudero, Uber Gallegos Condori y Heine Peley Mamani Quispe

I.E. Nº 50911 Mariano Melgar de Chuicuni. UGEL Cotabambas

Aprender con un clima escolar

Gladys Valverde Huamanñahui 

I.E. Fray Diego Ortiz de Progreso. UGEL Grau

El biohuerto familiar: espacio de aprendizaje en pandemia

María Luzmarina Quispe Munares, Yony Antezana Ccahuana y Elisa Bautista Saldívar

I.E.I. N° 171 de Pichiupata. UGEL Huancarama

En líneas generales, se trata de un acercamiento pedagógico creativo a la realidad del aula apurimeña, problemática, compleja y, con ello, también potente y diversa. Son trabajos, que más que aplicar una norma, una regla o un algoritmo, han encarado la complejidad de sus aulas desde la praxis educativa para ofrecer, con esfuerzo y valor, una respuesta innovadora. Se trata de experiencias pedagógica y socialmente comprometidas, con una idea que va más allá del reto laboral y que empata con el espíritu del Objetivo de Desarrollo Sostenible (ODS) N°4: «Garantizar una educación inclusiva, equitativa y de calidad, promoviendo oportunidades de aprendizaje, formándolos para la vida».


Tomado de Educación y virtualidad con permiso de su autor
Tomado de Educación y virtaulidad con permiso de su autor.  

miércoles, 17 de noviembre de 2021

¿Psicometría o Edumetría?

 Por Enrique Navarro Asencio[i]

Editor Jefe de Bordón. Revista de Pedagogía

Universidad Complutense de Madrid

Una de las cuestiones que llamó mi atención en mi formación sobre construcción de instrumentos de medición educativa es la dificultad para diferenciar este campo de estudio de la psicometría. Para formarte en Medición Educativa lo habitual es consultar manuales de psicometría y aplicar los conocimientos al proceso de medida de variables educativas. Entonces ¿hablamos de psicometría cuando tratamos de medir variables del contexto educativo como, por ejemplo, el rendimiento académico?

En la definición de psicometría del Cambridge Dictionary of Statistics se hace referencia al estudio de la medida de variables psicológicas o educativas como rasgos de personalidad, conocimiento, aptitudes, habilidades o rendimiento (Everitt, 2010). En el panorama nacional, Martínez-Arias (2005) titula el primer punto de su manual de psicométrica “la medida en psicología y educación” (p.15). Otras definiciones, como la de Abad et. al (2011) o la Meneses (2013), la asocian el a la medida de fenómenos o características psicológicas y el uso de test.

El uso del término psicometría se ha extendido y se emplea para tratar cualquier medida de características latentes más allá del ámbito de la psicología o la educación. Es decir, variables que no son directamente observables, como, por ejemplo, la satisfacción con un servicio o la calidad de un vino. De forma general, se asocia con esa medición de rasgos no observables y, para conseguir la medida, recoge información de indicadores relacionados con ese rasgo, así lo indican Wu, et al. (2016) en su manual Educational Measurement for Applied Researchers.

Hubo cierto debate hace más de 30 años en torno al uso del término edumetría para referirse a la medición educativa. Carver (1972, 1974) propuso la diferenciación entre estas dos formas de medición. Argumentó que, mientras que el modelo psicométrico estudia las diferencias entre individuos en algún rasgo psicológico, el modelo edumétrico centra la atención en medir la evolución de cada individuo, su ganancia en rendimiento, conocimiento o competencias educativas. Es decir, el logro depende de los contenidos específicos (por ejemplo, se ha aprendido o no el concepto de sumar o restar en matemáticas). El autor diferencia entre los test cuyas puntuaciones se establecen de forma normativa, que serían psicométricos, y los que las determinan con referencias criteriales, que serían edumétricos. De esta forma, criticaba el uso de la Teoría Clásica de los Test en la construcción de este tipo de instrumentos, principalmente para establecer puntuaciones, seleccionar ítems o los índices de fiabilidad. Y reivindicaba así una metodología propia asociada a la construcción de puntuaciones criteriales y el establecimiento de estándares de dominio, y también para estudiar la fiabilidad a partir del análisis del acuerdo en decisiones de clasificación, por ejemplo, lograr o no un estándar determinado.

Haladyna (1975) respondió a esta crítica apuntando que, aunque las puntuaciones con carácter normativo que se consiguen desde la aproximación de la Teoría Clásica de los Test ordenan a los sujetos para compararlos entre ellos, también son un reflejo de la puntuación verdadera. Argumentó, además, que los ítems de un test psicométrico son una representación de los indicadores vinculados a la definición del rasgo. Por tanto, la diferencia solo puede estar en el propósito para el que fue construido el test y, en este sentido, señala:

If one wishes to select, place, or group students on the basis of test scores, the test use is psychometric; if one wishes to ascertain student performance with respect to the passing standard, the test use is edumetric. Few will disagree with the importance and salience of the edumetric dimension for classroom evaluation (p. 604).

El propósito del test edumétrico es medir variables relacionadas con el logro académico para analizar los cambios en el aprendizaje a partir referencias elaboradas como criterios absolutos de logro de esos contenidos. El concepto de Test Referido al Criterio, como señala Martínez-Arias, et al. (2005), lo acuñó Glaser en 1963 y, aunque emplean metodología, por ejemplo en el proceso de definición de estándares y los puntos de corte entre niveles (Hambleton et al., 2000; Jornet et al., 2009), los modelos de medida basados en la Teoría Respuesta al Ítem también pueden utilizarse en la construcción de test con los dos propósitos ya que permiten establecer niveles de logro al situar ítems y constructo en una escala común. Además, permiten diseñar pruebas con ítems de respuesta sugerida y otros de respuesta construida que deben ser valorados por un corrector o codificadores.

Esta diferenciación entre propósito del test, como ha quedado patente, puede derivar en estrategias distintas al construir el test y la escala de medida, así como en el proceso de validación. Y, por tanto, sirve como ejemplo, de la variedad de cuestiones metodológicas que se deben considerar durante el proceso de medida.

Además del propósito del test y el tipo de referencias utilizadas para baremar la escala de puntuaciones, hay otros aspectos que determinan la metodología más adecuada. Otro factor es el constructo o aspecto del comportamiento que mide el test. Lo habitual es diferenciar entre test que miden rasgos cognitivos, también los de aptitudes, inteligencia, rendimiento académico, etc., y los que miden otros aspectos relacionados con intereses, actitudes, personalidad, motivación, etc.

Y vinculado a lo anterior, el tratamiento de la respuesta los ítems que componen el test también es un elemento diferenciador. Encontramos los test de ejecución máxima (los ítems tienen respuesta correcta, que puede tener formato de acierto o error o algunos grados de corrección) como los test para medir constructos cognitivos y de rendimiento o competencias; y los de ejecución típica (las respuestas señalan el nivel de preferencia respecto a la situación o estimulo que propone el ítem), como los test de personalidad o actitudes.

Referencias bibliográficas:

Abad, F.J., Olea, J., Ponsoda, V. y García, C. (2011). Medición en ciencias sociales y de la salud. Editorial Síntestis.

Carver, R. P. (1972). Reading tests in 1970 versus 1980: Psychometric versus edumetric. The Reading Teacher, 26(3), 299-302.

Carver, R. P. (1974). Two dimensions of tests: Psychometric and edumetric. American Psychologist, 29(7), 512.

Everitt, B. S. (2010). Cambridge dictionary of statistics (3.ª ed.). Cambridge University Press.

Haladyna, T. M. (1975). On the psychometric-edumetric dimensions of tests. American Psychologist30(5), 603–604. https://doi.org/10.1037/0003-066x.30.5.603

Hambleton, R. K., Jaeger, R. M., Plake, B. S., & Mills, C. (2000). Setting performance standards on complex educational assessments. Applied Psychological Measurement24(4), 355–366. https://doi.org/10.1177/01466210022031804

Jornet, J. M. y González, J. (2009). Evaluación criterial: determinación de estándares de interpretación (EE) para pruebas de rendimiento educativo. Estudios sobre Educación, 16, 103-123.

Martínez-Arias, R. (2005). Psicometría: Teoría de los tests psicológicos y educativos. Alianza Editorial.

Meneses, J. (coord.). (2013). Psicometría. UOC.

Wu, M., Tam, H. P. y Jen, T. H. (2016). Educational Measurement for Applied Researchers. Theory into Practice. Springer.

Cómo citar esta entrada:

Navarro Asencio, E. (2021). ¿Psicometría o Edumetría? Aula Magna 2.0. [Blog]. https://cuedespyd.hypotheses.org/9553

Tomado de Aula Magna 2.0. [Blog]. https://cuedespyd.hypotheses.org/9553 con permiso de los editores

martes, 16 de noviembre de 2021

Tecnologías educativas más importantes. Observatorio CUED. Participa en la encuesta

 Por Lorenzo García Aretio

Uno de los nuevos proyectos promovidos por la Cátedra UNESCO de Educación a Distancia (CUED) es el Observatorio CUED de Tecnologías Educativasun proyecto, dirigido por Sergio Martín, Profesor Titular de la ETSI Industriales de la UNED, que tiene como objetivo facilitar el análisis del impacto de las nuevas tecnologías en la educación a distancia.

Para ello, recoge cada año la opinión de expertos en educación a distancia de todo el mundo, la procesa y ofrece de manera abierta los resultados desde diversos prismas (temporal, disciplina, país, región, tecnología). De esta manera, cualquier investigador o profesor puede ver qué tecnologías tendrán más importancia en su sector y región a corto, medio y largo plazo, pudiendo así enfocar sus esfuerzos en ellos.

Ya es posible votar en la encuesta 2021 para tratar de predecir de forma colaborativa cuáles serán las tecnologías educativas más importantes para cada disciplina (Ciencias de la Salud, Ciencias Sociales y Jurídicas, Ciencias, Humanidades/Arte o Ingeniería) y Arquitectura), continente y país. VOTA AQUÍ y mira los resultados en tiempo real, AQUÍ.

Vídeo de presentación del observatorio