Por Lorenzo García Aretio
AUDIO – VÍDEO
Todas las entradas de la serie “80 años. Compendio EaD”, VER AQUÍ
Arrancamos el Módulo 7 de nuestro proyecto “80 años. Compendio EaD”, abordando el tema de la evaluación del aprendizaje en educación a distancia y digital (EaD), que se apoya en dos pilares que deben permanecer en equilibrio.
- El primero es el pilar técnico, que exige construir inferencias justificadas sobre lo que el estudiantado sabe o sabe hacer a partir de evidencias pertinentes y suficientes, a través de la mediación tecnológica. Esta exigencia remite a la noción contemporánea de validez como argumento, es decir, no como una etiqueta que se posee o no, sino un razonamiento que conecta tareas, criterios, puntuaciones, teoría y usos de los resultados (Kane, 2013; AERA et al., 2014-2024). Ese argumento obliga a declarar con precisión:
- qué constructo, competencia, objetivo, se evalúa,
- por qué las tareas elegidas lo representan con fidelidad,
- con qué criterios se juzgará la calidad del desempeño, y
- qué decisiones se tomarán con los resultados, en proporción al peso de esas decisiones.

- El segundo pilar es pedagógico. La evaluación, en especial en EaD, no puede reducirse a un trámite final de calificación; debe ser un proceso para aprender. Por eso, la literatura reciente ha desplazado el foco desde, meramente, dar información al estudiante, hasta cómo la usa quien aprende. De ahí conceptos como;
- alfabetización en retroalimentación, que describe la capacidad del estudiante para comprender criterios, comparar su trabajo con referentes y actuar con propósito (Carless y Boud, 2018), y
- retroalimentación interna, que explica el conocimiento que surge cuando el estudiantado contrasta su desempeño con criterios, ejemplos y trabajos de pares (Nicol, 2021; Nicol y McCallum, 2021).
Estas líneas dialogan con la tradición de la evaluación formativa, que evidencia que el uso de la información para ajustar la enseñanza y apoyar la autorregulación eleva el aprendizaje (Black y Wiliam, 2006).
Por otra parte, la EaD añade condiciones específicas que afectan al diseño y al uso de la evaluación. Así, vamos también a interpretarla desde el Diálogo Didáctico Mediado (DDM), es decir, considerando tareas, criterios y retroalimentación, que actúan como mediadores que sostienen la interacción educativa entre institución/docente y estudiante, separados en el espacio y, a menudo, en el tiempo. Esta lente, la Teoría del Diálogo Didáctico Mediado, integra y actualiza la tradición de la EaD situando el diálogo con intencionalidad pedagógica y mediado tecnológicamente como núcleo del proceso, que reduce sustancialmente la “distancia“, propiciando los diferentes modos de presencia (García Aretio, 1994, 2001, 2019, 2020, 2025).
Y ya sabemos que la distancia depende del equilibrio entre diálogo y estructura y del grado de autonomía del estudiante (Moore, 2013); no es una realidad fija, sino una variable pedagógica que se gestiona. Y, por otra parte, el modelo de Comunidad de Indagación (Community of Inquiry, CoI) recuerda que la evaluación de calidad alimenta presencia docente (criterios claros, guía y retroalimentación oportuna), presencia social (interacciones con propósito) y presencia cognitiva (indagación, integración y resolución) (Garrison et al., 2000). Además, la credibilidad de la evaluación digital ha sido objeto de debate, aclaremos que debe sostenerse mucho menos en controles tecnológicos y más en diseños pedagógicos transparentes, proporcionados y éticamente fundamentados (García Aretio, 2021, 2024). Sobre esta base, la entrada persigue:
- aclarar funciones y propósitos de la evaluación;
- precisar la calidad de las inferencias (validez, fiabilidad/consistencia, equidad/accesibilidad y utilidad);
- desarrollar la evaluación para aprender (feedback, feedforward y autorregulación); y
- fijar la alineación constructiva que ancle resultados, tareas, criterios e instrumentos.
- Cerraremos con un apartado sobre especificidades de la EaD (presencias, integridad, analítica responsable) que tenderá puentes a las siguientes piezas del módulo.
PROPÓSITOS Y FUNCIONES DE LA EVALUACIÓN EN EaD
Evaluación diagnóstica, formativa y sumativa
La primera decisión de calidad en evaluación consiste en declarar su propósito. En el lenguaje común distinguimos tres funciones (García Aretio, 2020): diagnóstica, formativa y sumativa.
- La evaluación diagnóstica ayuda a situar el punto de partida y a ajustar el plan de enseñanza.
- La formativa regula el proceso, identifica la brecha entre el desempeño actual y el esperado y orienta acciones para cerrarla
- La sumativa sustenta decisiones de acreditación (promoción, certificación).
En EaD es común, y también deseable, que una misma tarea compleja articule momentos formativos (borradores, iteraciones, retroalimentación) y un cierre sumativo (entrega final, defensa breve). La clave es explicitar qué parte de la actividad sirve a cada función y cómo se usarán sus resultados (AERA et al., 2014-2024; Kane, 2013).
Lógica de inferencias y propósito declarado
Trabajar con una lógica de inferencias aporta rigor y transparencia. Estas preguntas encadenadas estructuran la lógica (Kane, 2013; AERA et al., 2014-2024):
- Constructo: ¿qué conocimiento/competencia se declaran y muestran evaluar aquí? (no todo).
- Evidencia: ¿qué tarea representa con mayor fidelidad ese constructo en este contexto EaD y por qué?
- Criterios y anclajes: ¿con qué rúbrica y ejemplos se juzgará la calidad del desempeño?
- Decisión: ¿qué acción concreta se sostendrá con la información (reenseñar, apoyar, acreditar) y con qué umbral?
Responder de manera explícita evita dos riesgos habituales:
- solicitar productos atractivos que no evidencian bien el constructo (p. ej., vídeos impecables para evaluar razonamiento metodológico) y
- acumular datos por abundancia, no por utilidad pedagógica.
CALIDAD DE LA EVALUACIÓN
Validez como argumento
La validez se refiere a la precisión y la pertinencia de las inferencias o interpretaciones que se hacen a partir de los resultados de una evaluación. La validez se refiere a que la prueba mida exactamente lo que pretende medir y no otra cosa. Sería como el grado de coherencia entre lo que se diseñó, lo que se pregunta, lo que se enseñó y lo que se busca evaluar. En la práctica, la validez se manifiesta como un argumento proporcional al impacto de la decisión (Kane, 2013). Ese argumento debe sustentarse en evidencias (AERA et al., 2014-2024)
En EaD, la autenticidad de las tareas (aplicación de saberes a situaciones significativas) como resolución de casos, proyectos con productos digitales, simulaciones, y la documentación del proceso (bitácoras, versionado) favorecen la correspondencia entre evidencia y constructo. La defensa breve, en su caso, aporta una evidencia adicional de comprensión y autoría sin necesidad de medidas intrusivas, por ejemplo, escuchar la justificación del estudiante, pedirle que compare alternativas y evaluar su capacidad de tomar decisiones con fundamento.
Fiabilidad/consistencia
La fiabilidad se refiere a la consistencia y la estabilidad de las puntuaciones o la información obtenida mediante un instrumento de evaluación. Es la garantía de que los resultados son libres de errores aleatorios de medición. La consistencia de la evaluación no se improvisa; se construye. En tareas abiertas, se apoya en rúbricas con descriptores claros y diferenciados, ejemplos anclados que traduzcan esos descriptores a productos reales y procesos de calibración entre evaluadores.
Cuando el impacto de la decisión lo justifica, puede añadirse doble corrección moderada. En pruebas objetivas bien diseñadas (que abordaremos en otra entrada) la consistencia interna y un análisis básico de ítems (dificultad, discriminación y funcionamiento diferencial) son imprescindibles (AERA et al., 2014-2024). En entornos digitales, la escalabilidad de la plataforma facilita moderación entre pares docentes y revisión sistemática de calificaciones.
Equidad y accesibilidad
La equidad evalúa si hay barreras que afectan al desempeño sin ser parte del constructo, por ejemplo, conectividad inestable, formatos únicos, requisitos sensoriales no esenciales, tiempos rígidos en husos horarios diversos. La respuesta es diseñar para la diversidad desde el inicio. El Diseño Universal para el Aprendizaje (DUA) ofrece pautas concretas para múltiples medios de participación, representación y acción/expresión; trasladado a evaluación, implica permitir formatos alternativos cuando no alteran el constructo, publicar criterios claros con ejemplos diversos y anticipar ajustes razonables (CAST, 2024).
En paralelo, las Pautas de Accesibilidad para el Contenido Web (Web Content Accessibility Guidelines, WCAG) fijan criterios de conformidad aplicables a los materiales y a la propia experiencia evaluativa, por ejemplo, tamaño mínimo de objetivos táctiles y foco no oculto, que conviene incorporar desde el diseño de tareas y rúbricas.
Utilidad
Una evaluación será de calidad si sirve para decidir con criterio y a tiempo. Esto significa que la información resultante permite al docente reenseñar, replantear tareas o activar apoyos, y permite al estudiantado planificar mejoras concretas. Esta noción de utilidad enlaza directamente con la evaluación formativa y la autorregulación (Black y Wiliam, 2006; Carless y Boud, 2018). En EaD, además, la temporalidad de la utilidad importa mucho, si el feedback. por ejemplo, llega tarde, pierde valor formativo; por eso conviene planificar ritmos de iteración y entregas parciales que aseguren oportunidad.
EVALUAR PARA APRENDER
- Ya entendemos de la dificultad de llevar a cabo todas las indicaciones y sugerencias que hacemos en estas entradas de nuestra serie “Compendio EaD”;
- ya sabemos de la limitación del tiempo docente;
- bien conocemos de las limitaciones en cuanto a infraestructura tecnológica de muchas instituciones;
- ya imaginamos las resistencias institucionales y de muchos docentes para abordar determinados cambios;
- ya sabemos…
A pesar de todo, desde este Compendio, entendemos que debemos sugerir todo aquellos que nos pueda ayudar a esa calidad de la EaD que venimos pretendiendo desde el inicio. Seguimos, por tanto, con ello.
Retroalimentación (feedback): información que se convierte en mejora
El valor de la evaluación para el aprendizaje no reside en emitir comentarios, sino en cómo esos comentarios se utilizan para cerrar la brecha entre el desempeño actual y el esperado (Black y Wiliam, 2006). La alfabetización en retroalimentación sitúa al estudiantado como agente capaz de (Carless y Boud, 2018):
- comprender propósitos y criterios;
- emitir juicios informados sobre su propio trabajo;
- gestionar lo afectivo ante la crítica; y
- actuar con base en evidencias.
En EaD, esto exige hacer visibles los criterios (rúbricas claras y ejemplos anclados) y proporcionar comentarios específicos, oportunos y orientados a la tarea, preferiblemente vinculados a fragmentos del producto (texto, audio o vídeo breves). La defensa breve (3–5 minutos), presencial o en línea, añade un turno de diálogo didáctico que permite escuchar el razonamiento, verificar autoría y preparar el paso siguiente sin prácticas invasivas.
Orientación anticipatoria (feedforward): del comentario a la siguiente acción
La orientación anticipatoria (feedforward) explicita qué cambiar, cómo y según qué criterio en la próxima iteración. Es el puente operativo entre la información recibida y la acción que viene después. No sustituye al feedback, lo completa, es decir, donde el feedback describe y valora el desempeño actual, el feedforward planifica la mejora inmediata. Pueden ser prácticas concretas en EaD:
- Explicación de cambios: tras recibir comentarios, el estudiante redacta un mini-plan (“qué modificaré, cómo, con qué criterio de la rúbrica”), y lo aplica en su siguiente versión.
- Checklists de próxima entrega: listas breves derivadas de la rúbrica que convierten los criterios en pasos verificables.
- Minidefensa prospectiva: en 3 minutos, el estudiante anticipa los cambios que hará y justifica su pertinencia con referencia explícita a los criterios.
Este enfoque evita que la retroalimentación quede como comentarios archivados y la convierte en agenda de acción, alineada con la lógica de iteraciones propia de la EaD.
Autorregulación del aprendizaje (self-regulated learning): comparar, decidir y actuar
La autorregulación es la capacidad del estudiante para orientar su aprendizaje mediante metas, monitoreo y ajustes estratégicos. Ya dedicamos en esta serie una entrada a la autorregulación. En evaluación, se concreta cuando el estudiante compara su producción con criterios y referentes y decide acciones de mejora. La retroalimentación interna explica cómo ese conocimiento evaluativo se genera en el propio alumno al contrastar su trabajo con criterios, ejemplos y el de sus pares, incluso antes de recibir comentarios docentes (Nicol, 2021; Nicol y McCallum, 2021). Para potenciarla en EaD, interesaría:
- Autoverificación guiada: antes de entregar, el estudiante completa una auto-revisión con la rúbrica, marcando evidencias de cada criterio.
- Comparación estructurada: análisis de un ejemplo anotado para identificar tres mejoras que aplicará; la comparación se hace explícita y queda documentada.
- Coevaluación calibrada: revisión entre pares con rúbrica y ejemplos anclados; cada juicio se justifica citando criterios.
Estas rutinas colocan al estudiantado en posición activa: entiende el estándar, detecta la brecha y la cierra con pasos concretos. El profesorado, por su parte, gana trazas del proceso que facilitan decisiones formativas y sumativas más justificadas.
DISEÑO ALINEADO EN EaD
Alineación constructiva
La alineación constructiva ofrece un método para evitar desajustes entre lo que se diseña, se enseña y lo que se evalúa. El diseño arranca con resultados de aprendizaje precisos (lo que el estudiante hará y en qué condiciones). A partir de ahí:
- se eligen tareas que obliguen a desplegar las operaciones cognitivas y prácticas declaradas;
- se formulan criterios observables y niveles de logro en rúbricas comprensibles; y
- se asegura cobertura y equilibrio con una tabla de especificación (blueprint) que mapee resultados–contenidos–procesos–evidencias–ponderaciones (Biggs, 2014).
Esta arquitectura evita el desajuste clásico (p. ej., declarar ‘argumentar con evidencia’ y pedir como evidencia final un cuestionario de verdadero/falso) y hace transparente el estándar.
Implicaciones prácticas en EaD
Aplicar la alineación en entornos digitales implica tomar decisiones operativas:
- Resultados medibles y situados. No basta con verbos; se deben indicar condiciones (con qué recursos, en qué escenario, con qué restricciones se evaluará).
- Selección consciente de instrumentos. Cada constructo puede precisar formatos de evidencia idóneos: argumentar, diseñar, resolver, justificar, comunicar. En otra entrada del Compendio se profundizará en el catálogo de pruebas e instrumentos y en los criterios de elección.
- Rúbricas usables. Un buen descriptor diferencia niveles por calidad (no por cantidad), usa lenguaje claro y se acompaña de ejemplos anclados que sirvan de referencia compartida.
- Ponderaciones y número de observaciones. Las decisiones críticas no deberían basarse en una sola observación. Una tabla de especificación útil explicita cuántas evidencias se necesitan para una decisión estable y por qué.
En EaD, además, conviene publicar el mapa de alineación (resumido y comprensible) para que el estudiantado pueda planificar su trabajo con criterio.
ESPECIFICIDADES DE LA EaD
Desde el Diálogo Didáctico Mediado (DDM)
En clave de Diálogo Didáctico Mediado (DDM), evaluar en EaD no consiste tanto en probar como en sostener un intercambio didáctico con evidencias.
- Una rúbrica funciona como código compartido del diálogo; una defensa breve puede ser el turno de palabra sincrónico que confirma comprensión y autoría;
- un portafolio documenta la historia de ese diálogo;
- el feedback/feedforward añaden nuevos turnos que orientan la siguiente acción.
Bajo esta lectura, validez significa que el diálogo realmente versa sobre el constructo declarado; fiabilidad/consistencia, que distintos mediadores sostienen criterios estables; y equidad, que ningún mediador introduce barreras ajenas al aprendizaje evaluado. Así, el DDM enlaza con las presencias del modelo CoI y las actualiza como práctica evaluativa cotidiana (García Aretio, 2014, 2019, 2025). El DDM ayuda a diseñar la evaluación en EaD y a gestionar la distancia, no a sufrirla, porque el diálogo exige siempre presencia al otro lado.
- La presencia docente se hace visible en criterios de evaluación transparentes, y diálogos que se traducen en una retroalimentación oportuna y en andamiajes o apoyos (listas de verificación, ejemplos, micro-vídeos).
- La presencia social se cuida cuando las actividades evaluables piden diálogo con propósito (revisión por pares con rúbrica, debates socráticos moderados, co-diseño de criterios en actividades sencillas).
- La presencia cognitiva se activa con tareas que obligan a dialogar, con el conocimiento, a indagar, integrar evidencias y resolver; por ejemplo, estudios de caso que requieran justificar decisiones frente a alternativas (Garrison et al., 2000).
Igualmente, integrada en el DDM, desde la distancia transaccional, el equilibrio entre diálogo, estructura y autonomía se ajusta con la secuencia de entregas, el grado de libertad en la elección de evidencias y la claridad de consignas (Moore, 2013).
Integridad académica (autoría)
La discusión sobre autoría, hoy intensificada por la inteligencia artificial generativa, no se resuelve principalmente con controles. En EaD, la vía robusta es preventiva y pedagógica, se trataría de tareas autenticadas por el proceso (bitácoras, versiones intermedias), variación de consignas, vinculación a contextos y defensas breves y proporcionadas. Las políticas claras sobre el uso permitido de herramientas (y la declaración por parte del estudiantado) refuerzan un clima de confianza. Herramientas de similitud textual o proctoring (supervisión remota) pueden tener un papel acotado, siempre con criterios de proporcionalidad y respeto a derechos, según las normativas de cada país; nunca sustituyen el diseño (García Aretio, 2021).
Accesibilidad y diseño universal
No hay evaluación de calidad si no es accesible. Integrar el Diseño Universal para el Aprendizaje (DUA) implica prever múltiples medios de representación y expresión que no alteren el constructo, ofrecer alternativas razonables de entrega (cuando el constructo lo permite), y explicitar criterios con ejemplos diversos (CAST, 2024). Por su parte, WCAG 2.2 aporta un checklist útil para materiales y tareas en línea (tamaño de objetivos táctiles, navegación coherente, ayudas consistentes, contraste, etc.), que conviene incorporar desde el diseño, no como parche final (W3C/WAI, 2024).
Analítica temprana con juicio pedagógico
Los entornos virtuales brindan una abundancia de datos. El riesgo es confundir cantidad con calidad o, peor, sustituir el juicio pedagógico por señales automáticas. Una pauta razonable consistiría en:
- seleccionar pocos indicadores accionables (entregas, participación con sentido, calidad según rúbrica),
- establecer umbrales que activen apoyos oportunos (tutorías breves, recordatorios, reformulación de consignas), y
- documentar qué intervenciones funcionaron para alimentar el rediseño del curso.
Compartir ciertos datos con el estudiantado (por ejemplo, un panel de progreso vinculado a criterios) favorece la autorregulación (Carless y Boud, 2018; Nicol, 2021).
CONCLUSIONES
Evaluar en educación a distancia y digital es decidir con justicia utilizando evidencias pertinentes y comprensibles. El requisito técnico ineludible es la validez como argumento, es decir:
- declarar de antemano el constructo que se quiere evaluar,
- justificar por qué las tareas elegidas lo representan adecuadamente, y
- explicitar qué decisiones se tomarán con los resultados y con qué umbrales.
Este hilo conductor, cuando se hace visible, mejora la comprensión del estudiantado acerca de lo que se espera de él y da solidez a la práctica docente, porque convierte la calificación en una consecuencia razonada, no en un acto opaco.
La consistencia de las decisiones evaluativas tampoco se improvisa. En tareas abiertas, se trabaja con rúbricas claras, ejemplos anclados y calibración entre evaluadores; en pruebas objetivas, con blueprints y un análisis elemental de ítems que garantice coherencia interna. No se persigue la uniformidad por sí misma, sino que se trata de asegurar que, ante el mismo desempeño, dos evaluadores bien formados emitirán juicios comparables, y que un mismo evaluador será estable ante tarea similar a lo largo del tiempo. Esa consistencia, visible y explicable, es una de las bases de la credibilidad de la evaluación digital.
La equidad y la accesibilidad son condiciones de posibilidad, no añadidos. Diseñar con DUA y aplicar criterios WCAG desde el principio evita barreras que no aportan nada al constructo evaluado e impiden que parte del estudiantado muestre lo que sabe y puede hacer. A veces el ajuste razonable es tan simple como ofrecer una alternativa de formato o una ventana temporal compatible con husos horarios; lo importante es que el ajuste no desnaturalice aquello que se pretende evidenciar.
El mayor impacto pedagógico llega cuando la evaluación mueve la enseñanza y el aprendizaje. Para que eso ocurra, la información debe desembocar en acciones:
- reenseñar lo que no se consolidó,
- ajustar consignas,
- activar apoyos específicos o
- permitir que la persona que aprende planifique su siguiente paso con criterio.
La orientación anticipatoria (feedforward) convierte el cierre de una actividad en el inicio de la mejora, al señalar con claridad qué cambiar, cómo hacerlo y según qué criterio. Un curso que organiza iteraciones y entregas parciales con retroalimentación utilizable multiplica la probabilidad de éxito.
La alineación constructiva da método a todas estas decisiones, mediante resultados precisos, tareas auténticas, criterios observables y un blueprint que asegure cobertura y equilibrio. Con esta arquitectura, la integridad deja de ser un problema meramente tecnológico y se vuelve un resultado del diseño; y la analítica deja de ser una colección de números para convertirse en soporte del juicio pedagógico.
En las restantes entradas de este Módulo se irán desplegando las piezas operativas, blueprints y rúbricas, analítica y retroalimentación, pruebas e instrumentos, auto/coevaluación y calificación y moderación, para consolidar una cultura evaluativa que enseña mientras evalúa, incluye mientras exige y mejora de manera sostenida el aprendizaje en entornos a distancia y digitales.
CUESTIONES PARA LA REFLEXIÓN Y EL DEBATE
- ¿En qué decisiones académicas de alto impacto vamos a usar los resultados de evaluación (acreditación, progresión, menciones de excelencia) y qué argumento institucional de validez y procedimiento de rendición de cuentas vamos a exigir a cada titulación (mapa de constructos, evidencias mínimas, umbrales y revisión anual)?
- ¿Qué políticas y flujos institucionales adoptaremos para que la retroalimentación (feedback) y la orientación anticipatoria (feedforward) sean operativas en grupos grandes (p. ej., iteraciones obligatorias, explicación de cambios, defensas breves, uso del LMS para comentarios anclados)?
FUENTES
- AERA, APA, y NCME. (2014 – revisión 2024). The Standards for educational and psychological testing. AERA, APA. NCME,
- Biggs, J. (2014). Constructive alignment in university teaching. HERDSA Review of Higher Education, 1.
- Black, P., y Wiliam, D. (2006). Assessment and classroom learning. Assessment in Education: Principles, Policy & Practice, 5(1).
- Carless, D., y Boud, D. (2018). The development of student feedback literacy: Enabling uptake of feedback. Assessment & Evaluation in Higher Education, 43(8).
- CAST. (2024). UDL Guidelines 3.0. https://udlguidelines.cast.org/
- Garrison, D. R., Anderson, T., y Archer, W. (2000). Critical inquiry in a text-based environment: Computer conferencing in higher education. The Internetand Higher Education, 2(2–3).
- García Aretio, L. (1994). Evaluación de los aprendizajes. En Educación a Distancia Hoy. UNED.
- García Aretio, L. (2001). La evaluación. En La educación a distancia. De la teoría a la práctica. Ariel.
- García Aretio, L. (2019). El problema del abandono en estudios a distancia: Respuestas desde el Diálogo Didáctico Mediado. Revista Iberoamericana de Educación a Distancia, 22(1).
- García Aretio (2020). Algunas tipologías de evaluación. Contextos universitarios mediados.
- García Aretio (2020). ¿Es tan importante la evaluación? Sus finalidades. Contextos universitarios mediados.
- García Aretio, L. (2021). ¿Podemos fiarnos de la evaluación en los sistemas de educación a distancia y digitales? RIED. Revista Iberoamericana de Educación a Distancia, 24(2).
- García Aretio, L. (2025). Diálogo Didáctico Mediado (DDM): Hacia una teoría superadora en educación a distancia. Contextos universitarios mediados.
- Kane, M. T. (2013). Validating the interpretations and uses of test scores. Journal of Educational Measurement, 50(1).
- Moore, M. G. (2013). The theory of transactional distance. In M. G. Moore (Ed.), Handbook of distance education (3.ª ed., pp. 84–103). Routledge.
- Nicol, D. (2021). The power of internal feedback: Exploiting natural comparison processes. Assessment & Evaluation in Higher Education, 46(5).
- Nicol, D. y McCallum, S. (2022). Making internal feedback explicit: Exploiting the multiple comparisons that occur during peer review. Assessment & Evaluation in Higher Education, 47(8).
- W3C/WAI. (2024). Web Content Accessibility Guidelines (WCAG) 2.2. https://www.w3.org/TR/WCAG22/
OpenEdition le sugiere que cite este post de la siguiente manera:
García Aretio (23 de octubre de 2025). Fundamentos y principios de la evaluación en EaD (C.EaD-81). Contextos universitarios mediados. Recuperado 26 de octubre de 2025 de https://doi.org/10.58079/15117