jueves, 13 de noviembre de 2025

Analítica temprana y retroalimentación (C.EaD-84)

 Por Lorenzo García Aretio

AUDIO   –   VÍDEO

Todas las entradas de la serie “80 años. Compendio EaD”, VER AQUÍ

En educación a distancia y digital (EaD), el tiempo es decisivo y cuanto antes detectamos que el aprendizaje se tuerce, se atasca, más posibilidades hay de reconducirlo. Por eso esta entrada conecta tres piezas que, juntas, convierten la evaluación en un proceso que enseña mientras evalúa:

  • analítica temprana (señales iniciales y que nos permitan actuar de inmediato),
  • retroalimentación (feedback), y
  • orientación anticipatoria (feedforward).

La analítica del aprendizaje, ya vista en otra entrada, la consideramos como el uso de datos sobre estudiantes y contextos para comprender y optimizar el aprendizaje y los entornos en los que ocurre. Bien diseñada, no pretende predecir notas, sino informar decisiones de docencia y de estudio (Long y Siemens, 2011; Ferguson, 2012).

Ahora bien, datos sin criterio no mejoran nada. La retroalimentación (feedback)aporta el juicio que compara la evidencia con criterios explícitos, los de las rúbricas, y señala la brecha, si la hubiere, entre el desempeño actual y el esperado (Hattie y Timperley, 2007; Shute, 2008). La orientación anticipatoria (feedforward) convierte ese juicio en siguientes pasos que nos pueden indicar qué cambiar, cómo y según qué criterio, en la próxima iteración. De ahí que en este Compendio hayamos insistido en que deben publicarse tablas de especificación (blueprints) y rúbricas desde el inicio, porque sin estándares visibles, la analítica se vuelve ruido y el feedback pierde sentido.

Además, si proponemos alfabetización en retroalimentación contamos con la ventaja de que se sitúa al estudiante como agente capaz de entender criterios, emitir juicios sobre su trabajo y actuar con base en ellos; en esa lógica, la analítica temprana no etiqueta personas, sino que informa oportunidades para ejercer y actuar (Carless y Boud, 2018; Winstone y Carless, 2019; Nicol, 2021, 2022). Todo ello debe armonizarse con principios de ética, proporcionalidad y transparencia en el uso de datos. Hablamos de una finalidad pedagógica clara, indicadores minimizados y explicables, y una comunicación honesta de cómo se generan y usan las señales (Slade y Prinsloo, 2013; Jisc, 2015-2023).

Esta entrada, por tanto, ofrece un marco aplicable a cualquier disciplina de cualquier curso o titulación y trata de responder a tres preguntas:

  • qué es una analítica temprana útil,
  • cómo se integra con feedback y feedforward para impulsar la mejora, y
  • cómo se asegura calidad y ética en su despliegue.

Y todo desde el enfoque del Diálogo Didáctico Mediado (DDM) que se sustanciaría en, señales para abrir el diálogo, feedback para entender el estándar, y feedforward para actuar con criterio (García Aretio, 2021; Winstone y Carless, 2019).

MARCO CONCEPTUAL

Analítica temprana: señales útiles

La analítica temprana son indicadores que permiten intervenir antes de que la brecha sea difícil de cerrar. No son diagnósticos clínicos ni oráculos, sino pistas sobre actividadprogreso y calidad de la evidencia recogida. En EaD, suelen agruparse en tres familias:

  • ritmo/participación (p. ej., primera conexión, regularidad de estudio, entregas a tiempo),
  • dominio (p. ej., desempeño inicial en cuestionarios, pruebas o tareas breves), y
  • uso del estándar (p. ej., autocotejo con rúbrica, comparación con ejemplos anclados).

Su valor está en ser accionables, es decir, cada señal debería conducir a una acción concreta de docente o estudiante.

Feedback y feedforward

El feedback eficaz describe dónde está el desempeño respecto a criterios visibles y cómo se puede mejorar; el feedforward programa esa mejora en la siguiente entrega (Hattie y Timperley, 2007; Shute, 2008). En clave de alfabetización en retroalimentación el estudiantado comprende el estándar, juzga evidencias (propias y ajenas) y actúa con base en ello (Carless y Boud, 2018; Winstone y Carless, 2019). En EaD, esto se operacionaliza pidiendo explicación de cambios (qué, cómo y según qué criterio) y una defensa breve (presencial o en línea) que permita contrastar criterio docente y autoría del estudiante, equivaldrían a esos turnos de palabra pedagógicamente intencionados del DDM.

Coherencia con tabla de especificación y rúbrica

Las señales tempranas heredan su sentido del blueprint y de la rúbrica, es decir, si el resultado central es “argumentar con evidencia”, las primeras tareas y cuestionarios deben evidenciar operaciones de comprender y aplicar, no solo recordar definiciones, y la rúbrica debe nombrar con precisión qué es lo que cuenta como una buena argumentación. La analítica que mira meras “conexiones al LMS” sin anclaje a criterios difícilmente sostendrá decisiones pedagógicas.

DISEÑAR SEÑALES TEMPRANAS QUE AYUDEN A APRENDER

Principios de diseño

  • Finalidad pedagógica clara. Cada indicador debe responder a la pregunta: “¿qué se puede hacer distinto si esta situación o respuestas aparecen?”. Si al cerciorarse de ello no se puede activar una acción concreta (p. ej., enviar un ejemplo anclado, abrir tutoría breve, proponer reintento), ese indicador no aporta y conviene eliminarlo.
  • Validez y proximidad al constructo. Priorizar señales que reflejen aprendizaje real ligado a los objetivos pretendidos (microtareas con criterio, minicasos, borradores comentados) frente a métricas de pura actividad técnica (clics, minutos de conexión). Lo primero informa la docencia; lo segundo, a menudo, confunde.
  • Simplicidad y parsimonia. Es preferible trabajar con pocos indicadores bien elegidos y con acciones asociadas claras, que con paneles recargados que nadie consulta (Clow, 2013).
  • Accesibilidad y equidad. Evitar que la señal penalice factores no esenciales al constructo (conectividad intermitente, husos horarios, dispositivos). Deben diseñarse indicadores y paneles conforme al Diseño Universal para el Aprendizaje (DUA) y a WCAG para garantizar comprensión y uso por todo el alumnado (CAST, 2024; W3C/WAI, 2024).
  • Transparencia y consentimiento informado. Explicar al comienzo de curso qué se observará, para qué se usará y cómo se actuará ante cada alerta. Esta claridad reduce desconfianza y convierte la analítica en un recurso compartido para aprender (Slade y Prinsloo, 2013; Jisc, 2015-2023).

Umbrales y “semáforos” con sentido

Es legítimo definir umbrales (por ejemplo: “si la microtarea 1 no está en la semana 2 → alerta”), pero deben ser flexibles y revisables según el contexto. Mejor utilizar un sistema de semáforos o niveles explicables que números opacos, por ejemplo, podríamos proponer verde (todo correcto, en curso), ámbar (necesita una acción concreta definida), rojo (requiere intervención docente). Cada color, cada nivel, debe tener asociada una respuesta estándar, mensaje criterial, recurso breve, reintento con guía o defensa breve.

CALIDAD, ÉTICA Y ACCESIBILIDAD DE LA ANALÍTICA TEMPRANA

Propósito, minimización y explicabilidad

La analítica debe estar al servicio de decisiones pedagógicas identificables (no para vigilancia). Deberíamos minimizar variables, evitar datos sensibles no necesarios y explicar con palabras qué significa cada señal (“has hecho X, falta Y, te proponemos Z”). Ya hemos insistido en ello, siempre la explicabilidad viene a promover la confianza y el aprendizaje (Slade y Prinsloo, 2013; Jisc, 2015-2023).

Proporcionalidad y derechos

Tanto las señales como las acciones deben ser proporcionales al impacto académico. Deberemos evitar los automatismos sancionadores y contemplar la apelación o revisión humana. En EaD, nos debemos exigir de forma especial el cuidar la accesibilidad (DUA, WCAG) en paneles, rúbricas y recursos, mediante un lenguaje claro, navegación coherente, foco visible, alternativas textuales (CAST, 2024; W3C/WAI, 2024).

Evaluación del propio sistema

No basta con “tener” analítica y aplicarla de aquella manera, hay que evaluar si mejora el aprendizaje y se promueve más equidad. Deben considerarse Indicadores institucionales sensatos, como tiempo medio de feedback útil, porcentaje de feedforward entregado, uso de ejemplos anclados, reducción de abandono temprano, satisfacción informada de estudiantes y docentes. Y, finalmente, ajustar los umbrales y diseños con base en evidencias, no en intuiciones aisladas.

CONCLUSIONES

El valor de la analítica temprana no está en adivinar el futuro, sino en ganar tiempo pedagógico. Señales bien elegidas, pocas, pertinentes y explicables, permiten abrir a tiempo el diálogo didáctico, así, nombran dónde se atasca el aprendizaje y a quién conviene atender hoy, no cuando ya sea tarde. Pero esos datos no enseñan solosenseña el feedback cuando compara la evidencia con criterios visibles y enseña el feedforward cuando convierte la información en siguientes pasos realizables.

En este marco, el blueprint y la rúbrica actúan como anclajes de sentido, porque evitan señales triviales (clics, minutos) y orientan la recogida de evidencias relevantes del constructo. El circuito operativo, señal → feedback criterial → explicación de cambios → nueva evidencia, permite a los equipos actuar pronto y con medida. La defensa breve y el registro verificable del proceso añaden una capa de autoría y comprensión que, en EaD, resulta especialmente valiosa.

La ética y la accesibilidad no son anexos, sino condiciones de posibilidad. La analítica temprana debe tener finalidad pedagógicaminimizar variables, ser explicable para estudiantes y docentes y respetar derechos y ajustes razonables. Un sistema que transparenta cómo y para qué usa las señales genera confianza; uno que “opaca” o estigmatiza, la destruye.

Cualquier facultad o programa puede empezar sencillo. Por ejemplo, fijando un paquete mínimo de señales criteriales por titulación, programa, curso o asignatura, usar rúbricas y ejemplos anclados para nombrar el estándar, y exigir en el LMS el binomio feedback + feedforward (con explicación de cambios) en las tareas iterativas. Con cada edición, los datos retroalimentan el diseño, así se afinan indicadores, se ajustan descriptores, se revisan umbrales y se comparte lo que funciona.

El resultado es un ecosistema que enseña mientras evalúa y mejora mientras acredita, capaz de sostener decisiones por su validezconsistenciaequidad y utilidad, y de acompañar al estudiantado en el tiempo oportuno.

CUESTIONES PARA LA REFLEXIÓN Y EL DEBATE

  • ¿Qué cuatro–seis indicadores criteriales adoptará la titulación o programa en el primer año para todas las asignaturas (inicio, microtarea, minitest de comprender, uso de rúbrica, etc.) y qué acción asociada tendrá cada “ámbar/rojo”? Definir umbrales explicables y revisables.
  • ¿Qué estándares mínimos exigiremos en el LMS (comentarios anclados, “explicación de cambios”, plazos de respuesta) para que las señales no se queden en alertas y se conviertan en siguientes pasos verificables a escala?

FUENTES

  • American Educational Research Association, American Psychological Association, y National Council on Measurement in Education. (2014). Standards for educational and psychological testing. American Educational Research Association.
  • Carless, D., y Boud, D. (2018). The development of student feedback literacy: Enabling uptake of feedback. Assessment & Evaluation in Higher Education, 43(8).
  • CAST. (2024). UDL Guidelines 3.0https://udlguidelines.cast.org/
  • Clow, D. (2013). MOOCs and the funnel of participation. En Proceedings of the 3rd International Conference on Learning Analytics and Knowledge (LAK ’13) (pp. 185-189). ACM.
  • Ferguson, R. (2012). Learning analytics: Drivers, developments and challenges. International Journal of Technology Enhanced Learning, 4(5/6).
  • García Aretio, L. (2021). ¿Podemos fiarnos de la evaluación en los sistemas de educación a distancia y digitales? RIED. Revista Iberoamericana de Educacióna Distancia, 24(2).
  • Hattie, J., y Timperley, H. (2007). The power of feedback. Review of Educational Research, 77(1).
  • Jisc. (2015/2023). Code of practice for learning analytics (Publicado 4 de junio de 2015; última actualización 2 de agosto de 2023). Jisc.
  • Long, P. D., y Siemens, G. (2011). Penetrating the fog: Analytics in learning and education. EDUCAUSE Review, 46(5).
  • Nicol, D. (2021). The power of internal feedback: Exploiting natural comparison processes. Assessment & Evaluation in Higher Education, 46(5).
  • Nicol, D. (2022). Making internal feedback explicit: Exploiting the multiple comparisons that occur during peer review. Assessment & Evaluation in Higher Education, 47(5).
  • Shute, V. J. (2008). Focus on formative feedback. Review of Educational Research, 78(1).
  • Slade, S., y Prinsloo, P. (2013). Learning analytics: Ethical issues and dilemmas. American Behavioral Scientist, 57(10).
  • World Wide Web Consortium (W3C) / Web Accessibility Initiative (WAI). (2024). Web Content Accessibility Guidelines (WCAG) 2.2. Recomendación W3C (publicada originalmente 5 de octubre de 2023, actualizada 12 de diciembre de 2024). World Wide Web Consortium (W3C).
  • Winstone, N., & Carless, D. (2019). Designing effective feedback processes in higher education: A learning-focused approach. Routledge.
OpenEdition le sugiere que cite este post de la siguiente manera:
García Aretio (3 de noviembre de 2025). Analítica temprana y retroalimentación (C.EaD-84). Contextos universitarios mediados. Recuperado 9 de noviembre de 2025 de https://doi.org/10.58079/152y8

No hay comentarios: