Por Lorenzo García Aretio
Todas las entradas de la serie “80 años. Compendio EaD”, VER AQUÍ
La Analítica del Aprendizaje (AA) (learning analytics, LA) se ha consolidado en la educación superior como un ámbito interdisciplinar orientado a recoger, analizar, interpretar y comunicar datos sobre los estudiantes y sus contextos con el fin de comprender y optimizar el aprendizaje y, en consecuencia, la enseñanza. Las definiciones más asentadas subrayan que la AA debe producir evidencias pertinentes y útiles para la toma de decisiones didácticas, desplazando el énfasis del ‘dato por el dato’ hacia su sentido pedagógico. En este marco, la AA actúa como mediación pedagógica porque transforma huellas digitales dispersas en señales con significado que alimentan decisiones didácticas y retroalimentación oportuna.
Esta entrada se apoya en las dos anteriores de este módulo (una y dos) y prepara el terreno para la siguiente sobre aprendizaje adaptativo y personalización. Aquí, la AA queda como infraestructura de evidencia que nutre la tutoría, la retroalimentación y la toma de decisiones de rediseño didáctico en la asignatura o el programa.
Desde la perspectiva de la Teoría del Diálogo Didáctico Mediado (DDM), de García Aretio (2001, 2025), que vertebra conceptualmente gran parte de los fundamentos y estructuras de la educación a distancia, podemos entender que los datos operan como mediadores metainformacionales que aumentan, enriquecen y, en ocasiones, hacen visible la conversación que se produce entre estudiantes con docentes, sus pares y los contenidos. No se trata, por tanto, de sustituir el juicio experto del docente, sino de iluminarlo con patrones y tendencias que, de otro modo, permanecerían ocultos, con el fin de ofrecer andamiajes o apoyos más finos y ajustes precisos en la secuencia didáctica.
Es imprescindible, por tanto, alinear el problema en cuestión, las métricas y los modelos analíticos con los marcos de aprendizaje y los resultados esperados, evitando así la tentación de reducir la riqueza de los datos a un simple contador de clics. El verdadero valor de la AA se manifiesta en un ciclo de mejora continua que articula, como decimos, de forma coherente estas fases:
- formular el problema educativo que se quiere mejorar;
- diseñar las métricas, el ecosistema de datos, asegurando su calidad y recogiendo la mínima cantidad necesaria;
- modelar e interpretar los datos con criterios de validez (miden lo que dicen medir), fiabilidad (son consistentes) y explicabilidad (fácilmente entendibles por estudiantes y docentes);
- devolver los hallazgos en formatos adecuados a cada actor; y
- actuar sobre esas evidencias, y
- evaluar el impacto de dichas acciones.
Este potencial, sin embargo, convive con riesgos significativos como:
- los sesgos algorítmicos,
- las lecturas reduccionistas del compromiso estudiantil,
- la fatiga por un exceso de notificaciones, o
- un uso meramente administrativo que desvirtúa su fin pedagógico.
Por ello, una implementación exitosa, ética y sostenible de la AA exige un compromiso firme con tres pilares que recorren esta entrada, una gobernanza del dato centrada en lo pedagógico, aplicaciones situadas con protocolos claros de intervención y un diseño que tenga la equidad como criterio irrenunciable.
FUNDAMENTOS: PROPÓSITO, TIPOS Y UNIDADES DE ANÁLISIS
Propósito formativo y deslinde con la Analítica Institucional
Conviene distinguir con claridad la Analítica del Aprendizaje (AA) de la Analítica Académica o Institucional (academic analytics). Mientras esta última opera en niveles agregados (programa, facultad, institución) con fines de gestión, planificación y rendición de cuentas (accountability), la AA trabaja cerca de la experiencia de aprendizaje (asignatura, grupos, estudiantes) para producir efectos formativos directos. Confundir ambas conduce a aplicar indicadores “macro” a problemas “micro”, con decisiones poco pertinentes para la docencia cotidiana. Este deslinde aparece ya en textos seminales que situaron la AA en la mejora formativa y la academic analytics en la gestión institucional (Campbell et al., 2007; Long y Siemens, 2011). El deslinde evita confusiones de responsabilidad (¿quién actúa?) y pertinencia (¿qué indicador sirve a qué decisión?).
Cuatro enfoques de analítica al servicio de la docencia
De forma pragmática, podemos organizar la AA en cuatro enfoques concatenados, cada uno respondiendo a una pregunta didáctica distinta:
- Analítica Descriptiva. Sintetiza lo que ha ocurrido, mostrando patrones de actividad y progreso. Responde al “¿qué está ocurriendo?”.
- Analítica Diagnóstica. Busca las causas de esos patrones, relacionando diseño pedagógico y participación para identificar cuellos de botella. Es el “¿por qué ocurre?”.
- Analítica Predictiva. Estima la probabilidad de eventos futuros, como el riesgo de abandono o de no alcanzar los resultados, basándose en tendencias pasadas. Pregunta: “¿qué pasará si no intervenimos?”.
- Analítica Prescriptiva. Sugiere acciones concretas para optimizar el aprendizaje, como recomendar recursos específicos o proponer una tutoría. Se orienta al “¿qué conviene hacer?”.
Esta tipología solo resulta útil si los modelos son explicables y las recomendaciones son proporcionales al problema detectado. Un modelo predictivo, por muy preciso que sea, es inútil si no va acompañado de un protocolo de actuación claro que guíe la intervención.
Unidades de análisis y diseño pedagógico
La unidad de análisis condiciona la interpretación de cualquier señal. Un “bajo número de accesos” no significa lo mismo en un seminario basado en lecturas extensas que en un curso con pruebas frecuentes. Conviene, igualmente, diferenciar datos referentes a individuo, grupo, asignatura, programa o institución. También el diseño pedagógico (secuencias, rúbricas, ventanas temporales) debería determinar qué eventos tienen sentido pedagógico y cuáles son ruido con el fin de afinar la unidad de análisis.
DEL DATO A LA INTERVENCIÓN: INDICADORES CON SIGNIFICADO
Alineación en tres pasos
El proceso de medir bien empieza por la capacidad de formular buenas preguntas pedagógicas dirigidas a resolver un determinado problema o propuesta de enseñanza/aprendizaje. El ciclo virtuoso de la AA se articula en un triángulo esencial:
- definir qué aspecto del aprendizaje se quiere mejorar, qué problema queremos resolver;
- identificar qué evidencias observables en el entorno digital pueden representar razonablemente ese constructo; y
- establecer qué se hará cuando se detecte una señal que requiera atención.
Sin esta alineación, los paneles de analítica se convierten en mera decoración digital.
Indicadores con sentido pedagógico
Para construir indicadores con sentido, es preciso evitar los sumatorios de clics y priorizar señales compuestas y con semántica pedagógica. Algunos ejemplos:
- Para medir la autorregulación, más que el tiempo total de conexión (que puede ser pasivo), es más revelador observar la regularidad semanal de estudio o la consulta de la rúbrica antes de una entrega.
- Una participación significativa en un foro no se mide por el número de mensajes, sino por la reciprocidad (mensajes que reciben y generan respuestas) y la profundidad de las aportaciones.
- El compromiso con la tarea se puede inferir de las visitas a recursos definidos como clave por el docente o del avance en listas de verificación, no del simple número de accesos.
- La progresión hacia los resultados, como hitos intermedios alcanzados (microentregas), desempeño en cuestionarios diagnósticos, mapas de dominio, que no deben reducirse a calificaciones finales (indicadores tardíos).
La regla práctica es elegir pocos indicadores, pero que tengan sentido pedagógico; si una métrica no tiene asociada una acción educativa clara, es prescindible.
Umbrales y alertas útiles (sensibilidad vs. precisión)
Se trataría de definir un umbral, es decidir, cuándo actuar. Esto implica calibrar la sensibilidad (no dejar escapar casos que necesitan ayuda) y la precisión (no molestar con falsas alarmas). Es recomendable por ello:
- Empezar con pilotos y bandas (bajo-medio-alto) en vez de cifras rígidas.
- Activar alertas cualificadas por combinación de señales (no por una sola).
- Explicar cada alerta en una frase, (“salta porque no hay regularidad y no se consultó la rúbrica antes de la entrega”).
- Equidad, evitando que los indicadores penalicen horarios atípicos, conectividad o responsabilidades de cuidado familiar…
De la predicción a la intervención (evidencia disponible)
La analítica del aprendizaje aporta valor cuando una señal permite anticipar y desplegar micro-intervenciones que mejoran la trayectoria del estudiantado. La Open Academic Analytics Initiative (OAAI) (un proyecto abierto impulsado desde Marist College de Estados Unidos) mostró que los modelos predictivos solo adquieren sentido cuando se canalizan hacia acciones docentes y de apoyo a tiempo (mensajes personalizados, tutorías, materiales de refuerzo). Así lo evidencian los trabajos asociados al proyecto, como Jayaprakash et al. (2014).
GESTIÓN DEL DATO PARA EL APRENDIZAJE
Hablar de gestión del dato (o gobernanza) es hablar de poner norma, orden y sentido pedagógico a la información. Se trata de establecer acuerdos claros y roles definidos para asegurar que los datos sirven exclusivamente para mejorar el aprendizaje, y no se convierten en un fin en sí mismos. Un marco mínimo, pragmático y legible debería cubrir
- Propósito pedagógico: los datos se usan para orientar docencia, tutoría y apoyo; en este caso se descarta la curiosidad estadística.
- Necesidad y proporcionalidad (minimización): recogemos solo lo necesario, al nivel de detalle imprescindible.
- Transparencia: estudiantes y docentes saben qué se recoge, para qué y cómo se convertirá en señales útiles.
- Seguridad y cuidado: accesos limitados, registros de auditoría, tiempos de conservación definidos y borrado programado.
- Explicabilidad: si hay puntuaciones de riesgo o recomendación, podemos explicar con claridad variables y razones de la alerta.
- Equidad: monitorizamos y mitigamos sesgos y brechas (conectividad, empleo, discapacidad).
- Revisión continua: si algo no funciona o genera efectos no deseados, se retira o corrige.
Estos principios se alinean con el Código de buenas prácticas para Analítica del Aprendizaje (Code of Practice for Learning Analytics) de Jisc, guía de referencia para despliegues responsables y eficaces en universidades (Jisc, 2015).
Ciclo de vida del dato con propósito pedagógico
Este enfoque se materializa en un ciclo de vida del dato con un propósito pedagógico en cada fase, desde el diseño y la recogida hasta la intervención y la mejora continua. Para ello, es útil definir roles y responsabilidades claras (Comité de Analítica, enlaces de facultad, equipos docentes) y desarrollar documentos prácticos como una política de uso pedagógico del dato, fichas de indicadores o protocolos de actuación ante alertas. Antes de activar cualquier indicador, aplica una prueba de equidad y proporcionalidad: ¿podría esta métrica penalizar a un estudiante con conectividad irregular o que estudia de noche? Si sí, busca una alternativa más justa.
Estándares e interoperabilidad
Para que los eventos tengan semántica portable y los paneles integren fuentes diversas (LMS, foros, vídeo, biblioteca), conviene apoyarse en estándares.
- En el ecosistema universitario, 1EdTech Caliper Analytics proporciona perfiles de métrica y un vocabulario de eventos para modelar actividades de aprendizaje.
- En contextos corporativos y mixtos, Experiencia API (Experience API, xAPI) permite registrar experiencias en un repositorio de registros de aprendizaje más allá del LMS.
Lo relevante es elegir estándares que faciliten trazabilidad, explicabilidad y reuso del dato con propósito formativo (1EdTech Consortium, 2015; Rustici Software, s. f.).
LA AA EN LA PRÁCTICA DOCENTE: DISEÑO, TUTORÍA Y EVALUACIÓN
Integración con el ecosistema digital
El objetivo no es “medir más”, sino medir aquello que permite intervenir a tiempo. La analítica del aprendizaje se integra en el LMS y, cuando convenga, en repositorios de registros de aprendizaje (LRS) que reciben eventos desde otras herramientas (foros, vídeo, bibliotecas digitales, laboratorios virtuales). La clave es que cada dato tenga sentido didáctico y se relacione con decisiones que el equipo docente realmente está dispuesto a tomar durante el curso.
Indicadores nucleares que sí ayudan a decidir (ejemplos):
- Acceso con intención a recursos clave (no solo “clics”, sino apertura y permanencia mínima en lecturas o vídeos críticos para la tarea). Esto permite recordatorios proactivos antes de un hito.
- Regularidad de estudio (patrones semanales de conexión): útil para detectar interrupciones y ofrecer apoyo temprano.
- Participación con reciprocidad en foros (no solo publicar, sino leer y responder): habilita micro-andamiajes sobre diálogo académico, no mera cantidad.
- Hitos de trabajo (borradores y microentregas): informan quién necesita una tutoría rápida antes de la entrega final.
- Consulta de rúbricas antes de entregar: predice calidad y permite mensajes preventivos (“revisa el criterio 3 antes de subir la versión final”).
Importante: Si un dato no conduce a una acción concreta, no se recoge. Esto reduce ruido, carga cognitiva y riesgos innecesarios de tratamiento de datos.
Dónde se integran y cómo se ven
En la práctica, los indicadores viven principalmente en el LMS y, cuando hay varias fuentes, se consolidan mediante conectores/estándares (p. ej., xAPI o Caliper) que resumen solo lo relevante para el curso. Se conservan únicamente los campos necesarios para explicar cada señal (alerta o recomendación).
- Estudiantes: deberían ver su progreso respecto de sí mismos (trayectoria personal y próximos pasos), evitando comparativas estigmatizantes.
- Docentes/Tutores: necesitan patrones y alertas combinadas con guiones de intervención (qué mensaje enviar, cuándo y con qué objetivo).
- Coordinación: cuadros de mando agregados para vigilar equidad, cargas y cuellos de botella entre grupos o asignaturas.
Flujo mínimo (semanal) de trabajo con AA
- Definir 3–5 indicadores alineados con el diseño del curso (no más).
- Fijar bandas (verde/ámbar/roja) y redactar una sola frase explicativa por alerta (“¿qué significa?” y “¿qué hacer ahora?”).
- Revisar el panel y ejecutar acciones breves (mensaje, tutoría individual/grupal, ajuste de secuencia o plazos).
- Comprobar respuesta y ajustar indicadores/umbrales (ciclo de mejora continua).
Este flujo evita paneles inmanejables y centra la energía docente en intervenciones pedagógicas de alto impacto.
Errores frecuentes (y cómo evitarlos)
- Contar “clics” sin significado: mejor, priorizar señales con semántica pedagógica (p. ej., consulta de rúbrica antes de entregar).
- Activar alertas por un dato aislado: mejor, combinar dos o más señales antes de avisar.
- Comparaciones que estigmatizan: mejor informar sobre progreso propio y metas alcanzables.
- Paneles interminables: mejor limitar a 3–5 indicadores estables.
- Recogida “por si acaso”: mejor aplicar minimización y propósito claro para cada dato.
Uso didáctico de los datos (en el DDM)
- Diseño. Antes de empezar, explicitar qué evidencias se esperan de cada actividad (p. ej., “leer el artículo X, participar dos veces en el foro, subir un borrador”). Integrar indicadores de proceso (no solo de resultado) para poder retroalimentar temprano y evitar que el error se consolide.
- Docencia/Tutoría. Programar disparadores temporales (p. ej., si no se ha abierto el recurso clave a 72 horas del hito) y usar mensajes personalizados con recomendaciones operativas. Reordenar tareas, abrir pequeñas ventanas de flexibilidad ante picos de carga y ofrecer microtutorías a quienes muestran señales de bloqueo.
- Inclusión. Monitorizar brechas de conectividad y patrones de acceso en franjas horarias; cuando se detecten problemas, facilita alternativas de acceso (materiales descargables), ajustes razonables en plazos y canales alternativos de participación.
- Sistemas Tutores Inteligentes (STI) y AA. Los STI se nutren de señales de AA para adaptar pistas, prácticas y secuencias. La AA ayuda a explicar por qué el sistema sugiere una u otra dificultad, sin desplazar la centralidad del tutor humano que decide y acompaña.
- IA generativa (IAG) y AA. Los asistentes generativos pueden co-redactar feedback y proponer acciones (p. ej., “revisa el criterio 2 de la rúbrica y practica con estos ítems”). La AA aporta contexto para que esa ayuda sea pertinente, oportuna y comprensible.
Devolución de información (informes y feedback)
- Para estudiantes. Informes claros y breves, centrados en el progreso propio (“dónde estás respecto a tu meta”), con siguientes pasos concretos (“qué hacer esta semana”) y llamadas a la acción. Evita etiquetas y comparativas con el grupo; prioriza mensajes que fortalecen la autorregulación.
- Para docentes. Tendencias (quién mejora, quién se estanca), segmentaciones útiles (quienes no consultaron la rúbrica), y guiones de intervención listos para enviar o adaptar.
- Para coordinación. Cuadros de mando que vigilen equidad (resultados por subgrupos), cargas (picos simultáneos de entregas) y coherencia entre asignaturas (solapamientos, secuencias poco realistas).
IMPACTO INSTITUCIONAL EN LA UNIVERSIDAD A DISTANCIA
- Misión y valor público. La AA debe reducir brechas y mejorar la retención, incorporando indicadores de equidad y perfiles de vulnerabilidad (conectividad, empleo, discapacidad). Informes accesibles refuerzan la legitimidad social de la EaD.
- Cultura de evidencia pedagógica. Pasar de la intuición individual a la memoria organizativa, revisiones periódicas, repositorios de prácticas efectivas y glosarios compartidos para evitar ambigüedades conceptuales.
- Desarrollo profesional docente. Alfabetización sobre analítica, breve y situada, como micro-formaciones, mentoría entre pares y materiales de autoaprendizaje para leer indicadores con espíritu crítico y ofrecer retroalimentación cuidadosa.
- Diseño curricular y evaluación. A escala de programa, la AA ayuda a identificar cuellos de botella, revisar coherencia horizontal/vertical de cargas, auditar instrumentos de evaluación y promover tareas auténticas con datos de proceso.
- Sostenibilidad y costos. Para evitar proyectos efímero, priorizar pocos indicadores de alto valor; automatizar tareas administrativas repetitivas; avanzar con pilotos escalables y gestión clara (roles, tiempos, evaluación).
- Gobernanza, ética y confianza. La legitimidad exige políticas transparentes, explicabilidad de modelos y respeto a derechos del estudiantado. Los riesgos técnicos/éticos (sesgos, errores, sobre-vigilancia) se registran con planes de mitigación (proporcionalidad, minimización, acceso limitado, revisión). Recomendaciones prácticas como las de Jisc sirven de guía para configurar marcos responsables (Jisc, 2015).
- Modelos de madurez y evaluación del sistema. Un modelo de madurez permite autoevaluar avances en gobernanza o gestión, uso pedagógico y equidad. Evaluar la AA no es contar accesos a paneles, sino verificar acciones derivadas, tasas de respuesta a alertas, impacto en participación y logro, y efectos distributivos (¿a quién beneficia más?).
CONCLUSIONES
La analítica del aprendizaje (AA), en su concepción más avanzada y pedagógicamente fundamentada, no es un fin en sí misma, sino un medio para fortalecer el diálogo didáctico con evidencias oportunas y pertinentes. En el contexto de la Educación a Distancia, su gran ventaja es la capacidad de anticipar dificultades, contextualizar las necesidades de los estudiantes y facilitar actuaciones formativas que orienten decisiones concretas.
La clave de su éxito no reside en el volumen de los datos, sino en su significado educativo y en la capacidad institucional para traducir las señales digitales en intervenciones humanas. Como hemos desgranado, el potencial de la AA se despliega sobre cuatro pilares:
- una clara distinción conceptual entre learning y academic analytics;
- una gobernanza o gestión del dato que garantice su calidad, explicabilidad y equidad;
- una aplicación situada que transforme el análisis en mejora concreta; y
- un impacto institucional que impulse el aprendizaje organizativo.
Desde la perspectiva del Diálogo Didáctico Mediado (DDM), la pregunta de control es clara y directa: ¿está la analítica aumentando la densidad y la calidad de la interacción valiosa entre estudiantes, docentes y contenidos? Si la respuesta es afirmativa, la herramienta cumple su propósito de mediación y enriquecimiento. Si no, es necesario replantear métricas y protocolos. El futuro cercano, marcado por la convergencia de la AA con la inteligencia artificial generativa, promete un feedback aún más rico y personalizado.
Sin embargo, esta evolución tecnológica no hace sino acentuar la responsabilidad ética de garantizar la explicabilidad y la rendición de cuentas. Siempre deberá ser posible explicar en lenguaje comprensible por qué un sistema recomienda una acción y debe existir un canal humano para el contraste y el diálogo. En última instancia, con equipos mixtos, protocolos claros y una formación continua, la analítica del aprendizaje puede consolidarse como una práctica cotidiana de mejora, una herramienta poderosa para construir experiencias educativas más justas, eficaces y humanas, plenamente alineada con la misión social de la universidad.
CUESTIONES PARA LA REFLEXIÓN Y EL DEBATE
- Ante una alerta, ¿quién hace qué, cuándo y con qué guion? ¿Cómo medimos el efecto a corto y medio plazo y qué ajustes de diseño se desprenden?
- ¿Qué información reciben estudiantes y docentes sobre datos, modelos y límites? ¿Existen canales efectivos para acceder, corregir u objetar?
FUENTES
- Campbell, J. P., DeBlois, P. B., y Oblinger, D. G. (2007). Academic analytics: A new tool for a new era. EDUCAUSE Review, 42(4).
- Deming, W. E. (2000). The New Economics for Industry, Government, Education (2.ª ed.). The MIT Press.
- García Aretio, L. (2001). Educación a distancia. De la teoría a la práctica. Ariel.
- García Aretio, L. (2025). Diálogo Didáctico Mediado (DDM): Hacia una teoría superadora en educación a distancia (C.EaD-9). Contextos universitarios mediados.
- Institute for Healthcare Improvement. (s. f.). How to improve: Testing changes (PDSA).
- Jisc. (2015). Code of practice for learning analytics. https://www.jisc.ac.uk/guides/code-of-practice-for-learning-analytics
- Jayaprakash, S. M., Moody, E. W., Lauría, E. J. M., Regan, J. R., y Baron, J. D. (2014). Early alert of academically at-risk students: An open-source analytics initiative. Journal of Learning Analytics, 1(1).
- Long, P., y Siemens, G. (2011). Penetrating the fog: Analytics in learning and education. EDUCAUSE Review, 46(5).
- 1EdTech Consortium. (2015). Caliper Analytics™ Implementation Guide (v1.0). https://www.imsglobal.org/spec/caliper/v1p2
- Rustici Software. (s. f.). xAPI: What is xAPI (the Experience API). https://xapi.com/overview/
García Aretio (9 de octubre de 2025). Analítica del aprendizaje: claves y retos (C.EaD-77). Contextos universitarios mediados. Recuperado 12 de octubre de 2025 de https://doi.org/10.58079/14vq2

No hay comentarios:
Publicar un comentario