viernes, 28 de noviembre de 2025

Más allá de la calificación: hacia una evaluación inteligente, ética y centrada en el aprendizaje

 Por Paulette Delgado


Durante décadas, se consideró que el propósito principal de la evaluación del aprendizaje era el de medir: aplicar una prueba que comprobaba que el estudiante estaba entendiendo y dominando el tema y, muchas veces, esto definía el destino académico de los estudiantes. 

Sin embargo, hoy en día esta manera de entender la evaluación está en crisis. En pleno siglo XXI, evaluar no significa sólo medir, sino acompañar, comprender y retroalimentar el proceso de aprendizaje. Especialmente con los avances en inteligencia artificial (IA), el aprendizaje adaptativo y la analítica de datos han abierto nuevas oportunidades para diseñar una evaluación más justa, ética y personalizada. Aunque esto es algo positivo, al mismo tiempo, plantea dilemas sobre el papel docente, la privacidad y la autonomía del estudiante. 

De la medición al acompañamiento

En su artículo Desde los tests hasta la investigación evaluativa actual (2003), Tomás Escudero describe cómo ha evolucionado la evaluación educativa a lo largo del siglo XX, mostrando cómo pasó de ser un proceso técnico y cuantitativo a ser más complejo, ético y pedagógico.

El autor identifica cuatro grandes etapas que sintetizan los cambios de paradigma:

  1. La etapa de la medición (inicios del siglo XX):
    Dominada por el paradigma psicométrico, la evaluación se concebía como un proceso de medición objetiva de habilidades y rendimientos. Se inspiraba en el modelo de las ciencias naturales, se priorizaba la precisión estadística y la estandarización. El estudiante era considerado un “objeto de medición” y el fin era comparar, clasificar y predecir el desempeño. Figuras como los psicólogos Thorndike y Terman marcaron esta etapa, centrada en los tests de inteligencia y las pruebas normativas.
  2. La etapa descriptiva (mediados del siglo XX):
    En su análisis, Escudero identifica que durante esta segunda etapa, con la expansión de la educación masiva y la influencia de Ralph W. Tyler, la evaluación comenzó a describirse en función de objetivos educativos. Tyler diseñó un modelo de desarrollo curricular que introdujo la idea de evaluar para comprobar el grado de logro de metas previamente definidas. Esto dio origen a la planeación por objetivos y a la evaluación curricular. Aun así, el enfoque seguía siendo funcionalista: se evaluaban productos, no procesos.
  3. La etapa del juicio de valor (años sesenta y setenta):
    Durante esta etapa, Escudero señala que, con los aportes de Scriven y Stake, la evaluación experimentó un giro conceptual: dejó de limitarse a medir y comenzó a emitir juicios de valor fundamentados sobre la calidad y pertinencia de los programas. Scriven introdujo la distinción entre evaluación formativa y sumativa, mientras que Stake desarrolló el enfoque responsivo y promovió el uso de estudios de caso. Se reconoció al evaluador como intérprete y no solo como técnico, y se consolidó la idea de que toda evaluación conlleva una dimensión ética y política.
  4. La etapa de la investigación evaluativa (finales del siglo XX):
    Finalmente, Escudero describe la consolidación de una visión holística, interpretativa y participativa. La evaluación se integra a la investigación educativa como una práctica de comprensión y transformación, donde el contexto, las voces de los actores y la retroalimentación cobran protagonismo. Ya no se trata de calificar resultados, sino de acompañar procesos de aprendizaje y mejora institucional.

De este recorrido que hizo Escudero sobre la evaluación se llega a una conclusión clave: la evaluación es un fenómeno social, no meramente técnico. El autor enfatiza que reducirla a sólo el acto de medición empobrece su sentido, porque evaluar implica comprender, dialogar y tomar decisiones informadas para transformar la enseñanza.

Por eso, el autor propone concebir al docente como un “profesional evaluador”, no sólo un ente que aplica pruebas, sino un mediador entre la información, la interpretación y la acción pedagógica. La evaluación, en esta perspectiva, se convierte en una práctica reflexiva, ética y colaborativa que busca la mejora continua. De ahí surgió la necesidad de que el docente fuera no solo un experto disciplinar, sino un profesional evaluador, capaz de observar, retroalimentar y acompañar.

En esta línea, Sánchez Mendiola amplía la propuesta al introducir el modelo de la evaluación delpara y cómo aprendizaje, que traslada las ideas de Escudero al contexto contemporáneo de la educación superior. Del aprendizaje intenta certificar logros y acredita resultados; para el aprendizaje orienta la enseñanza y proporciona retroalimentación y cómo aprendizaje impulsa la autorregulación y la reflexión del estudiante. En conjunto, estos tres enfoques colocan al estudiante en el centro del proceso, promoviendo una cultura de aprendizaje continuo más que de rendición de cuentas.

Además, el autor propone que las estrategias e instrumentos deben alinearse con resultados de aprendizaje observables y medibles, sugiere reemplazar exámenes memorísticos por tareas que simulen contextos reales. Además, considera que la IA y la analítica de aprendizaje pueden fortalecer la retroalimentación si se usan con propósito formativo. 

El poder de la retroalimentación y la interacción

Por otra parte, los autores John Hattie y Helen Timperley realizaron un metaanálisis de más de 500 estudios y 7000 efectos sobre variables que influyen en el aprendizaje. En su síntesis, hallaron que la retroalimentación es uno de los factores más poderosos para mejorar el rendimiento académico, con un tamaño del efecto promedio de 0.79. Esto significa que una retroalimentación bien diseñada puede tener casi el doble de impacto que la enseñanza promedio (0.40). No obstante, advirtieron que no toda retroalimentación genera mejora: su efectividad depende de su naturaleza, su oportunidad y su orientación hacia el aprendizaje.

Los autores proponen un modelo de tres niveles de retroalimentación que orienta su efectividad:

  1. Nivel de tarea: se centra en la corrección de errores específicos o la calidad del producto final.
  2. Nivel de proceso: orienta al estudiante sobre cómo mejorar su comprensión o estrategia.
  3. Nivel de autorregulación: promueve la autonomía, la metacognición y la autoevaluación.

Su investigación muestra que los dos últimos niveles son los más poderosos, porque fomentan la reflexión y transferencia del aprendizaje, en lugar de simples correcciones superficiales.

Además, en su investigación, Hattie y Timperley enfatizan que la retroalimentación responde a tres preguntas clave:

  • ¿Hacia dónde voy? (Feed up): clarifica metas y criterios.
  • ¿Cómo me va? (Feedback): ofrece información sobre el progreso actual.
  • ¿Qué sigue? (Feed forward): orienta los pasos siguientes para mejorar.

Este ciclo habla del pasado (feed up), presente (feedback) y futuro (feed forward) del aprendizaje y convierte la evaluación en un proceso continuo de orientación y crecimiento.

A esta perspectiva cognitiva se suma la mirada sociocultural de Esterhazy y Damşa (2017), quienes replantean el feedback como una práctica de construcción conjunta de significado, no como un mensaje unidireccional. A través de su investigación con estudiantes universitarios, muestran que el valor de la retroalimentación surge en la interacción: cuando el estudiante dialoga con los comentarios, los interpreta con sus pares o docentes y los incorpora en su trabajo futuro.

Desde esta visión, la retroalimentación no es un evento aislado, sino una trayectoria de aprendizaje, lo que ellos llaman meaning-making trajectory, donde se negocian interpretaciones, emociones y expectativas. El aprendizaje ocurre precisamente en ese espacio intersubjetivo, donde el error deja de verse como fracaso y se transforma en oportunidad de desarrollo.

Para Esterhazy y Damşa retroalimentar no es corregir, sino acompañar. El docente actúa como mediador entre la evidencia del desempeño y las posibilidades de mejora, guiando al estudiante a construir su propio conocimiento. La evaluación deja de ser un acto de calificación para convertirse en diálogo, reflexión y coautoría del aprendizaje.

Alfabetización evaluativa

Actualmente, ya no basta con saber aplicar instrumentos o registrar calificaciones; se trata de comprender el sentido pedagógico, ético y formativo de evaluar. Para transformar la evaluación en un proceso de aprendizaje, se requiere que las y los docentes desarrollen una nueva competencia profesional: la alfabetización evaluativa (assessment literacy).

Pastore y Andrade (2019) describen la alfabetización evaluativa como la integración de conocimientos, habilidades y disposiciones éticas que permiten a los docentes usar la evaluación de manera justa, válida y orientada a la mejora.

Su modelo tridimensional plantea aspectos interdependientes: la cognitiva o de conocimiento, la de práctica o de aplicación y la de ética o de valores. La primera implica entender los fundamentos teóricos, metodológicos y psicométricos de la evaluación. Esto incluye diseñar instrumentos alineados con los objetivos de aprendizaje, reconocer los diferentes tipos de evidencias y seleccionar técnicas apropiadas para cada contexto.

La parte de la práctica o de aplicación se refiere a la capacidad de usar la evaluación como herramienta pedagógica, no solo administrativa. Un docente con alfabetización evaluativa interpreta los resultados, adapta su enseñanza y retroalimenta de manera continua. La evaluación se convierte en un proceso de aprendizaje bidireccional, donde el profesor también aprende de sus estudiantes.

Por último, está la dimensión ética o de valores, la cual es la más profunda y frecuentemente la menos visibilizada. Aquí, evaluar con responsabilidad implica reconocer el poder que tiene para afectar trayectorias, emociones y percepciones de competencia. La ética evaluativa se traduce en transparencia, inclusión y sensibilidad al contexto. El docente debe preguntarse: ¿para qué evalúo y a quién beneficia mi evaluación? Esta duda es tan importante como decidir qué instrumento usar.

Estas dimensiones buscan transformar la visión técnica del docente como aplicador de pruebas y lo redefine como agente reflexivo que diseña, interpreta y actúa sobre la información evaluativa. En palabras de Pastore y Andrade (2019), la alfabetización evaluativa es un “saber situado”: cambia según el contexto cultural e institucional, por lo que debe construirse colectivamente dentro de las comunidades académicas.

Evaluar el pensamiento, no solo el resultado

Katherine Gallardo (2009) amplía esta concepción de Pastore y Andrade al vincularla con la Nueva Taxonomía de Marzano y Kendall, una teoría del pensamiento humano que supera la jerarquía estática de Bloom. En lugar de ordenar los procesos por dificultad, Marzano y Kendall distinguen tres sistemas mentales que intervienen en el aprendizaje:

  1. Sistema cognitivo: encargado de procesar información y resolver tareas a través de distintos niveles de procesamiento: recuperación, comprensión, análisis y utilización del conocimiento.
  2. Sistema metacognitivo: establece metas, monitorea el progreso y regula las estrategias cognitivas.
  3. Sistema interno o self: conecta la motivación, las creencias y las emociones que impulsan o inhiben el aprendizaje.

Evaluar desde este marco implica observar cómo el estudiante piensa, se autorregula y se involucra emocionalmente con su aprendizaje. Así, la evaluación no se limita al producto final, sino que analiza los procesos que lo hicieron posible. Por ejemplo, una rúbrica bien diseñada puede valorar no sólo la exactitud de una respuesta, sino también la claridad de la estrategia utilizada o la persistencia ante la dificultad.

Gallardo (2009) propone que los docentes articulen la evaluación con los tres sistemas: cognitivo, para medir comprensión y desempeño, metacognitivo, para fomentar la reflexión sobre el propio aprendizaje interno o afectivo, para fortalecer la motivación y el sentido de logro. De este modo, la evaluación se convierte en una práctica integral y humanista, que atiende al quécómo y por qué del aprendizaje. 

Cuando un docente domina la alfabetización evaluativa y aplica la Nueva Taxonomía, su retroalimentación deja de centrarse en la corrección del error y se transforma en acompañamiento consciente del desarrollo del pensamiento.

Inteligencia artificial y aprendizaje adaptativo

La inteligencia artificial (IA) aplicada a la educación representa una oportunidad sin precedentes para personalizar la enseñanza y la evaluación. Su potencial radica en la capacidad de analizar grandes volúmenes de datos en tiempo real, ya sean resultados, interacciones, tiempos de respuesta o patrones de error, para ajustar la instrucción al perfil de cada estudiante.

Modelos como el Personalised Adaptive Learning and Assessment System (PALAS), desarrollado por Palanisamy, Thilarajah y Chen, ilustran esta revolución pedagógica. Este modelo integra algoritmos capaces de diagnosticar conocimientos previos y brechas de comprensión, generar secuencias de aprendizaje personalizadas, ofrecer retroalimentación inmediata y contextualizada, y actualizar las rutas de aprendizaje con base en el progreso individual.

En lugar de seguir un currículo lineal y homogéneo, el estudiante transita por “caminos de aprendizaje personalizados”, donde cada actividad, pregunta o evaluación se ajusta dinámicamente a su desempeño. Esto convierte la evaluación en un proceso continuo de medición y retroalimentación automatizada, no en un evento final, permitiendo detectar dificultades antes de que se consoliden y ofrecer intervenciones más tempranas.

Más allá de la eficiencia técnica, el verdadero valor de estos sistemas reside en su potencial de equidad. El PALAS, por ejemplo, fue diseñado en el marco de la estrategia nacional de IA de Singapur para reducir la brecha educativa asociada al origen socioeconómico o a las necesidades especiales.

Al ofrecer apoyos personalizados, los estudiantes que avanzan más lento reciben refuerzo inmediato, mientras que quienes progresan más rápido pueden acceder a desafíos adicionales. Esto transforma el ideal de la “educación inclusiva” en una práctica concreta basada en datos.

Como señala el artículo The Ethics of Learning Analytics in Australian Higher Education, la analítica de aprendizaje requiere principios de gobernanza claros que regulen la recopilación, almacenamiento y uso de la información estudiantil, garantizando transparencia, consentimiento informado y responsabilidad institucional. 

Aunque la inteligencia artificial y la analítica del aprendizaje son herramientas poderosas, el verdadero desafío no está en cómo funcionan los algoritmos, sino en cómo las personas los usan y con qué propósito educativo.

Es cierto que la IA puede fortalecer la evaluación formativa si se usa para retroalimentar, no para vigilar. Puede promover la equidad si los algoritmos se diseñan para detectar y corregir sesgos, no para reproducirlos, además de liberar tiempo docente si las instituciones priorizan el acompañamiento pedagógico sobre la simple generación de métricas.

La educación inteligente no consiste en delegar el juicio al algoritmo, sino en usar los datos para tomar decisiones más justas, sensibles y contextualizadas. En este sentido, la IA no sustituye al docente: amplifica su mirada.

Esto sucede cuando se combina con marcos de alfabetización evaluativa, la analítica del aprendizaje y los sistemas adaptativos se convierten en herramientas poderosas para enseñar, retroalimentar y aprender con empatía, evidencia y propósito.

Ética y humanismo en la era de la analítica del aprendizaje

El informe The Ethics of Learning Analytics in Australian Higher Education advierte que, si bien los datos ofrecen información valiosa para personalizar la enseñanza, también pueden generar riesgos de vigilancia, discriminación algorítmica o pérdida de autonomía estudiantil cuando se utilizan sin marcos claros de gobernanza.

La pregunta ética fundamental no es si debemos usar los datos, sino cómo y para qué los usamos. Una analítica orientada al control deteriora la confianza y convierte la educación en un sistema de monitoreo; en cambio, una analítica orientada al acompañamiento potencia la reflexión, la mejora y la inclusión.

Las universidades tienen la responsabilidad de establecer políticas institucionales de gobernanza de datos educativos que incluyan: delimitación clara de responsabilidades entre docentes, diseñadores y analistas; procesos de auditoría periódica de los algoritmos; comités de revisión ética interdisciplinarios y mecanismos de participación estudiantil en la toma de decisiones sobre el uso de su información.

Asimismo, los algoritmos deben ser explicables e interpretables, de modo que los usuarios comprendan cómo se generan las recomendaciones o predicciones. La analítica no puede sustituir el juicio docente, porque la comprensión del contexto, las emociones y las intenciones del aprendizaje siguen siendo insustituiblemente humanas.

La ética de la evaluación digital se resume en una pregunta crucial: ¿al servicio de quién está la tecnología educativa? Si la respuesta es “al servicio del aprendizaje”, entonces la IA puede convertirse en un aliado poderoso para fortalecer la justicia, la inclusión y la personalización.

El desafío consiste en diseñar un ecosistema donde los datos informen, pero no dominen; donde la tecnología asista, pero no controle, y donde cada decisión educativa siga guiada por la empatía, la confianza y el compromiso formativo.

Hacia una evaluación auténtica y transformadora

En su propuesta más reciente, Sánchez Mendiola (2022) define la evaluación auténtica como aquella que reproduce los desafíos del mundo real y exige al estudiante que transfiera sus conocimientos a situaciones complejas, interdisciplinarias y con sentido social. Para el autor, el propósito es que la evaluación deje de ser un filtro para convertirse en una experiencia de aprendizaje en sí misma.

A diferencia de las pruebas estandarizadas, centradas en la memorización o el resultado inmediato, la evaluación auténtica valora el proceso, el razonamiento y la aplicación contextual del conocimiento. Para ello, se recomienda emplear estrategias como proyectos integradores, estudios de caso, simulaciones clínicas o empresariales, portafolios digitales y retos de innovación. Utilizar este tipo de metodologías fomenta habilidades como el pensamiento crítico, colaboración, comunicación, autorregulación y creatividad, que constituyen el núcleo de las competencias del siglo XXI.

La inteligencia artificial puede potenciar esta forma de evaluación si se usa con sentido pedagógico. Por ejemplo, las herramientas adaptativas permiten analizar patrones de desempeño y ofrecer retroalimentación inmediata; las plataformas de learning analytics ayudan a visualizar el progreso individual y colectivo, mientras que los entornos de simulación digital posibilitan experiencias auténticas en contextos seguros.

Sin embargo, el verdadero poder transformador no radica en la tecnología, sino en cómo se diseñan las experiencias y cómo se interpretan los datos. Una evaluación auténtica requiere alineación entre objetivos curriculares, tareas de aprendizaje y criterios de desempeño, así como un compromiso ético del docente para acompañar los procesos con retroalimentación significativa.

Más que medir resultados, busca comprender el aprendizaje como fenómeno integral, que incluye la emoción, la motivación y el sentido de logro. La evaluación del siglo XXI se aleja del paradigma de la medición y se orienta hacia el acompañamiento, la personalización y la reflexión ética.

Su propósito no es clasificar, sino comprender y potenciar el desarrollo humano. Integrar inteligencia artificial, analítica de aprendizaje y marcos cognitivos como la Nueva Taxonomía no implica deshumanizar la educación, sino reafirmar su esencia: enseñar con empatía y evaluar con propósito.

Tomado de EDUNEWS del Tec de Monterrey

jueves, 27 de noviembre de 2025

Microcredenciales y archivos HTML (1.ª parte)

 Por Mercedes Leticia Sánchez Ambriz y Carlos Bravo Reyes

El podcast no lo puedes dejar de escuchar, no te lo pierdas y accede desde aquí

En la última década, los sistemas educativos y el mercado laboral han experimentado una acelerada transformación impulsada por la digitalización, la automatización y la inteligencia artificial. En este contexto, los modelos tradicionales de titulación (licenciaturas, maestrías, posgrados largos) resultan insuficientes para atender la demanda de actualización continua, reconversión profesional y adquisición de nuevas competencias en plazos reducidos.

Diversos informes de la OCDE (2023) y de la Unión Europea (s. f.) señalan a las microcredenciales como instrumentos clave para articular trayectorias de aprendizaje flexibles, moduladas y alineadas con necesidades reales del trabajo y de la sociedad. Estas certificaciones permiten reconocer logros de aprendizaje específicos, obtenidos en experiencias formativas breves, que pueden acumularse y combinarse a lo largo de la vida.

Paralelamente, el desarrollo de recursos educativos abiertos (REA/OER) ha reducido barreras de acceso al conocimiento, al promover materiales reutilizables y adaptables para distintos contextos (UNESCO, s. f.). Dentro de este ecosistema, el formato HTML adquiere relevancia estratégica: es un estándar abierto, ligero, multiplataforma y fácilmente integrable en entornos virtuales, blogs, LMS y dispositivos móviles.

¿Qué son las microcredenciales?

Si bien no existe una única definición global, existe un consenso creciente en torno a ciertos elementos clave. La Unión Europea define las microcredenciales como certificaciones de resultados de aprendizaje adquiridos tras experiencias formativas de corta duración, evaluados con criterios transparentes y claramente definidos (Unión Europea, s. f.).

De manera similar, la OCDE (2023) y diversos marcos europeos (por ejemplo, el proyecto MICROBOL) coinciden en que las microcredenciales: cubren un volumen pequeño de aprendizaje en comparación con títulos tradicionales; se centran en resultados de aprendizaje explícitos (lo que la persona sabe, comprende y puede hacer); incluyen evaluación formal de esos resultados; están asociadas a estándares o marcos de competencias (académicos, profesionales o sectoriales); y pueden acumularse o combinarse para construir trayectorias de formación más amplias.

¿Cuál es su utilidad inmediata?

Las microcredenciales se han posicionado en la intersección entre educación, trabajo y aprendizaje a lo largo de la vida. La literatura reciente destaca tres propósitos centrales (OCDE, 2023): actualización (upskilling) y reconversión profesional (reskilling), respondiendo a la necesidad de adquirir rápidamente nuevas competencias digitales, técnicas o socioemocionales; flexibilización de la educación superior y técnica, facilitando que personas adultas, con responsabilidades laborales y familiares, accedan a formación modular y acumulable; y reconocimiento de aprendizajes formales, no formales e informales, ofreciendo evidencias verificables a empleadores, más allá del simple listado de cursos en un currículum.

Estudios recientes muestran que las microcredenciales pueden aumentar la empleabilidad, al permitir que los individuos acrediten habilidades concretas, actualizadas y alineadas con necesidades del mercado laboral, especialmente en sectores tecnológicos y digitales (MDPI, 2023).

Microcredenciales en educación: oportunidades para docentes y estudiantes.

En el ámbito educativo, las microcredenciales pueden cumplir múltiples funciones. Los docentes, certifican competencias en diseño de recursos digitales, evaluación formativa, pedagogías activas, uso didáctico de IA, etc., y permiten construir rutas de desarrollo profesional continuo basadas en pequeñas metas alcanzables. En el caso de los estudiantes (escolares, universitarios y de posgrado), reconocen logros específicos (programación básica, diseño de recursos HTML, pensamiento crítico, habilidades STEAM, idiomas, etc.) y motivan el aprendizaje mediante metas cortas y visibles, vinculadas a proyectos reales.

Para las instituciones, permiten diseñar catálogos de microcredenciales alineados con planes de estudio y prioridades institucionales, fortaleciendo la vinculación con el sector productivo en colaboración con empresas y organizaciones (OCDE, 2021). En América Latina, donde persisten brechas de acceso y de calidad, las microcredenciales pueden funcionar como puentes para ofrecer formación focalizada a docentes y estudiantes, con costos relativamente bajos y alta pertinencia local, siempre que se acompañen de un diseño pedagógico sólido y criterios claros de calidad.

Otra vía de dar soporte a las microcredenciales es mediante los recursos en formato HTML, los que se convierten en medios de enseñanza, son de libre acceso y permiten su uso, adaptación y redistribución (UNESCO, s. f.). Entre sus beneficios se destacan la reducción de costos, el aumento del acceso y la posibilidad de adaptar los materiales a contextos específicos (ERIC, s. f.; Old Dominion University, s. f.). En este contexto, los archivos en formato HTML presentan ventajas significativas para el diseño de microcredenciales, como se muestra en la siguiente infografía:

Los archivos HTML facilitan la creación de microcredenciales al ser compatibles con diversos dispositivos y plataformas, permitiendo una experiencia de usuario accesible y flexible. Su estructura abierta posibilita la integración de elementos multimedia, interactividad y actualizaciones dinámicas sin depender de software propietario. Además, la naturaleza ligera del formato contribuye a una rápida carga y eficiencia en ambientes con conectividad limitada, característica crítica en regiones con brechas digitales como América Latina.

Estos atributos hacen del HTML un soporte técnico idóneo para implementar microcredenciales que requieran escalabilidad, personalización y accesibilidad, fomentando así una mayor inclusión y adaptabilidad en los procesos de formación continua.

Breve cierre de la primera parte

Las microcredenciales representan una innovación relevante en el ecosistema educativo actual, al ofrecer trayectorias de aprendizaje modulares, flexibles y orientadas a competencias, que responden a las demandas de la sociedad digital y del mercado laboral en transformación. La evidencia disponible muestra que pueden mejorar la empleabilidad, facilitar el re- y upskilling, y contribuir a la inclusión de grupos tradicionalmente excluidos de la educación superior (OCDE, 2023; MDPI, 2023).

Por otra parte, los recursos educativos en formato HTML se configuran como una infraestructura técnica y pedagógica ideal para el despliegue de microcredenciales: son abiertos, ligeros, adaptables, accesibles, compatibles con REA y fácilmente integrables en diversos entornos tecnológicos, incluido el trabajo offline.

Al combinar la lógica de las microcredenciales con el potencial del HTML como contenedor multicanal, es posible diseñar experiencias formativas ricas, contextualizadas y escalables, especialmente pertinentes para América Latina y otros contextos con brechas de conectividad y de acceso (UNESCO, s. f.; Weizenbaum Institut, s. f.).

Referencias

European Commission. (2022). Micro-credentials for lifelong learning and employability – Council Recommendation.eur-lex.europa.eu+1

OECD. (2023). Micro-credentials for lifelong learning and employability: Uses and possibilities.OECD+1

Gamage, K. A. A., & Dehideniya, S. C. P. (2025). Unlocking career potential: How micro-credentials are revolutionising higher education and lifelong learning. Education Sciences, 15(5), 525. MDPI

UNESCO. (2011). A basic guide to open educational resources (OER).unesdoc.unesco.org

Atenas, J. (2024). An introduction to open educational resources and their affordances. Weizenbaum Journal of the Digital Society.Weizenbaum Institut

Krelja Kurelovic, E. (2016). Advantages and limitations of usage of open educational resources in small countries.ERIC+1

Clinton, V., & Khan, S. (2019). The impact of open educational resources on student outcomes. (cit. en Abdous, 2023).Old Dominion University

Tomado de 366 días

miércoles, 26 de noviembre de 2025

Marco y principios de la calidad en EaD (C.EaD-88)

 Por Lorenzo García Aretio

AUDIO   –   VÍDEO

Todas las entradas de la serie “80 años. Compendio EaD”, VER AQUÍ

Hablar de calidad en educación a distancia (EaD) es enfrentarse a un concepto poliédrico y, a la vez, cargado de consecuencias prácticas. La literatura clásica en educación superior ya advertía que “calidad” no es una única cosa, sino un conjunto de significados (excelencia, adecuación al propósito, valor por dinero, transformación, perfección) que adquieren relevancia distinta según el actor y la finalidad con la que se evalúa (estudiantes, recursos, profesorado, gestores, agencias, sociedad).

En el ámbito de la EaD, ese carácter plural se acentúa por la mediación tecnológica del Diálogo Didáctico Mediado (DDM) (García Aretio, 2001, 2025), la asincronía y los ecosistemas digitales con sus propias reglas de accesibilidad, usabilidad, analítica y gobernanza de datos. Por eso, diseñar un marco de calidad específico para la EaD no consiste en trasladar mecánicamente criterios presenciales, sino en situar la evaluación allí donde ocurre lo nuclear, es decir, en la mediación que hace posible el aprendizaje y en sus resultados para personas y comunidades.

Esta entrada propone un marco operativo de calidad en tres niveles, micro, meso y macro, que articula principios, objetos de evaluación e instrumentos, y que conecta la mejora de la docencia y de los recursos (micro), con la revisión de asignaturas, cursos y programas (meso), y con los mecanismos de aseguramiento y la cultura organizativa (macro). Para ello, se combinan referentes internacionales como los Estándares y Directrices para el Aseguramiento de la Calidad en el Espacio Europeo de Educación Superior (Standards and Guidelines for Quality Assurance in the European Higher Education Area, ESG), ampliamente adoptados en el Espacio Europeo de Educación Superior (EEES), con marcos específicos de educación digital y con pilares transversales de inclusión y accesibilidad:

  • (E-xcellence de EADTU, Manual E-xcellence para la calidad en educación en línea y combinada EADTU E-xcellence Manual– (EADTU, 2009).
  • QM, Rúbrica de Quality Matters para Educación Superior -Quality Matters Higher Education Rubric– (Quality Matters. 2018).
  • Diseño Universal de Aprendizaje (DUA) –Universal Design for Learning (UDL)-. 
  • Pautas de Accesibilidad para el Contenido Web –Web Content Accessibility Guidelines (WCAG), (W3C, 2023).

La clave es que estos marcos no se lean como listas de control descontextualizadas, sino como herramientas para sostener ciclos de mejora continua. En este sentido, el ciclo PDSA (Planificar–Hacer–Estudiar–Actuar –Plan–Do–Study–Act-), formulado en la tradición de mejora de Deming, insiste en que no basta con “comprobar”, sino que es preciso estudiar lo ocurrido, aprender de la intervención y ajustar el sistema antes de escalar (Deming, 1986; Taylor et al., 2014). Del mismo modo, las variantes institucionales tipo PDCA (Planificar–Hacer–Comprobar–Actuar –Plan–Do–Check–Act-) solo adquieren sentido si conducen a decisiones visibles y a responsabilidades claras. Bajo este enfoque, la calidad deja de ser un evento puntual (una auditoría externa) y se convierte en una práctica cotidiana, mediante la que se diseña mejor, se acompaña mejor y se aprende mejor, documentando qué se cambia, por qué se cambia y qué efecto tuvo, con transparencia y proporcionalidad en el uso de datos (Banta y Blaich, 2011).

En coherencia con la perspectiva del Diálogo Didáctico Mediado (DDM), la calidad en EaD se reconoce allí donde la mediación facilita comprensiónacompaña procesos y ofrece evidencias de aprendizaje con sentido. El DDM no es una metáfora, más bien orienta qué mirar (claridad de itinerarios, andamiajes, feedback oportuno, accesibilidad efectiva) y cómo mejorarlo en ciclos de aprendizaje (García Aretio, 2001, 2014, 2017; García Aretio et al., 2011).

CALIDAD EN EaD. PRINCIPIOS ORIENTADORES

Un concepto plural pero operable

La noción de calidad, como decíamos, reúne tradiciones distintas, tales como excelencia, adecuación al propósito, perfección, cero defectos, transformación educativa y valor, que debemos operativizar en contextos de educación a distancia (EaD). En términos prácticos, esto supone preguntarnos:

  • Adecuación al propósito: ¿el diseño, la docencia y los servicios logran los resultados de aprendizaje y la experiencia formativa que la institución declara como deseables?
  • Transformación: ¿la experiencia cambia para bien al estudiante (conocimientos, destrezas, actitudes) y refuerza su autonomía y capacidad de acción?
  • Consistencia y mejora: ¿los procesos son fiables y aprenden de sus errores de una iteración a la siguiente?
  • Responsabilidad pública: ¿se rinde cuentas con evidencias comprensibles y comparables para las partes interesadas (estudiantado, comunidad académica, agentes externos)?

Este marco de preguntas dialoga con la tipología clásica de Harvey y Green, que identifica al menos cinco formas de entender la calidad en educación superior (Harvey y Green, 1993):

  • Excepcionalidad o excelencia: ser sobresaliente, selectivo.
  • Perfección o consistencia: procesos fiables, cero defectos.
  • Ajuste a un propósito: cumplir con los fines declarados de la titulación o del servicio educativo.
  • Relación calidad–precio / valor por dinero: eficiencia en el uso de los recursos.
  • Transformación: el valor añadido que obtiene el estudiante, y también la propia institución, en términos de cambio, desarrollo y empoderamiento.

Este marco sigue siendo útil para no empobrecer la discusión y evitar que un único criterio, por ejemplo, la mera “satisfacción” del estudiante, acabe representando toda la calidad. Lo relevante es declarar qué acepción es prioritaria en cada decisión (en un rediseño docente suele pesar la dimensión transformadora; en una acreditación externa, el ajuste al propósito y la consistencia) y triangular evidencias en consecuencia (Harvey y Green, 1993).

En educación a distancia, y muy especialmente en la formulación del Diálogo Didáctico Mediado (DDM) que hemos venido defendiendo y actualizando durante años, la dimensión “transformación” no es retórica (García Aretio, 1999, 2001, 2014, 2017, 2025). Significa que el aprendizaje de calidad depende de tres engranajes inseparables:

  • un diálogo educativo real, humano, simulado o automatizado, apoyado por inteligencia artificial, que acompaña, orienta y retroalimenta al estudiante a lo largo del proceso;
  • una intencionalidad pedagógica explícita, que diseña metas valiosas, actividades coherentes, evaluación pertinente y criterios transparentes, cuidando la dimensión ética y la equidad; y
  • una mediación sostenida por recursos y tecnologías, entendida como el conjunto de soportes, materiales, plataformas y herramientas que hacen posible ese diálogo cuando no hay coincidencia espacio-temporal y que garantizan accesibilidad y continuidad

Desde esta perspectiva, la calidad en EaD no se agota en demostrar que “todo funciona sin fallos técnicos” o que “cumplimos un estándar externo”, sino en evidenciar que este entramado (diálogo auténtico, diseño didáctico intencional y mediación tecnológica accesible) ha permitido al estudiante comprender en profundidad, ganar autonomía y progresar, con independencia de sus condicionantes personales o geográficos.

Principios transversales del marco

En el DDM, la presencia docente se hace visible en el diseño y la guía; la presencia cognitiva, en tareas auténticas y síntesis que integran aportes; y la presencia social, en climas de pertenencia que sostienen el esfuerzo. Evaluar calidad es, en suma, evaluar estas presencias y sus efectos (García Aretio, 2017). Es decir:

  • Enfoque en el aprendizaje y la experiencia estudiantil: la calidad se ve en cómo la mediación docente, los recursos y el soporte facilitan comprensión profunda y progreso.
  • Evidencia pertinente y suficiente: medir lo que importa (no todo lo medible), con proporcionalidad y finalidad claras.
  • Inclusión y accesibilidad desde el diseño: DUA como guía para anticipar barreras y WCAG para asegurar acceso digital efectivo.
  • Mejora continua y aprendizaje: ciclos PDSA/PDCA (Plan–Do–Study–Act / Plan–Do–Check–Act)  para probar, estudiar y escalar mejoras; datos al servicio de decisiones, no al revés.
  • Transparencia y responsabilidad: claridad respecto a criterios, procesos y uso de datos; diálogo con actores internos y externos (agencias, empleadores, sociedad).
  • Coherencia vertical (micro–meso–macro): lo que mejora en el aula virtual debe reflejarse en el curso/programa y, a su vez, en políticas y estándares.

NIVELES DE ANÁLISIS: MICRO, MESO Y MACRO

Nivel micro: docencia, recursos y experiencia del estudiante

  • Actividad docente (diseño, guía, feedback), recursos (materiales, objetos de aprendizaje, herramientas), tareas y evaluación, interacciones y apoyos (tutoría, soporte).
  • Indicadores orientativos:
    • Diseño y claridad: itinerarios, expectativas, rúbricas, ejemplos modelo (QM lo expresa con estándares claros y observables para cursos online).
    • Mediación y feedback: presencia docente sostenida; devoluciones oportunas y específicas; síntesis periódicas.
    • Accesibilidad y usabilidad: WCAG (alternativos textuales, navegación por teclado, contraste, foco visible); consistencia de navegación; compatibilidad móvil.
    • Inclusión desde el diseño: opciones múltiples de representación, acción/expresión y compromiso (DUA).
    • Resultados y progreso: evidencias alineadas a resultados; persistencia y finalización; señales tempranas para apoyo formativo (con AA/IA proporcional y transparente).

Nivel meso: asignaturas, cursos y programas

  • Coherencia curricular (alineamiento resultados –actividades– evaluación), equilibrio de cargas, secuenciación, equidad de resultados, satisfacción informada y mecanismos de revisión.
  • Indicadores orientativos.
    • Alineamiento constructivo y mapa de evidencias del programa.
    • Desempeño (progreso, logro) y equidad (brechas por subgrupos).
    • Revisión programática con pares y partes interesadas (estudiantes, egresados, empleadores).
    • Cuadros de mando meso: pocos indicadores accionables y periodicidad definida.
    • Manual E-xcellence (EADTU, 2009) como guía de evaluación comparada para programas en línea e híbridos; la rúbrica QM para calidad de cursos concreta y evidenciable.

Nivel macro: políticas, aseguramiento y cultura de calidad

  • Políticas institucionales y sistemas internos de garantía de calidad; mecanismos de aseguramiento externo (agencias); cultura de mejora; gobernanza de datos y ética.
  • Indicadores orientativos.
    • Política de calidad publicada, con roles claros, procesos y mejora continua.
    • Evidencias para acreditación/seguimiento: coherencia entre diseño, docencia, evaluación y resultados; accesibilidad y soporte; éxito y empleabilidad.
    • Ciclos PDSA/PDCA institucionales con evaluación del impacto de cambios.
    • Los ESG (ENQA, 2015) delimitan estándares para calidad interna y externa en educación superior (y son ampliamente usados por agencias y universidades); su lectura orienta cómo documentar y mejorar procesos y cómo preparar la interacción con pares externos.

OBJETOS DE EVALUACIÓN EN EaD

Mediación didáctica y “presencias”

El marco Community of Inquiry (presencia docente, social y cognitiva) de Garrison et al. (2000), sigue siendo una referencia robusta para entender qué mirar cuando evaluamos la calidad de la mediación:

  • diseño intencional, guía y dirección (presencia docente);
  • construcción de significado (presencia cognitiva) y
  • pertenencia e interacción significativa (presencia social).

En EaD, a menudo las huellas digitales de esa mediación son observables y permiten evidenciar la calidad del acompañamiento, evitando que la evaluación dependa solo de la encuesta de satisfacción o de indicadores indirectos poco fiables.

Recursos, materiales y entornos

En EaD, los recursos no son accesoriosson el mediador principal del DDM y, por tanto, son estructurales y objeto directo de evaluación.

  • E-xcellence propone criterios operativos (desde el diseño pedagógico hasta el soporte y la infraestructura) que pueden integrarse en checklists y protocolos de revisión por pares.
  • QM aporta estándares para cursos en línea a nivel micro, con formulaciones observables (p. ej., “instrucciones claras para empezar”, “criterios de evaluación visibles”).

Integrar ambos enfoques permite revisar piezas (micro) y sistemas/programas (meso).

Accesibilidad e inclusión como calidad

La accesibilidad no es un añadido de última hora ni un cumplimiento meramente legal sino que es calidad en sentido estricto. DUA ayuda a anticipar diferencias y barreras desde el diseño; WCAG establece criterios técnicos y de interacción (p. ej., foco visible, tamaño de objetivos táctiles, ayudas a la navegación) que deben estar presentes en materiales, LMS y herramientas. Evaluar sin incluir accesibilidad es un falso positivo de calidad.

Resultados con sentido y valor público

Más allá de la nota final, la calidad se ve en la ganancia de aprendizaje, la transferencia a contextos reales y la equidad de resultados entre perfiles diversos. Al nivel macro, los ESG insisten en la transparencia y en el papel de las agencias y pares externos para validar que los sistemas internos funcionan y mejoran de manera sostenida. Esto implica documentar no solo qué se hace, sino qué cambia y qué impacto tiene.

PROCESOS Y CICLOS DE MEJORA

PDSA/PDCA: probar, estudiar, ajustar, estandarizar

Conviene valorar la formulación PDSA (Planificar–Hacer–Estudiar–Actuar –Plan–Do–Study–Act-), enfatizando la fase Study (aprender del resultado y de la teoría de la mejora) sobre “Check”, que a menudo se interpreta como mera verificación. En EaD, los ciclos PDSA permiten testear microcambios (p. ej., una rúbrica, una pauta de feedback, un nuevo recurso accesible), estudiar su efecto con datos y percepciones, ajustar y estandarizar la práctica si aporta valor, antes de escalarla a cursos/programas. Del mismo modo, las variantes institucionales tipo PDCA (Planificar–Hacer–Comprobar–Actuar –Plan–Do–Check–Act-) solo adquieren sentido si conducen a decisiones visibles y a responsabilidades claras.

Analítica con proporcionalidad y finalidad

La analítica (AA) y la IA pueden ofrecer señales tempranas sobre participación, progresión o cuellos de botella. Pero en un marco de calidad deben aplicarse con proporcionalidad (recoger solo lo necesario), finalidad pedagógica explícita y transparencia sobre qué se mide y por qué. Los indicadores han de ser accionables (informar decisiones docentes o de coordinación), y siempre contextualizados por personas (pares/comités) antes de juicios de valor. Este principio conecta con estándares de calidad internos (meso) y con requerimientos externos (macro).

Del micro al macro: coherencia vertical

  • Micro → Meso: ajustes en el aula virtual (diseño, feedback, accesibilidad) alimentan revisiones de curso/programa; se registran cambios y efectos.
  • Meso → Macro: resultados y lecciones se documentan en el sistema interno de calidad; preparan auditorías/acreditaciones con evidencias sólidas (ESG).
  • Macro → Micro: políticas y estándares institucionales devuelven herramientas, recursos y formación que hacen más fácil hacer bien lo importante (p. ej., plantillas accesibles, rúbricas, protocolos de revisión por pares).

RIESGOS FRECUENTES Y CÓMO MITIGARLOS

  • Reduccionismo métrico: confundir calidad con indicadores aislados (p. ej., “tiempo en plataforma”). Mitigación: triangulación, indicadores con propósito pedagógico y lectura humana contextualizada.
  • Sobrecarga evaluativa: pedirlo todo a todos todo el tiempo. Mitigación: proporcionalidad y priorización (poquito, bueno y útil).
  • Cumplimiento sin aprendizaje: pasar auditorías sin cambiar prácticas. Mitigación: PDSA reales con evidencia de impacto
  • Accesibilidad “postiza”: remendar al final. Mitigación: UDL + WCAG desde el diseño; plantillas institucionales accesibles.
  • Desalineación vertical: mejoras micro que no llegan a políticas, o políticas macro desconectadas del aula. Mitigación: circuitos claros micro–meso–macro.

CONCLUSIONES

La calidad en EaD no es un adjetivo genérico, ni un ramillete de buenas intenciones, ni un expediente impecable de evidencias sin consecuencias; es, ante todo, una práctica situada que converge en la experiencia del estudiante y en su aprendizaje con sentido. Asumir un marco micro–meso–macro permite ordenar esa práctica:

  • en el micro, miramos la mediación docente, la claridad del diseño, el feedback oportuno, la accesibilidad real y el progreso;
  • en el meso, verificamos la coherencia de cursos y programas, la equidad de resultados y la eficacia de las revisiones con pares;
  • en el macro, consolidamos políticas, aseguramiento y cultura de mejora que sostienen el conjunto.

Este encuadre evita dos errores habituales como lo de reducir la calidad a un puñado de métricas o confundirla con el mero cumplimiento documental.

Los referentes internacionales ayudan a no reinventar la rueda y aportan un lenguaje compartido:

  • los ESG señalan el marco de referencia para la calidad interna y externa en educación superior;
  • E-xcellence ofrece criterios operativos para programas en línea e híbridos;
  • la QM Rubric aterriza estándares observables a nivel de curso;
  • DUA y WCAG 2.2 convierten la accesibilidad en piedra angular del diseño y de la evaluación.

Leídos juntos, dejan claro que la calidad no se mide solo “después”, sino que se diseña desde el principio, que la accesibilidad es intrínseca y que el mejor estándar es el que mejora verdaderamente la experiencia de aprendizaje.

Para que esto ocurra de verdad, se necesita una gramática de la mejora, ciclos PDSA/PDCA que prueban, estudian y ajustan, con datos proporcionales y finalistas (no por acumular), con transparencia respecto a qué se mide y por qué, y con lectura humana antes de convertir un indicador en juicio.

El resultado de cada ciclo debe documentarse con honestidad en bitácoras de cambio y traducirse en decisiones institucionales (plantillas accesibles, rúbricas comunes, formación, tiempos de respuesta, soporte). Así se crea coherencia vertical, lo que funciona en el aula se consolida en el curso/programa y se reconoce en políticas y procesos, y lo que dictan las políticas vuelve al micro como apoyo tangible para hacerlo bien.

En suma, calidad en EaD significa hacer visible y mejorable aquello que media el aprendizaje, con criterios claros y compartidos, con evidencias pertinentes y con una cultura que prioriza el aprendizaje, del estudiante, y también de la propia organización. Este módulo tratará de convertir esa visión en procedimientos, instrumentos y ejemplos que cualquier equipo pueda adaptar, sin perder la brújula: el aprendizaje con sentido y equidad.

CUESTIONES PARA LA REFLEXIÓN Y EL DEBATE

  • ¿Qué cambios de diseño (plantillas accesibles, rúbricas comunes, protocolos de revisión por pares, etc.) facilitarían que la calidad ocurra “por defecto” en tu institución?
  • ¿Cómo asegurar coherencia vertical (micro–meso–macro) para que una buena práctica en un aula virtual escale y se convierta en política o estándar institucional?

FUENTES

  • Banta, T. W. y Blaich, C. (2011). Closing the assessment loop. Change 43(1).
  • Deming, W. E. (1986). Out of the Crisis. MIT Press. (véase también Deming Institute: “PDSA Cycle”) https://deming.org/explore/pdsa
  • European Association for Quality Assurance in Higher Education (ENQA). (2015). Standards and Guidelines for Quality Assurance in the European Higher Education Area (ESG). https://www.enqa.eu/esg-standards-and-guidelines-for-quality-assurance-in-the-european-higher-education-area/
  • European Association of Distance Teaching Universities (EADTU). (2009). E-xcellence manual: Quality Assessment for E-learning. https://e-xcellencelabel.eadtu.eu/about
  • García Aretio, L. (1999). De la teoría del diálogo mediado a la práctica. Conferencia Magistral en Actas Congreso Internacional sobre Tecnología y Educación a Distancia. CREAD-UNED Costa Rica.
  • García Aretio, L. (2001). La educación a distancia. De la teoría a la práctica. Ariel
  • García Aretio, L. (2014). Calidad, eficacia y retos de la educación a distancia. En Bases, mediaciones y futuro de la EaD en la sociedad digital. Síntesis.
  • García Aretio, L. (2017). Educación a distancia y virtual: calidad, disrupción, aprendizaje adaptativo y móvil. RIED, 20(2).
  • García Aretio (2025). Diálogo Didáctico Mediado (DDM): Hacia una teoría superadora en educación a distancia. Contextos universitarios mediados.
  • García Aretio, L. (ed.). Ruiz, M. y Domínguez, D. (2011). La calidad y la evaluación en los procesos de enseñanza y aprendizaje digitales. En García Aretio (ed), Ruiz y Domínguez. De la educación a distancia a la educación virtual. Ariel.
  • Garrison, D. R., Anderson, T., y Archer, W. (2000). Critical inquiry in a text-based environment: Computer conferencing in higher education. The Internet and Higher Education, 2(2–3)
  • Harvey, L., y Green, D. (1993). Defining quality. Assessment & Evaluation in Higher Education, 18(1).
  • Quality Matters. (2018). Higher Education Rubric, Sixth Edition (extracto de estándares). https://ceedar.education.ufl.edu/wp-content/uploads/2021/07/Quality-Matters-Higher-Education-Rubric-6th-Ed.pdf ceedar.education.ufl.edu
  • Taylor, M. J., McNicholas, C., Nicolay, C., Darzi, A., Bell, D., y Reed, J. E. (2014). Systematic review of the application of the plan–do–study–act method to improve quality in healthcare. BMJ Quality & Safety, 23.
  • W3C Web Accessibility Initiative (WAI). (2023). WCAG 2.2 is a Web Standard “W3C Recommendation”. https://www.w3.org/WAI/news/2023-10-05/wcag22rec/ (véase también “What’s new in WCAG 2.2”) https://www.w3.org/WAI/standards-guidelines/wcag/new-in-22/
OpenEdition le sugiere que cite este post de la siguiente manera:
García Aretio (17 de noviembre de 2025). Marco y principios de la calidad en EaD (C.EaD-88). Contextos universitarios mediados. Recuperado 23 de noviembre de 2025 de https://doi.org/10.58079/155oe