martes, 30 de septiembre de 2025

¿Cuánto tiempo nos queda para entender a la IA?

 Por Melissa Guerra Jáuregui de EDUNEWS

En entregas anteriores se ha discutido el papel de la ética dentro de la Inteligencia Artificial (IA), así como algunos de los marcos de referencia éticos que son necesarios para asegurar la confiabilidad y la seguridad de estos sistemas. Sin embargo, expertos en inteligencia artificial han externado que la ventana para entender a estos sistemas se está cerrando, lo cual nos deja con varias interrogantes: ¿qué significa esto y qué consecuencias podría tener para el futuro?

Antes de comenzar, hay que comprender dos conceptos clave: AI Safety y AI Control. Estos marcos de referencia sobre la IA son fundamentales para entender por qué se habla de una carrera contra el tiempo para entender a estos sistemas y cuáles serían las consecuencias inevitables si no se encuentra una solución efectiva para manejarlos de manera segura.

AI Safety

AI Safety o seguridad de la IA son aquellos métodos y prácticas involucradas en el diseño e implementación de sistemas de inteligencia artificial, con el objetivo de que cumplan con sus funciones, pero sin causar daños a personas o al ambiente. Este marco de referencia aborda los riesgos asociados con estos sistemas para evitar consecuencias no deseadas.

En este sentido, para la seguridad de la IA es importante tomar precauciones para evitar desalineamiento o comportamientos no previstos, puesto que su integración masiva y a gran escala puede suponer este tipo de riesgos, sobre todo en campos críticos como salud, finanzas, etc. Por tanto, es fundamental que se implementen principios de seguridad sólidos en su fase de diseño para consolidar confianza y fiabilidad.

Principios de AI Safety

De acuerdo con Tigera (s.f.), los principios básicos de AI Safety son los siguientes:

  1. Alineamiento: se refiere a que la IA esté alineada (objetivos y comportamientos) con los valores humanos para evitar daños involuntarios.
  2. Robustez: hace referencia a la creación de sistemas inteligentes fiables, estables y predecibles que reaccionen como deben, incluso ante situaciones o datos imprevistos.
  3. Transparencia: que la IA tenga un diseño comprensible y auditable por humanos, con el fin de entender cómo y por qué estos sistemas toman ciertas decisiones.
  4. Responsabilidad: garantizar que estos sistemas cuentan con directrices que marcan el comportamiento aceptable de la IA, así como responsabilidad que tienen las personas encargadas de su desarrollo y gestión.

AI Control

Según Arnav et al. (2025), AI Control o control de la IA, es un marco de trabajo enfocado en el diseño y evaluación de estrategias para garantizar la seguridad de los sistemas inteligentes, incluso ante una subversión intencionada de la IA, es decir, manipulación o uso para fines distintos a los previstos (jailbreak, ataques, etc.). El funcionamiento del control de la IA se compone de dos estrategias:

  1. Monitoreo: se refiere a la detección de respuestas que constituyen un intento de sabotaje.
  2. Intervención: es la modificación de las respuestas que no son confiables, para que posteriormente puedan ser seguras y útiles.

Por ende, el control de la IA es crítico para prevenir comportamientos no deseados, mediante el uso de mecanismos que supervisan y corrigen; esto asegura la fiabilidad y seguridad de estos sistemas.

Entonces, ¿qué significa que «la ventana» para entender a la IA se está cerrando?

Expertos e investigadores de IA de METR, Antrophic, Meta, Open AI, UK AI Security, Google Deep Mind, Redwood Research, University of Montreal, Truthful AI and UC Berkeley, Amazon, Apollo Research, entre otros han externado su preocupación sobre los modelos de IA, ya que, según en su investigación más reciente: Chain of Thought Monitorability: A New Fragile Opportunity for AI Safety, mencionan queestos sistemas se están volviendo más difíciles de entender, conforme se vuelven más complejos, autónomos y difíciles de auditar, reduciendo así la capacidad humana para saber cómo y por qué toman decisiones. Es decir, que podríamos perder el control de la IA si no entendemos cómo y en qué piensa.

Estos expertos han externado que se necesitan estrategias de monitoreo eficaces para impedir que esto suceda. Por consiguiente, el control de la IA toma un papel relevante para monitorear de manera fiable a los sistemas de IA, especialmente aquellos que son LLM (Large Language Models), debido a que “procesan y actúan de forma nativa a través del lenguaje humano” (Korback et al., 2025). De acuerdo con IBM, gracias a esta característica (uso de lenguaje natural), la capacidad de los LLM para pensar “en voz alta” en este lenguaje mejora sus capacidades y aumenta su poder de computación, y sería también gracias a esto que los sistemas podrían ser monitoreados. Debido a la característica mencionada anteriormente, se abre una posibilidad para saber qué y cómo piensa la IA. Esta herramienta se llama CoT (Chain of Thought Reasoning) o cadena de pensamiento/razonamiento, la cual, según varios expertos de Open AI, Google DeepMind, etc., puede ayudar a supervisar y mitigar los riesgos de la opacidad (es decir, cuando los sistemas no muestran cómo funcionan) de los agentes de IA avanzados.

Chain of Thought Reasoning

El CoT (Chain of Thought Reasoning) es una técnica de prompt engineering, cuyo objetivo es mejorar la capacidad de resolución de problemas de razonamiento complejos; se enfoca en el razonamiento intermedio de los modelos. En otras palabras, el sistema que utiliza CoT no muestra una respuesta directa, sino cómo llegaron a ella. Este es un ejemplo muy sencillo de cómo funciona:

Pregunta: ¿Cuánto es 9 + 2 × 5?

Sin CoT:

  • La respuesta es 19

Con CoT:

  • La expresión es: 9 + 2 × 5
  • Primero, se resuelve la multiplicación: 2 × 5= 10
  • Finalmente, se suma: 9 + 10= 19
  • La respuesta es 19

El CoT ayuda a que los modelos sean más confiables, transparentes y explicables, puesto que mitigan riesgos de manipulación/sabotaje, así como los asociados con la interpretabilidad y la explicabilidad. De este modo, el CoT se considera como una habilidad emergente, a medida que los modelos se vuelven más grandes y complejos. Según Korback et al., 2025, esta técnica “ofrece una oportunidad única para la seguridad de la IA, es decir, la monitorización de la cadena de pensamiento”.

Esto se debe a que un monitor de CoT puede señalar interacciones sospechosas o potencialmente dañinas, las cuales pueden bloquearse, reemplazarse o revisarse a profundidad más adelante. “Al estudiar el CoT, podemos comprender mejor cómo piensan nuestros agentes de IA y cuáles son sus objetivos” (Korback et al., 2025).

Sin embargo, este sistema de monitoreo tiene una desventaja marcada: el CoT puede disminuir el rendimiento del monitoreo, lo que puede introducir ruido o señales falsas cuando se aplica a intentos de subversión. Por su parte, investigadores de Google DeepMind (2025) mencionan que si bien el CoT no es infalible, puesto que tiene áreas de oportunidad importantes, sí es una capa de defensa importante que requiere protección activa y pruebas de estrés continuas para asegurar la seguridad y el control de la IA.

Riesgos de la IA

De acuerdo con Hendrycks (2025) y su libro Introduction to AI Safety, Ethics, and Society, conforme avanza la tecnología y gana poder, también aumenta su potencia para la destrucción. Por esa razón, es urgente comprender qué es lo que puede salir mal y qué se puede hacer al respecto.Además, indica que los riesgos que implica el uso de la IA (AI Risk) son de carácter multidisciplinario, por lo que diversas disciplinas deben sumarse para encontrar soluciones aplicables y seguras para los riesgos que representa la inteligencia artificial.

Asimismo, Hendycks (2025) identifica cuatro fuentes principales de riesgo de la IA:

  • Uso malicioso: se refiere a los actores malintencionados que usan la IA para causar desastres a gran escala.
    • Riesgos: bioterrorismo, creación de agentes rebeldes de IA, aceleracionismo de la IA, generación de desinformación, explotación de la confianza del usuario, centralización de la información, concentración de poder, etc.
  • La carrera de la IA (AI race): se define como la competencia entre países para desarrollar e implementar IA, por lo que estas presiones competitivas pueden provocar un despliegue inseguro (en término éticos) de estos sistemas. Riesgos:
    • Competencia militar:creación de LAW (armas autónomas letales), delegación de decisiones de vida-muerte a las IA (drones para la guerra), guerras cibernéticas potenciadas con IA que pueden desencadenar una guerra, desarrollo de guerras automatizadas, armas controladas por IA, entre otros.
    • Competencia corporativa: se incentiva la implementación insegura de los sistemas, presiones para reemplazar humanos por IA, lo cual puede incurrir en desempleo masivo, problemas de alineación de la IA, etc.
  • Riesgos organizacionales: incidentes derivados por la complejidad de la IA, así como por las organizaciones que las desarrollan.
    • Riesgos:la complejidad de los sistemas provoca que se deban tomar medidas para evitar accidentes, ya que estos pueden ser impredecibles por la naturaleza de estos sistemas. Además, puede tomar años descubrir fallas o riesgos en la IA. Por ende, es necesario que las empresas tengan una cultura de seguridad fuerte (basado en humanos) y principios de seguridad robustos para evitar incidentes a gran escala.
  • IA rebelde (Rogue AI): este punto se refiere al problema que supone controlar la tecnología, la cual es más inteligente que los humanos.
    • Riesgos: proxy gamingconducta maliciosa, engañosa o búsqueda del poder sobre los humanos (a medida que la IA se vuelve más inteligente), entre otros.

Por su parte, el MIT, en su división AI Risk Repository, también ha desplegado su taxonomía de causas/riesgos asociados a la IA. Este repositorio contiene tres apartados: AI Risk Database (base de datos que contiene más de 1600 riesgos categorizados), Causal Taxonomy of AI Risks (clasifica cómo, cuándo y por qué ocurren los incidentes) y Domain Taxonomy of AI Risks (organiza los riesgos en siete dominios y 24 subdominios de riesgos).

Este tipo de iniciativas permiten comprender los riesgos asociados a la IA de forma accesible y periódica, por lo que puede servir como un marco de referencia para investigadores, empresas, tomadores de decisiones, etc., así como para promover la investigación y el desarrollo de políticas públicas para legislar la IA.

Aunque no es un hecho de que el CoT sea la estrategia definitiva para entender cómo y en qué piensa la inteligencia artificial, es un paso importante y necesario para asegurar que su uso sea seguro y confiable para todos. Conforme avance la tecnología y se vuelva más compleja, así mismo se volverán los protocolos para contener su potencial dañino para la sociedad, para que, en teoría, también sus principios éticos puedan ser respetados y ejecutados.

Si bien no sabemos a ciencia cierta qué depara el futuro en la seguridad y control de estos sistemas (que a la vez se están volviendo super inteligentes), es necesario estar informados y saber hacia dónde se dirigen los esfuerzos en conjunto, de empresas, organizaciones y grandes potencias en IA, para entender y ser conscientes de los riesgos potenciales a los que se podría estar expuestos por el uso de LLM.

Tomado de EDUNEWS del Tec de Monterrey

lunes, 29 de septiembre de 2025

Audio y vídeo en la era digital: impulsores de la nueva educación a distancia (C.EaD-70)

 Por Lorenzo García Aretio

AUDIO  –  VÍDEO

Todas las entradas de la serie “80 años. Compendio EaD”, VER AQUÍ

El sonido y la imagen han sido compañeros inseparables de la educación a distancia (EaD) prácticamente desde sus orígenes. Y ahora, lejos de ser meros complementos, los recursos audiovisuales se han consolidado como herramientas destacadas del diálogo didáctico mediado que defendemos (García Aretio, 2001, 2025). Con esa mediación han sido capaces de salvar distancias, enriquecer la comunicación y facilitar la comprensión de conceptos complejos. Es decir, su relevancia no ha disminuido con el tiempo; por el contrario, en un ecosistema digital saturado de información, la capacidad del audio y el vídeo para captar la atención y transmitir mensajes de forma directa y multisensorial, incluso, es más valiosa que nunca. Esta persistencia se debe a su evidente sintonía con la forma en que los seres humanos procesamos la información, aprendemos y nos conectamos emocionalmente con el conocimiento, principios que pioneros como Edgar Dale (1969) ya exploraron al clasificar los medios por su capacidad de ofrecer experiencias de aprendizaje concretas frente a las abstractas.

La crisis sanitaria provocada por el COVID-19 actuó como un catalizador inesperado, poniendo de relieve la vigencia de estos medios en un escenario de emergencia educativa global. Como se argumenta en trabajos recientes, la pandemia obligó a las instituciones a desplegar una estrategia multicanal para garantizar la continuidad pedagógica (García Aretio, 2022). En este contexto, no solo se intensificó el uso de las plataformas de videoconferencia, sino que se redescubrió el poder de medios más tradicionales como la radio y la televisión, tal como documentaron organismos como el Banco Mundial (2020), que destacó cómo numerosos países recurrieron a estos medios para garantizar una mínima continuidad pedagógica ante la brecha digital.  Su capacidad para llegar a hogares sin una conexión a internet estable o con recursos tecnológicos limitados demostró ser fundamental para mitigar la brecha digital y atender a los estudiantes más vulnerables, recordándonos que la tecnología más avanzada no siempre es la más equitativa.

Nos interesa destacar en esta entrada que, a pesar de la vertiginosa evolución tecnológica, los principios pedagógicos que sustentan un uso eficaz del sonido y la imagen permanecen vigentes. La verdadera innovación no reside únicamente en la adopción de nuevas herramientas, sino en la aplicación de estos fundamentos a los nuevos formatos. Hoy, estos principios se ven exponencialmente potenciados por las posibilidades que ofrecen la inteligencia artificial (IA), que automatiza y personaliza la experiencia, y la analítica de aprendizaje, que nos permiten comprender y optimizar la interacción del estudiante con los contenidos, sus pares y el docente. Este desafío se alinea con la llamada global de la UNESCO (2021) en su informe Reimagining our futures together, que nos insta a forjar un nuevo contrato social para la educación. En este nuevo contrato, la tecnología, siempre guiada por la pedagogía, debe servir para promover la inclusión y la cooperación, una visión donde lo audiovisual, bien empleado, tiene un papel protagonista.

El viaje desde la emisión analógica hasta el streaming inteligente nos invita a reflexionar sobre cómo seguir aprovechando el poder del sonido y la imagen para construir una EaD más eficaz, inclusiva y humana. Concluimos esta introducción, señalando que la relevancia del audio y el vídeo no descansa en el brillo tecnológico, sino en su alineación con objetivos de aprendizaje valiosos y en su capacidad para llegar, sin barreras, al estudiantado.

EVOLUCIÓN HISTÓRICA

La historia de los medios audiovisuales en la EaD es un reflejo de la propia evolución tecnológica y social del último siglo. Su recorrido nos muestra una transición desde modelos unidireccionales de difusión masiva hacia ecosistemas digitales flexibles y centrados en el usuario.

Los inicios: La radio y la televisión educativas

En sus albores, la EaD encontró en la radio un aliado formidable. Programas como los de Acción Cultural Popular (ACPO) en Colombia, a partir de 1947, utilizaron las ondas para llevar la alfabetización a miles de campesinos, demostrando el potencial del medio sonoro para la formación a gran escala. Experiencias como las emisiones de alfabetización de la BBC (década de 1920) o el programa mexicano Telesecundaria (años 60)) probaron que el aire podía convertirse en aula, ofreciendo alcance masivo con costes unitarios mínimos (García Aretio, 2022). Estos sistemas, aunque unidireccionales, democratizaron el acceso al conocimiento y sentaron las bases de la producción de contenidos educativos de alta calidad. En este contexto, ya se intuía lo que teóricos posteriores como Marshall McLuhan (1964) formularían de manera provocadora: “el medio es el mensaje“. La forma en que se presentaba el contenido, la cadencia de la radio, la puesta en escena de la televisión, era inseparable del propio acto de aprender.

La era analógica: Cassettes, vinilos y cintas de vídeo

La llegada de los soportes físicos «enlatados», casetes de audio, discos de vinilo y cintas de vídeo, (décadas de los 70 y 80 del siglo pasado) supuso un salto cualitativo hacia la autonomía del estudiante a distancia. Por primera vez el alumnado pudo controlar el tempo de la instrucción, algo tan determinante como detenerse, rebobinar y revisar una demostración práctica o un discurso tantas veces como fuera necesario, sin depender de la rigidez de la emisión radiofónica o televisiva en directo. Este manejo deliberado del tiempo anticipaba la personalización que hoy asociamos al aprendizaje adaptativo. Además, al añadir movimiento, color y sonido sincrónico, estos medios ascendían varios peldaños en el Cono de la Experiencia, situándose, según Dale (1969), en un nivel de concreción superior al mero texto impreso. No extraña que los modelos de EaD de segunda y tercera generación los adoptaran como complemento indispensable de las guías de estudio enviadas por correspondencia.

CD‑ROM y DVD: la primera digitalización “offline”

La estandarización del CD‑ROM por Philips y Sony en 1983 puso 650  MB de capacidad al servicio educativo; en 1993 apareció Microsoft Encarta, enciclopedia multimedia que muchas universidades adoptaron como apoyo bibliográfico. Un ejemplo paradigmático de este uso fue el de la Open University británica, que en 1998 lanzó su curso «Discovering Science». Este fue pionero en integrar el CD-ROM como un componente indispensable, distribuyendo en él simulaciones interactivas y material práctico que se ejecutaban sin necesidad de conexión (Bates, 2005). El siguiente gran avance fue el DVD‑Video, cuyoe estándar se fijó en 1995 y los primeros reproductores salieron al mercado entre 1996 y 1997. Sus 4,7 GB permitieron vídeo de calidad televisiva, múltiples pistas de audio y menús ramificados, la antesala del actual vídeo interactivo. Hacia 2001, editoriales como Pearson incluían DVD en los paquetes de estudio, combinando segmentos de 3‑5 min con autoevaluaciones incrustadas. Aunque seguían viajando por correo, CD‑ROM y DVD ofrecieron al estudiante navegación no lineal, retroalimentación inmediata y la sensación de laboratorio en casa, rasgos que prefiguran el e‑learning moderno (García Aretio, 2022).

La Web: conectividad y multimedia en red

El 6 de agosto de 1991 Tim Berners‑Lee publicó la primera página web; dos años después, el navegador Mosaic popularizó la interfaz hipermedia (Berners‑Lee y Fischetti, 1999). El año 1997 fue clave para la web multimedia porque, mientras se extendía el uso de etiquetas como <embed> para incrustar audio (RealAudio) o vídeo (QuickTime), el W3C estandarizó la solución oficial con la etiqueta <object>, introducida en la especificación HTML 4.0 a finales de ese mismo año. También en 1997 nacería Blackboard CourseInfo, seguido en 2002 por Moodle, que articularon en un solo entorno contenidos, foros y calificaciones. Con la llegada de la web 2.0, blogs con RSS en 2004, pódcast sindicados y YouTube en 2005, el alumnado dejó de ser consumidor para convertirse en cocreador, alimentando la pedagogía participativa descrita por Harasim (2000, 2017). Esta transición de objetos ópticos estáticos a recursos enlazados y actualizables en la nube transformó la EaD hacia un aprendizaje ubicuo, una actualización instantánea y primeras analíticas de interacción sobre servidores web, sentando las bases del diseño pedagógico centrado en datos.

FUNDAMENTOS PEDAGÓGICOS: ¿POR QUÉ ENSEÑAN EL AUDIO Y EL VÍDEO?

La eficacia del material audiovisual no es casual; responde a principios cognitivos y pedagógicos bien establecidos. Entender estas bases es crucial para diseñar recursos que realmente promuevan el aprendizaje.

Bases que lo sustentan.

Es fundamental reconocer el trabajo seminal de autores como Gavriel Salomon (1979). Salomon investigó la interacción entre los sistemas simbólicos de los medios y la cognición, argumentando que distintos medios no solo transmiten información de manera diferente, sino que también pueden cultivar distintas habilidades cognitivas. Un vídeo, por ejemplo, puede externalizar procesos mentales (como el zoom o el corte), ayudando a los estudiantes a internalizarlos. Esto refuerza la idea de que la elección del medio no es neutral. Nos parecen teorías fundamentales para comprender el impacto del audiovisual, estas dos.

  • La Teoría de la Carga Cognitiva de Sweller (1988) que postula que nuestra memoria de trabajo es limitada. Un recurso audiovisual bien diseñado puede reducir la carga cognitiva extraña (el esfuerzo mental no dedicado al aprendizaje) al presentar la información de forma integrada y directa, liberando recursos mentales para procesar y comprender el material.
  • Complementariamente, la Teoría Cognitiva del Aprendizaje Multimedia de Mayer (2009) que se basa en la idea de que procesamos la información a través de dos canales, visual y auditivo, y que el aprendizaje profundo ocurre cuando integramos la información de ambos. Mayer propone una serie de principios para el diseño eficaz, como el de coherencia (eliminar material irrelevante), señalización (resaltar lo importante) o redundancia (evitar presentar simultáneamente texto idéntico y narración), que guían la creación de materiales que respetan la arquitectura cognitiva humana. Finalmente, el poder de la narrativa permite contextualizar el conocimiento, dotarlo de significado y conectar emocionalmente con el estudiante, mejorando la retención.

Funciones clave en la EaD

Basándonos en estos principios, los recursos audiovisuales cumplen varias funciones esenciales en la EaD, tal como se destaca en la literatura reciente (García Aretio, 2022):

  • Función motivadora y de engagement. Un vídeo bien producido o un pódcast interesante captan la atención inicial y mantienen el interés y compromiso del estudiante a lo largo del proceso.
  • Función transmisora de información. Son excelentes para presentar contenidos de forma clara, directa y multisensorial, facilitando la comprensión de procesos dinámicos o conceptos abstractos.
  • Función de andamiaje. Permiten modelar habilidades y procedimientos complejos. Los vídeos tutoriales, las demostraciones paso a paso o las simulaciones actúan como un andamio que guía al estudiante hasta que puede realizar la tarea de forma autónoma.
  • Función evaluativa: El vídeo se ha convertido en una herramienta valiosa para la evaluación de competencias, permitiendo al estudiante demostrar habilidades prácticas (una exposición oral, un experimento, una intervención) que serían difíciles de evaluar por escrito.

FORMATOS Y ESTRATEGIAS EN LA EaD ACTUAL

La digitalización ha diversificado enormemente el abanico de formatos y estrategias audiovisuales, adaptándose a las necesidades de un aprendizaje más flexible y personalizado.

El vídeo como rey del contenido

El vídeo domina el panorama actual. El microlearning, o aprendizaje en pequeñas píldoras formativas, se adapta perfectamente al consumo de información en la era digital. Se ha demostrado que los vídeos interactivos, que permiten incrustar preguntas, enlaces o rutas de navegación personalizadas, transforman al espectador en un participante activo, mejorando así la implicación y la retención del contenido. La interactividad se refuerza aún más con herramientas como H5P, que permiten incrustar quizzes y ramas adaptativas sin abandonar el flujo visual. En el ámbito de los MOOC, la producción audiovisual se ha profesionalizado, desarrollando metodologías específicas para crear contenidos de calidad que puedan ser consumidos por miles de estudiantes. Micro‑learning en cápsulas de 3‑7 minutos, series de capturas de pantalla y de cómo hacerlo” animados son ya estándar en múltiples LMS. Estudios sobre MOOC muestran que el 70 % del consumo se concentra en vídeos inferiores a 6 min (Guo et al., 2014; Aguaded y Ortiz‑Sobrino, 2022).

Videoconferencia síncrona

La omnipresencia de la videoconferencia síncrona como herramienta de interacción en tiempo real ha destapado también nuevos desafíos, como el dilema de la fatiga de Zoom. Este agotamiento cognitivo, producto de la sobrecarga de estímulos visuales y la falta de comunicación no verbal natural, nos obliga a repensar su uso pedagógico. Para evitarlo, investigaciones recientes advierten de sus efectos y recomiendan buscar un equilibrio entre la interacción en directo y las actividades asíncronas, alternando bloques expositivos cortos con tareas colaborativas (Fuertes‑Alpiste et al., 2023).

El renacimiento del audio: El pódcast educativo

Paralelamente al auge del vídeo, el audio vive una auténtica segunda juventud. El pódcast se ha consolidado como recurso formativo porque combina costes de producción muy bajos con servicios de alojamiento gratuitos. Este ecosistema ha hecho crecer la audiencia global de 380 millones de oyentes mensuales en 2021 a casi 550 millones en 2024, un salto cercano al 43 % en apenas tres años (Insider Intelligence, 2021). Los formatos se diversifican, entrevistas a expertos, debates, narrativas temáticas o simples clases magistrales grabadas, y sus ventajas son múltiples. La portabilidad permite aprender en movilidad, aprovechando tiempos muertos; la voz genera una relación íntima que facilita la atención sostenida; y la ausencia de imagen potencia la imaginación, activando la construcción de representaciones mentales que el vídeo, a veces, resuelve por el estudiante. Todo ello convierte al pódcast en un complemento idóneo para cursos online y experiencias de micro‑aprendizaje. También se viene utilizando la denominación de videopodcast a estos recursos cuando es el vídeo el recurso utilizado.

EL DISEÑO EFICAZ DE RECURSOS AUDIOVISUALES

La eficacia de un recurso audiovisual no depende solo de la tecnología, sino de un diseño pedagógico meticuloso. Este proceso se puede estructurar en tres fases clave:

  • Preproducción. Es la fase estratégica. Aquí se definen los objetivos de aprendizaje que el recurso debe cumplir. ¿Qué debe saber o ser capaz de hacer el estudiante después de verlo o escucharlo? A partir de ahí, se elabora un guion que no es solo un texto, sino un plan pedagógico que estructura el contenido, indica los elementos visuales o sonoros y planifica los momentos de interacción y evaluación.
  • Producción. Es la fase de creación. Las claves para una grabación de vídeo de calidad son universales: buena iluminaciónsonido nítido y una escenografía o fondo que no distraiga. Hoy en día, existen innumerables herramientas de autor y software de edición, desde opciones sencillas y gratuitas hasta programas profesionales, que ponen la producción de alta calidad al alcance de la mayoría de los docentes.
  • Postproducción y distribución. En esta fase final se pule el material. Se edita para eliminar errores, se añaden gráficos, animaciones o llamadas a la acción que refuercen el mensaje. Finalmente, se elige el formato adecuado y la plataforma de distribución (el LMS institucional, YouTube, un repositorio de pódcasts, etc.), asegurando que el recurso se integre de forma coherente en el diseño general del curso.

ACCESIBILIDAD, INCLUSIÓN Y EQUIDAD. UN RETO INELUDIBLE

Un diseño audiovisual excelente debe ser, ante todo, un diseño para todos. El Diseño Universal para el Aprendizaje (DUA), con su principio de ofrecer múltiples formas de representación, es el marco ideal para guiar esta tarea (CAST, 2018). Aplicado a los recursos audiovisuales, implica un compromiso con la accesibilidad. La experiencia pandémica recordó que casi tres mil millones de personas carecen todavía de conexión fiable (Banco Mundial, 2020). Por ello, la radio, la TV y los contenidos descargables siguen siendo esenciales para no agrandar la brecha digital.

Herramientas como la subtitulación no solo benefician a estudiantes con discapacidad auditiva, sino también a quienes estudian en un segundo idioma o en entornos ruidosos. Las transcripciones permiten un acceso rápido al contenido y facilitan la búsqueda de información. La audiodescripción es esencial para los estudiantes con discapacidad visual, mientras que la inclusión de una ventana con lenguaje de signos asegura el acceso a la comunidad sorda.

Más allá del diseño del recurso, la equidad pasa por reconocer la persistencia de la brecha digital. Como nos enseñó la pandemia, depender exclusivamente de formatos que exigen un alto ancho de banda deja atrás a una parte del alumnado. La lección, como señala García Aretio (2022), es la necesidad de combinar estrategias de alta y baja tecnología, recuperando el potencial de la radio y la televisión como redes de seguridad para garantizar que nadie se quede desconectado del aprendizaje.

IA, ANALÍTICAS E INNOVACIONES: EL FUTURO YA ESTÁ AQUÍ

El horizonte de los medios audiovisuales en la EaD se está redefiniendo a gran velocidad gracias a la confluencia con la inteligencia artificial, las analíticas de aprendizaje y otras tecnologías emergentes.

La Inteligencia Artificial al servicio del audiovisual

La IA ya no es ciencia ficción. Herramientas de IA son capaces de generar automáticamente subtítulos y traducciones con una precisión creciente, democratizando la accesibilidad. La tecnología de creación de avatares permite producir vídeos con presentadores virtuales en múltiples idiomas sin necesidad de un estudio de grabación. La IA también puede personalizar el contenido, por ejemplo, adaptando un vídeo explicativo en función de las respuestas previas de un estudiante. Los asistentes de voz y los chatbots abren la puerta a un aprendizaje conversacional basado en audio, más interactivo y natural.

Analíticas de aprendizaje 

Los recursos audiovisuales digitales generan una gran cantidad de datos. Las analíticas de aprendizaje nos permiten responder a preguntas clave: ¿qué partes del vídeo ven más los estudiantes? ¿Dónde pausan o abandonan? ¿Qué conceptos generan más repeticiones? Analizar estos patrones de interacción ofrece una retroalimentación impagable para mejorar el diseño de futuros recursos y para detectar a estudiantes en riesgo que puedan necesitar apoyo adicional.

Retos y tendencias emergentes

El futuro cercano, ya el presente, nos trae la Realidad Virtual (VR) y la Realidad Aumentada (AR), que prometen llevar la inmersión a un nuevo nivel, permitiendo simulaciones y visitas de campo virtuales de un realismo sin precedentes. Los formatos interactivos y gamificados seguirán evolucionando para aumentar el compromiso. Sin embargo, todas estas innovaciones plantean importantes retos éticos sobre la privacidad de los datos del estudiante y los posibles sesgos de los algoritmos de IA, un debate que la comunidad educativa debe liderar de forma proactiva.

CONCLUSIONES

El recorrido de los medios audiovisuales en la educación a distancia es una crónica de adaptación e innovación constante. Desde la voz autorizada de la radio educativa hasta los algoritmos de personalización de la IA, el sonido y la imagen han demostrado una capacidad única para humanizar la distancia, clarificar lo complejo y motivar al aprendizaje. Su función ha evolucionado desde la mera transmisión de contenidos a la creación de entornos interactivos y adaptativos. La crisis del COVID-19 no solo aceleró la digitalización, sino que nos recordó una lección crucial: la importancia de la redundancia de canales y la necesidad de no supeditar la equidad a la novedad tecnológica, rescatando el valor inclusivo de medios como la radio o la televisión. Como sentenció McLuhan (1964), el medio moldea nuestra percepción. Por tanto, la elección de un medio sobre otro es una decisión profundamente pedagógica.

La reflexión final nos aleja de un determinismo tecnológico para situarnos en el terreno de la pedagogía. La tecnología, por muy avanzada que sea, es un motor potente pero sin dirección propia. El éxito de cualquier recurso audiovisual reside, y seguirá residiendo, en un diseño sólido, fundamentado en cómo aprendemos. Un diseño que ponga al estudiante en el centro, que sea intencionadamente inclusivo y que aplique los principios del aprendizaje multimedia. La verdadera disrupción no está en la herramienta, sino en la pedagogía que la guía.

Mirando al futuro, la integración de la inteligencia artificial y las analíticas de aprendizaje no reemplazará estos principios, sino que los potenciará. Nos encontramos en el umbral de una pedagogía audiovisual inteligente, capaz de ofrecer experiencias de aprendizaje personalizadas, accesibles y medibles como nunca. El reto para los educadores del siglo XXI es el de poder desarrollar las competencias para diseñar y crear estos nuevos recursos, asegurando que este nuevo y potente motor audiovisual sirva para construir una educación a distancia más eficaz, pero sobre todo, más justa para todos.

CUESTIONES PARA LA REFLEXIÓN Y EL DEBATE

  1. Considerando la “fatiga de Zoom” y la sobreexposición a pantallas, ¿cómo podemos encontrar un equilibrio saludable e pedagógicamente eficaz entre el uso de vídeo síncrono, asíncrono y el potencial del pódcast educativo en nuestros diseños de curso?
  2. Reflexionando sobre la lección de equidad que nos dejó la pandemia, ¿qué estrategias concretas de baja tecnología (low-tech) podríamos integrar de forma permanente en nuestras instituciones para crear un ecosistema de EaD verdaderamente inclusivo y resiliente?

FUENTES

  • Aguaded, I., y Ortiz-Sobrino, M.-A. (2022). La educación en clave audiovisual y multipantalla. RIED-Revista Iberoamericana de Educación a Distancia25(1). 
  • Banco Mundial. (2020). How countries are using edtech to support remote learning during the COVID-19 pandemic. World Bank Blogs.
  • Bates, A. W. (2005). Technology, e‑Learning and Distance Education (2.ª ed.). Routledge.
  • Berners‑Lee, T., y  Fischetti, M. (1999). Weaving the Web: The Original Design and Ultimate Destiny of the World Wide Web. HarperCollins.
  • CAST (2018). Universal Design for Learning Guidelines version 2.2. CAST.
  • Dale, E. (1969). Audiovisual methods in teaching (3rd ed.). Holt, Rinehart & Winston.
  • Fuertes-Alpiste, M., Molas-Castells, N., Martínez-Olmo, F., Rubio-Hurtado, M. J., y Galván Fernández, C. (2023). Videoconferencias interactivas en educación superior: una propuesta de mejora para el aprendizaje y la participación. RIED-Revista Iberoamericana de Educación a Distancia26(1).
  • García Aretio, L. (2001). La educación a distancia. De la teoría a la práctica. Ariel.
  • García Aretio, L. (2014). Medios y recursos en la educación a distancia. En Bases, mediaciones y futuro de la EaD en la sociedad digital. Síntesis.
  • García Aretio (2020). Audio en educación. Radio y pódcast. Contextos universitarios mediados.
  • García Aretio, L. (2022). Radio, televisión, audio y vídeo en educación. Funciones y posibilidades, potenciadas por el COVID-19. RIED-Revista Iberoamericana de Educación a Distancia, 25(1).
  • García Aretio, L. (2025). Diálogo Didáctico Mediado (DDM): Hacia una teoría superadora en educación a distancia. Contextos universitarios mediados.
  • Guo, P. J., Kim, J., y Rubin, R. (2014). How video production affects student engagement: An empirical study of MOOC videos. Proceedings of the First ACM Conference on Learning @ Scale Conference (pp. 41–50). Association for Computing Machinery.
  • Harasim, L. (2000). Shift happens: Online education as a new paradigm in learning. The Internet and Higher Education, 3(1‑2).
  • Harasim, L. (2017). Learning Theory and Online Technologies (2.ª ed.). Routledge.
  • Insider Intelligence. (2021). US Time Spent with Media 2021 Update. Insider Intelligence/eMarketer
  • Mayer, R. E. (2009). Multimedia learning (2nd ed.). Cambridge University Press.
  • McLuhan, M. (1964). Understanding media: The extensions of man. McGraw-Hill.
  • Salomon, G. (1979). Interaction of media, cognition, and learning. Jossey-Bass Publishers.
  • Sweller, J. (1988). Cognitive load during problem solving: Effects on learning. Cognitive Science, 12(2).
  • UNESCO (2021). Reimagining our futures together: A new social contract for education. UNESCO.
OpenEdition le sugiere que cite este post de la siguiente manera:
García Aretio (15 de septiembre de 2025). Audio y vídeo en la era digital: impulsores de la nueva educación a distancia (C.EaD-70). Contextos universitarios mediados. Recuperado 28 de septiembre de 2025 de https://doi.org/10.58079/14nx2

viernes, 26 de septiembre de 2025

Del LMS al ecosistema de aprendizaje conectado (C.EaD-69)

 Por Lorenzo García Aretio

AUDIO  –  VÍDEO

Todas las entradas de la serie “80 años. Compendio EaD”, VER AQUÍ

En la entrada anterior de este Compendio, se analizó la evolución del LMS hasta convertirse en una plataforma inteligente, el centro neurálgico de la actividad académica digital. Sin embargo, la propia dinámica de la innovación y las crecientes demandas pedagógicas nos obligan a dar un paso más. Durante la última década, la proliferación de herramientas de videoconferencia, laboratorios en la nube, servicios de autoría y aplicaciones de inteligencia artificial reveló un problema inesperado, cuantos más recursos se añadían al arsenal docente, más fragmentada y dispersa se volvía la experiencia del estudiante, obligado a saltar entre ventanas, identidades y contraseñas.

La respuesta institucional a este caos ha sido la construcción de un ecosistema de aprendizaje conectado, una visión que en el ámbito de la tecnología educativa se conoce como Next Generation Digital Learning Environment (NGDLE). El concepto de plataforma se queda corto; evoca un espacio cerrado. La idea de ecosistema (Brown et al., 2015), por el contrario, sugiere un entorno dinámico, interconectado y adaptable, donde el LMS no desaparece, sino que se transforma en un hub o centro de operaciones que organiza y coordina identidades, datos y calificaciones. Este cambio de paradigma representa una ampliación natural de la teoría del diálogo didáctico mediado (García Aretio, 2001, 2025) y es la piedra angular del NGDLE, cuyo objetivo es crear un entorno de aprendizaje centrado en el alumno. Si antes el diálogo se producía dentro del LMS, ahora se distribuye y enriquece a través de un abanico de herramientas externas pero interconectadas.

La infraestructura que materializa esta visión se sustenta en estándares abiertos. El consorcio 1EdTech encabeza este viraje con piezas clave como LTI 1.3/Advantage, el “enchufe universal” para herramientas; Caliper Analytics, que define un vocabulario común para los datos de uso; y la especificación xAPI de ADL, que amplía el registro de experiencias más allá de la plataforma. Sobre esta base, emergen las Learning Experience Platforms (LXP), sistemas que aplican algoritmos para construir rutas de aprendizaje personalizadas, un modelo que instituciones como Harvard ya han comenzado a implementar para integrar microcredenciales externas con sus cursos oficiales. El conjunto de estas tecnologías y la filosofía que las sustenta son los componentes clave que dan forma al Next Generation Digital Learning Environment (NGDLE).

El objetivo de esta entrada es, por tanto, doble, primero, explicar en detalle cómo el LMS actúa hoy como hub de un ecosistema de aplicaciones, datos y servicios basados en IA; y segundo, analizar en profundidad las oportunidades y riesgos que esta conectividad conlleva, desde la analítica predictiva hasta la sostenibilidad económica y ambiental, para que los equipos docentes puedan decidir qué integrar, cómo gobernarlo y con qué criterios de ética y transparencia.

DE LA PLATAFORMA AL ECOSISTEMA

En el modelo clásico e inicial, el LMS actuaba como un contenedor, alojaba materiales, facilitaba interacciones, registraba notas y poco más. El despegue de herramientas como la videoconferencia síncrona, los simuladores en la nube y los servicios de autoría pronto expuso la paradoja de que cuantos más servicios externos se añadían, más fragmentada y dispersa resultaba la experiencia del estudiante. La solución no ha sido agrandar el LMS, sino repensarlo como hub, es decir, como una pieza que autentica identidades, circula calificaciones y recoge datos de uso mientras aplicaciones especializadas, como laboratorios de RV, bancos de autoevaluaciones y portafolios se conectan y desconectan como módulos intercambiables. Esta arquitectura componible aporta tres beneficios pedagógicos directos:

  • Coherencia de la experiencia. El estudiante navega con una sola credencial y ve sus progresos en un único panel, lo que evita la fatiga digital y la dispersión.
  • Plasticidad didáctica. El docente puede sumar o quitar herramientas con agilidad, adaptando la tecnología a los objetivos pedagógicos sin tener que reconstruir el curso desde cero.
  • Observabilidad de datos. La universidad puede vigilar qué herramientas se integran mejor y cuáles quedan infrautilizadas, permitiendo una toma de decisiones informada.

El punto de inflexión en la tecnología educativa se produjo cuando los grandes proveedores y desarrolladores acordaron adoptar estándares comunes, como LTI (Learning Tools Interoperability), en lugar de APIs propietarias, dando origen a un ecosistema de aprendizaje verdaderamente conectado. Un claro ejemplo de esta evolución es la Universidad de Harvard. En enero de 2025, la institución lanzó su propia Learning Experience Platform (LXP) para unificar su diverso ecosistema digital. Esta plataforma actúa como un punto de acceso centralizado que integra y coordina recursos de aprendizaje, incluyendo contenidos de las distintas facultades, programas de micro-credenciales y herramientas que buscan ofrecer una analítica más completa del proceso formativo del estudiante. El objetivo es superar la fragmentación de sistemas anteriores y crear una experiencia de aprendizaje más fluida y cohesionada.

LA INFRAESTRUCTURA DEL ECOSISTEMA CONECTADO

La funcionalidad de un entorno de aprendizaje digital no reside en la cantidad de herramientas, sino en su capacidad para interoperar. Para ello, es crucial que todas hablen el mismo idioma. Imagina que cada aplicación (el LMS, una herramienta para crear cuestionarios, un laboratorio virtual) fuera de un país distinto. Sin un lenguaje común, la comunicación sería un caos. La solución no ha sido construir una única “superplataforma” que lo haga todo, sino convertir la plataforma principal (el LMS) en un inteligente centro de operaciones que se conecta con otras herramientas gracias a unas reglas de juego claras y compartidas. Tres de estos estándares son clave para el ecosistema conectado:

LTI: El “enchufe” universal para tus herramientas educativas

Piensa en el estándar LTI (Learning Tools Interoperability) como un adaptador de corriente universal, con el que no importa en qué país te encuentres, con el adaptador correcto puedes usar tus dispositivos. De la misma forma, LTI permite “enchufar” una herramienta externa directamente en tu LMS, haciendo que parezca una parte más del curso.

  • Para el estudiante, la magia de LTI es que todo funciona con un solo clic y sin pedir nuevas contraseñas. Cuando un profesor añade una actividad interactiva de H5P (una herramienta que permite crear desde vídeos con preguntas incrustadas hasta líneas de tiempo interactivas) o una simulación de Labster (un laboratorio virtual donde se pueden realizar experimentos científicos de forma segura), el estudiante accede directamente, como si siempre hubiera estado allí.
  • Para el docenteLTI es un asistente de lujo. Le permite buscar e insertar una herramienta externa en su curso sin salir de la plataforma (Deep Linking), sincroniza automáticamente la lista de estudiantes (Names & Roles Provisioning) y, lo más importante, hace que la nota obtenida en esa herramienta externa viaje sola y aparezca, como por arte de magia, en el apartado de calificaciones del curso (Assignment & Grade Services).

Las capacidades del estándar continúan expandiéndose. Las especificaciones más recientes, con una adopción creciente a partir de 2024, están sentando las bases para interacciones más complejas, como la posibilidad de que una herramienta envíe notificaciones a un estudiante a través del ecosistema de la plataforma, incluso cuando no esté navegando en ella en ese momento.

Caliper Analytics: El “traductor” de nuestras acciones de aprendizaje

Si LTI es la tubería que conecta las herramientas, Caliper Analytics es el idioma que fluye a través de ella. Este estándar crea un diccionario común para describir lo que hacemos al aprender. Acciones como “ver un vídeo”, “empezar un test” o “entregar una tarea” se registran de una manera unificada, sin importar qué herramienta se esté usando.

Gracias a una nueva especificación llamada LTI Advantage Data, los datos que genera Caliper viajan de forma ordenada a través de la “tubería” de LTI. ¿El resultado? La universidad puede tener un panel de análisis donde ve una película completa y coherente del progreso de los estudiantes, en lugar de tener solo fotos sueltas e inconexas de cada aplicación.

xAPI: El “diario de aprendizaje” que lo registra todo

Mientras que LTI y Caliper se enfocan en lo que ocurre dentro del LMS y sus herramientas conectadas, xAPI (Experience API) amplía la mirada. Su misión es capturar cualquier experiencia de aprendizaje, sin importar dónde o cómo suceda, por ejemplo, en una simulación con gafas de realidad aumentada, practicando en una app del móvil o incluso durante unas prácticas en una empresa.

xAPI funciona con frases sencillas y directas con la estructura “Actor – Verbo – Objeto” (por ejemplo: “Lucía Pérez – completó – el módulo de seguridad en el laboratorio”). Todas estas frases se guardan en un Learning Record Store (LRS), una especie de diario digital personal que puede recopilar evidencias de aprendizaje de fuentes muy diversas, creando un historial completo y detallado de las competencias adquiridas por una persona.

En resumen, estas tres tecnologías trabajan en equipo: LTI abre la puerta de la herramienta y se encarga de que todo fluya. Caliper se asegura de que todos los datos sobre lo que pasa dentro de esas herramientas se entiendan y se puedan comparar. Y xAPI va más allá, capturando cualquier aprendizaje relevante, sin importar el lugar. Juntos, transforman el LMS en el verdadero cerebro de una experiencia educativa conectada, coherente y, por primera vez, verdaderamente integral.

HERRAMIENTAS QUE SOLEMOS AÑADIR

En este ecosistema, el LMS coordina servicios especializados que aportan un valor concreto. Entre las integraciones más frecuentes, destacan varias familias:

  • Videoconferencia y aulas en directo: ZoomMicrosoft Teams o BigBlueButton se integran vía LTI. Esta conexión es fundamental porque sincroniza la lista de participantes, puede enviar métricas de asistencia y participación al panel docente y permite grabar la sesión, indexarla por contenido y publicarla automáticamente en el curso. Para el estudiante, la entrada es transparente, con un clic desde el LMS abre la sala con su identidad institucional.
  • Creación de contenido y autoría interactiva: Plataformas como H5P o Genially habilitan al docente para crear desde pequeños objetos de aprendizaje (líneas de tiempo, vídeos con preguntas) hasta escenarios ramificados y presentaciones enriquecidas. Al integrarse vía LTI, la puntuación obtenida por el estudiante se archiva directamente en el apartado de calificaciones. Además, los datos de uso (tiempo, intentos, aciertos) alimentan las analíticas de progreso, permitiendo al docente detectar rápidamente qué conceptos o actividades exigen refuerzo.
  • Sistemas de detección de plagio: Servicios como Turnitin o Unicheck, que se integran con la herramienta de tareas del LMS para analizar la originalidad de los trabajos entregados.
  • Herramientas colaborativas: Pizarras virtuales como Miro o Mural para el trabajo en equipo y la lluvia de ideas en tiempo real, accesibles directamente desde el entorno del curso.
  • Laboratorios virtuales y simuladores en la nube: En ingenierías, ciencias o salud, laboratorios que replican procesos complejos con realidad aumentada o motores de física son cada vez más comunes. Conectar, por ejemplo, Labster o PraxiLabs vía LTI evita la gestión de cuentas duplicadas y permite que las rúbricas de evaluación generadas automáticamente en el simulador se devuelvan al apartado de calificaciones del LMS, aportando una evidencia trazable de la adquisición de competencias prácticas.
  • Servicios de inteligencia artificial generativa: Desde 2023, los LMS líderes ofrecen “copilotos” que redactan borradores de feedback, crean bancos de preguntas o resumen debates de foro. Al integrarse dentro del LMS, el sistema puede registrar qué prompts se utilizaron y cuándo, un requisito que varias universidades ya exigen para garantizar la transparencia académica y promover la reflexión metacognitiva del estudiante sobre su uso de la IA.

Estas familias comparten estos rasgos esenciales: a) inicio de sesión único, b) retorno automático de resultados y c) envío de eventos normalizados. Así se evita la dispersión de credenciales, se preserva la coherencia del libro de calificaciones y se alimentan paneles analíticos que ilustran el progreso del estudiante a lo largo de herramientas heterogéneas.

DEL LMS A LA LXP: ¿QUÉ CAMBIA PARA EL PROFESOR?

Esta explosión de herramientas y contenidos ha impulsado la evolución conceptual hacia la LXP (Learning Experience Platform). Si el LMS nació para gestionar cursos de forma descendente, la LXP invierte la lógica: parte del perfil y las metas del aprendiz para curar y recomendar recursos dispersos, sugiriendo rutas personalizadas mediante algoritmos. Como señala Bersin (2019), el foco se desplaza de la gestión a la experiencia.

Instituciones como Harvard, que en 2025 lanzó su propia LXP, ejemplifican este modelo híbrido: el LMS gestiona los cursos formales y la LXP actúa como una capa superior que agrega contenidos institucionales, recursos externos y microcredenciales. Para el profesor, este cambio implica una redefinición de su rol:

  • De proveedor a curador-editor: El docente no es reemplazado por la tecnología, sino que su papel se eleva. Se convierte en un curador experto que revisa y valida las recomendaciones automáticas, añade contexto pedagógico y alinea los itinerarios con los resultados de aprendizaje, aportando el criterio que la máquina no posee (Bates, 2022).
  • Fuentes de evidencia ampliadas: Mientras el LMS registra básicamente interacciones internas, la LXP puede capturar el consumo de recursos externos, ofreciendo una visión más completa del recorrido de aprendizaje que enriquece el panel docente.
  • Gobernanza de los algoritmos: El docente debe ser consciente de los riesgos. Informes de referencia, como la guía de la UNESCO (2021) sobre inteligencia artificial en la educación, alertan de que una lógica de recomendación opaca puede reforzar sesgos o crear “burbujas” de contenido. Por ello, la explicabilidad de los algoritmos y la supervisión humana son requisitos éticos en toda implantación seria.

Bien diseñadas, LMS y LXP son complementarias porque la primera gestiona la estructura formal y la segunda amplía las trayectorias con recursos pertinentes. El riesgo aparece cuando la personalización algorítmica suplanta la planificación didáctica; el reto consiste en equilibrar la autonomía del estudiante y la coherencia curricular.

ANALÍTICAS PARA ACTUAR A TIEMPO

La convergencia de datos de múltiples herramientas permite crear paneles de control que ofrecen una visión completa del compromiso estudiantil. Visualizar la progresión puede mejorar la autorregulación del estudiante, un factor clave para evitar la procrastinación. El objetivo no es la vigilancia, sino la intervención pedagógica temprana y fundamentada (Siemens, 2013).

En este sentido, los sistemas de alerta temprana más avanzados ya no se basan únicamente en si un estudiante hace clic o no, sino en analizar la calidad de su participación. Estos modelos pueden identificar patrones de riesgo mucho más sutiles y alertar al docente cuando un estudiante, a pesar de estar conectado, muestra comportamientos como:

  • Visitas muy breves y superficiales a los materiales de estudio.
  • Participaciones en foros que son siempre réplicas mínimas (“estoy de acuerdo”) sin aportar ideas nuevas.
  • Intentos fallidos y repetidos en cuestionarios formativos sin consultar los materiales de refuerzo.

Una alerta generada por este tipo de análisis cualitativo permite al tutor una intervención mucho más precisa, no se quedaría en un genérico “¿necesitas ayuda?“, sino un específico “he notado que tienes dificultades con este concepto, ¿revisamos juntos los materiales?“.

CREDENCIALES Y DESAFÍOS DEL ECOSISTEMA

La conectividad total del ecosistema abre un enorme potencial, pero también plantea responsabilidades críticas.

  • Credenciales verificables. Para acreditar el aprendizaje distribuido han surgido los open badges y las microcredenciales verificables, a menudo basadas en tecnología blockchain. Estas representaciones digitales, seguras y portables permiten a los estudiantes acumular y mostrar evidencias de habilidades específicas, fomentando el aprendizaje a lo largo de la vida y conectando mejor la formación con las demandas del mercado. El desafío es doble, garantizar la interoperabilidad entre proveedores y evitar la “fatiga de credenciales”, definiendo taxonomías de competencias claras.
  • Ética y gobernanza de los datos. Un ecosistema conectado comparte datos sensibles. La Recomendación sobre la Ética de la Inteligencia Artificial de la UNESCO (2021) exige explicabilidad algorítmica, supervisión humana y derecho a corrección. Las universidades deben constituir comités de ética que auditen sesgos y garanticen que la personalización no reproduzca desigualdades estructurales.
  • IA explicable (XAI). A medida que la IA se integre en la evaluación, la transparencia será crucial. La IA de “caja negra” es pedagógicamente inaceptable. La IA explicable (XAI) será aquella que pueda justificar sus decisiones (Gunning et al., 2019). Un asistente de IA que evalúa un ensayo no solo dará una nota, sino que mostrará al estudiante por qué ha llegado a esa conclusión, señalando fragmentos y vinculándolos a la rúbrica. Esto construye confianza y convierte la evaluación automatizada en una verdadera herramienta formativa.

CONCLUSIONES

El paso del LMS aislado al ecosistema conectado es mucho más que una actualización tecnológica; es una profunda reconceptualización de nuestro entorno digital de enseñanza que redefine la práctica docente y la gestión institucional. Donde antes había un “curso contenedor”, hoy encontramos un hub de aprendizaje que conecta laboratorios virtuales, videoconferencias y servicios de IA, gracias a la madurez de estándares como LTI Advantage Data y xAPI. Estos no solo garantizan una experiencia de usuario fluida y con una sola credencial, sino que crean una radiografía completa del itinerario de cada estudiante, registrando evidencias de aprendizaje tanto dentro como fuera de la plataforma formal.

Desde el punto de vista pedagógico, el ecosistema favorece la plasticidad didáctica, dado que el docente puede organizar recursos dinámicos sin perder la visión global del progreso, mientras el estudiante transita por rutas flexibles apoyadas en recomendaciones algorítmicas, un modelo que se materializa en la complementariedad entre el LMS y las emergentes LXP. Las primeras evaluaciones a gran escala ya confirman que los paneles de control multimodales y la analítica bien implementada pueden catalizar la autorregulación del estudiante y mejorar su rendimiento.

Sin embargo, esta enorme conectividad multiplica las responsabilidades. En el plano ético, la recomendación de la UNESCO nos obliga a exigir explicabilidad, supervisión humana y salvaguardas para evitar que los algoritmos de recomendación y los modelos predictivos de alerta temprana reproduzcan sesgos. En el plano económico, la tendencia de crecimiento del gasto en licencias y servicios en la nube obliga a las instituciones a adoptar modelos de control del coste total de propiedad que incluyan métricas de uso real y de impacto pedagógico. Finalmente, en el plano ambiental, la creciente huella de carbono del streaming masivo y del entrenamiento de modelos de IA nos insta a medir el “CO₂ por crédito aprobado” y a exigir a los proveedores compromisos de eficiencia energética.

Mirando a 2028, las prioridades estratégicas se agrupan en cuatro verbos: conectar, consolidando la adopción de estándares abiertos; explicar, publicando la lógica de los algoritmos; sostener, vinculando presupuestos a métricas de uso y a indicadores de carbono; y empoderar, formando al profesorado en la lectura crítica de datos y en la curaduría de contenidos. El éxito del ecosistema conectado dependerá menos de la cantidad de integraciones que de nuestra capacidad de gobernarlo para alinear tecnología, pedagogía y sostenibilidad en un proyecto educativo coherente.

CUESTIONES PARA LA REFLEXIÓN Y EL DEBATE

  • Pensando en su propia asignatura, ¿qué dos o tres herramientas externas (un simulador, una herramienta de debate, un creador de contenido interactivo, etc.) considera que serían las más valiosas para integrar en su LMS y por qué?
  • El rol del docente como “curador” de experiencias en un ecosistema LXP, ¿lo percibe como una oportunidad para centrarse en un acompañamiento de mayor valor añadido o como una carga de trabajo adicional?

FUENTES

  • Bates, A. W. (2022). Teaching in a Digital Age: Guidelines for designing teaching and learning (3rd ed.). Tony Bates Associates Ltd.
  • Bersin, J. (2019). Learning Experience Platform (LXP) Market Grows Up: Now Too Big To Ignore. Josh Bersin.
  • Brown, M., DeacutisJ., y Motz, B. (2015). The Next Generation Digital Learning Environment: A Report on Research. EDUCAUSE Learning Initiative
  • García Aretio, L. (2001). La educación a distancia. De la teoría a la práctica. Ariel.
  • García Aretio (2025). Diálogo Didáctico Mediado (DDM): Hacia una teoría superadora en educación a distancia. Contextos universitarios mediados.
  • Gunning, D., Stefik, M., Choi, J., Miller, T., Stumpf, S., & Yang, G. Z. (2019). XAI—Explainable artificial intelligence. Science Robotics, 4(37), eaay7120.
  • Siemens, G. (2013). Learning Analytics: The Emergence of a Discipline. American Behavioral Scientist, 57(10).
  • UNESCO. (2021). AI and education: Guidance for policy-makers. UNESCO Publishing.
  • UNESCO. (2021). Recommendation on the Ethics of Artificial Intelligence. United Nations Educational, Scientific and Cultural Organization.
OpenEdition le sugiere que cite este post de la siguiente manera:
García Aretio (11 de septiembre de 2025). Del LMS al ecosistema de aprendizaje conectado (C.EaD-69). Contextos universitarios mediados. Recuperado 21 de septiembre de 2025 de https://doi.org/10.58079/14mix