viernes, 22 de agosto de 2025

La IA en el aula es un reto pedagógico, no tecnológico

 Por Aurora María Tovar Martínez

La inteligencia artificial (IA) no reemplaza el acto de pensar, sino que lo expande, amplifica y enriquece. Su valor reside en imaginar nuevas formas de aprender, aceptar lo desconocido y unir lo humano con lo tecnológico, para juntos descubrir lo que antes parecía imposible. Estas ideas surgen en el contexto de mi participación virtual en el Congreso CIIPEC 2024 de la Fundación CEMAR. Esta experiencia me llevó a integrar la IA en mi práctica docente con una perspectiva crítica y humanista que ha transformado mi forma de enseñar.

En este artículo les comparto cinco puntos clave que debemos considerar para integrar IA en el aula, de manera que nos permita fusionar de forma efectiva la parte tecnológica y la humana en el proceso de enseñanza y aprendizaje.

Cinco puntos clave para integrar IA en el aula

1.     La IA es una herramienta, no un sustituto

Algo que la IA no podrá reemplazar es el contacto humano. Como docentes, nuestro rol no debe limitarse a pedir un ensayo o una composición que con mayor o menor calidad puede hacer un chatbotDebemos acompañar al estudiante en su proceso de aprendizaje, monitorear cómo interactúan con la IA y enseñarles a preguntar mejor. Por ejemplo, en una actividad de análisis literario, propuse que las y los estudiantes utilizaran IA para generar preguntas sobre un fragmento de la novela “La flor púrpura” de Chimamanda Ngozi Adichie. Posteriormente, discutimos en clase por qué la IA proporcionó esas preguntas y cómo podrían mejorarse. Este enfoque les ayudó a desarrollar su pensamiento crítico y a reflexionar sobre las limitaciones de la tecnología.

Nuestros estudiantes no son inmorales al utilizar la tecnología disponible, simplemente son contemporáneos. Cuando aceptamos que la comunidad estudiantil está usando las diferentes herramientas de inteligencia artificial para realizar sus tareas, una perspectiva optimista, es encaminar su curiosidad en un circuito circular que les permita partir de sus propias ideas y una vez consultada la herramienta, volver a usar su criterio para tomar decisiones, es decir, primero el estudiante y al final el estudiante. Con el fin de que siempre haya una intervención humana en el proceso de aprendizaje.

Además, es muy relevante establecer límites claros sobre el uso de la IA en las clases. Por ejemplo, en mis grupos les permití que utilizaran IA para generar ideas iniciales, pero no para escribir actividades completas. Esto ayudó a fomentar la creatividad y la responsabilidad. También, supervisé su aprendizaje rastreando avances individuales, identificando lagunas de conocimiento y sugiriendo estrategias personalizadas para mejorar.

2.     El aprendizaje ocurre en el plano intelectual, pero principalmente en el emocional

Con apoyo de una IA, diseñé clases emocionalmente saludables para mis estudiantes. Para ello, utilicé la herramienta Asistente de Plan de Educación Individualizada de Khanamigo de Khan Academy, para adaptar contenidos a los ritmos de aprendizaje de mis diversos grupos y fomentar con ello su autoconfianza. Por ejemplo, en una actividad sobre narrativa, las y los estudiantes crearon cuentos cortos y personalizaron sus historias con elementos que reflejaban sus emociones y vivencias personales. La herramienta Khanamigo me permitió ofrecer diferentes niveles de apoyo en la creación de estos cuentos, dando sugerencias de estructura y generando algunas ideas según el nivel de cada estudiante. Este enfoque inspiró su curiosidad y fortaleció los lazos entre compañeros al compartir en clase sus relatos.

Los mejores maestros y maestras se recuerdan por cómo nos hicieron sentir. Mi objetivo es inspirar a cada educando el amor y la curiosidad por aprender, personalizando sus procesos de aprendizaje, y en el camino, hacer un buen uso de las herramientas tecnológicas. Por ejemplo, en mi clase sobre humor en el arte y la literatura, invité a mi grupo a trabajar colaborativamente con la IA para crear parodias que abordaran problemáticas sociales vinculadas a los Objetivos de Desarrollo Sostenible (ODS). Al final, compartieron sus creaciones, descubrieron su potencial y fortalecieron sus vínculos con los demás. Estas interacciones entre pares y conectar los contenidos de la clase con el mundo real, les permitió evaluar si el humor sugerido por la IA era realmente gracioso para su contexto o si esta característica aún está en desarrollo o no era lo más apropiado.

3.     Prioriza los momentos pedagógicos con la intervención docente

La intervención humana en el aula sigue siendo insustituible. Este semestre incorporé actividades como «conversando con el personaje literario», donde cada uno creó preguntas sobre personajes literarios y utilizaron la IA para simular respuestas. Este ejercicio generó debates profundos y estimuló su curiosidad. Asimismo, en la clase de Teoría del conocimiento trabajamos con noticias generadas con IA, específicamente sesgadas sobre desastres naturales, ayudando a cada participante a identificar errores y reflexionar sobre cómo la IA puede replicar los sesgos humanos si no se usa con criterio.

Para reducir la sobrecarga cognitiva, me aseguré de centrarme en lo esencial, diseñando actividades que permitieran a los estudiantes producir resultados concretos con la información que ya dominaban. Por ejemplo, después de trabajar con la IA, descubriendo detalles de cada recurso para el análisis de un texto, los estudiantes resumieron sus aprendizajes en mapas conceptuales hechos a mano. Este tipo de actividad les ayudó a consolidar sus ideas y a utilizarlas en debates de la clase.

4.     Evalúa el proceso, no solo el resultado

La evaluación debe concentrarse también en el pensamiento crítico y en la reflexión metacognitiva. Una actividad donde utilizamos Personify para corregir borradores de ensayos permitió a los estudiantes comparar sus ideas con las sugerencias de mejora generadas con la herramienta, evaluando la calidad y profundidad de sus razonamientos. Esto promovió una mayor comprensión de sus propios procesos de aprendizaje. Algunos estudiantes se mostraron sorprendidos por la precisión de la IA al señalar sus áreas de mejora y fortalezas, lo que les hizo sentir que la retroalimentación era personalizada y relevante para su aprendizaje. Otros expresaron motivación al ver recomendaciones claras y específicas y no tener que esperar casi nada de tiempo para tener una guía concreta. Además, varios destacaron que recibir ambas recomendaciones, de la maestra y la IA, les permitió comparar diferentes perspectivas y complementar su aprendizaje con un enfoque equilibrado.

Además, las y los estudiantes aprendieron a reflexionar sobre cómo utilizan la IA y lo que han aprendido a partir de ella. Por ejemplo, en una autoevaluación final, cada estudiante explicó cómo las herramientas de IA habían influido en sus decisiones creativas y en su comprensión del tema. Este tipo de evaluación les permitió mejorar sus habilidades y desarrollar una visión crítica sobre el uso de la tecnología.

5.     Considera el impacto ambiental y ético de la IA

En una actividad interdisciplinaria, mis grupos investigaron cómo el uso de IA afecta el medio ambiente y propusieron soluciones creativas, como campañas para reducir el consumo energético en sus hogares. Estas actividades fomentan el pensamiento crítico y el compromiso con una ciudadanía digital responsable.

El uso responsable de la IA requiere programas de ciudadanía digital que formen personas críticas y conscientes de los impactos ambientales y éticos de esta tecnología. Mi siguiente prioridad es trabajar en colaboración con las y los colegas de diferentes departamentos académicos para promover una alfabetización digital para toda la comunidad educativa, explorando temas como el entrenamiento de modelos de IA y el consumo energético asociado a su uso donde también enseñemos a los estudiantes a citar contenido generado por IA y a distinguir lo creado por estas herramientas de lo humano.

Reflexión

Sin duda, la combinación de tecnología con la guía humana generó un ambiente de aprendizaje enriquecedor en el que las y los estudiantes se sintieron apoyados y desafiados. Percibo a mis estudiantes más motivados por el componente innovador y al mismo tiempo reforzando su autoconfianza. La posibilidad de adaptar el contenido de clase a sus propios ritmos y necesidades de aprendizaje les da una sensación de autonomía. La retroalimentación inteligente también les ayuda a identificar oportunidades de mejora de forma inmediata y esto es una ventaja con la que no contaron las generaciones anteriores. Hoy en día, la comunidad estudiantil tiene un acceso más dinámico y flexible al conocimiento, lo que potencialmente puede ayudar a reducir la frustración y tener un proceso educativo más inclusivo. Los desafíos pedagógicos se encuentran en aprovechar con equilibrio las herramientas de IA para seguir fomentando la participación activa de cada educando.

La IA ofrece un ritmo sin precedentes para el aprendizaje, pero el verdadero desafío es pedagógico. Necesitamos replantear nuestras prácticas, fomentar más que nunca el pensamiento crítico y acompañar a las y los estudiantes en la exploración de lo desconocido. Les invito a desafiar nuestras propias creencias y abrazar el cambio, construyendo juntos una educación más humana y significativa. También, a compartir sus experiencias de enseñanza y aprendizaje en el aula, a través del Observatorio del Instituto del Futuro de la Educación del Tec de Monterrey.

Acerca de la autora

Aurora María Tovar Martínez (auroratovar@tec.mx) es Licenciada en Letras Españolas y tiene una maestría en Educación con acentuación en Desarrollo cognitivo. Tiene más de quince años de experiencia impartiendo clases en PrepaTec en los departamentos de Español y literatura, y Ciencias sociales y humanidades.

Tomado de EDUBIT del Tec De Monterrey

jueves, 21 de agosto de 2025

Recomendación de la UNESCO sobre la Ciencia Abierta

 Tomado de Universo Abierto

United Nations Educational, Scientific and Cultural Organization. Recommendation on Open Science. Adoptada por la 41.ª Conferencia General de la UNESCO, París, 23 de noviembre de 2021. París: UNESCO, 2021. Disponible en línea en https://unesdoc.unesco.org/ark:/48223/pf0000379949_spa

La Recomendación sienta las bases para una transformación profunda del ecosistema científico global. Promueve un modelo de producción y circulación del conocimiento más justo, transparente y participativo, con el fin de acercar la ciencia a la sociedad y garantizar que sus beneficios estén al alcance de todos. La Recomendación constituye, así, una hoja de ruta ambiciosa para que gobiernos, instituciones y comunidades científicas trabajen conjuntamente por una ciencia abierta al mundo y para el mundo.

La Recomendación de la UNESCO sobre la Ciencia Abierta, adoptada por unanimidad en noviembre de 2021 durante la 41.ª sesión de la Conferencia General, constituye el primer instrumento normativo internacional que define y promueve un enfoque común para el desarrollo de la ciencia abierta a nivel mundial. Este documento fue elaborado con la participación de expertos, responsables políticos, científicos, organizaciones e instituciones de diversos contextos geográficos y disciplinares, en respuesta a los desafíos contemporáneos en la producción, acceso y difusión del conocimiento científico.

Se parte de una definición amplia e inclusiva de la ciencia abierta, que no se limita al acceso abierto a publicaciones científicas, sino que también abarca el acceso libre a datos, software, infraestructuras digitales, metodologías, materiales de investigación y procesos colaborativos. Además, reconoce y valora los sistemas de conocimiento no occidentales, tradicionales e indígenas, proponiendo una ciencia más participativa y plural.

El texto se articula en torno a cinco pilares fundamentales: el conocimiento científico abierto; las infraestructuras para la ciencia abierta; la comunicación científica accesible; la participación activa de diversos actores sociales; y el diálogo con otros sistemas de conocimiento. Estos ejes estructuran una visión integral que promueve una ciencia más democrática, ética, reproducible y útil para enfrentar los grandes retos sociales, como el cambio climático, las pandemias o las desigualdades globales.

La Recomendación también establece compromisos específicos para los Estados Miembros. Les insta a promover marcos normativos que respalden la ciencia abierta, garantizar la inversión en infraestructuras adecuadas, fomentar la formación en prácticas abiertas, y crear mecanismos de evaluación científica más equitativos. Asimismo, se les solicita rendir cuentas sobre los avances realizados y cooperar con otros países en el fortalecimiento de una cultura científica abierta y colaborativa.

Tomado de Universo Abierto

miércoles, 20 de agosto de 2025

La impaciencia digital: cuando lo breve no siempre es mejor

 Por Carlos Bravo Reyes y Mercedes Leticia Sánchez Ambriz

Imagen que contiene firmar, dibujo

El contenido generado por IA puede ser incorrecto.


Si estás muy apurado, te invito a escuchar el pódcast

Pero si estás más apurado, al final tienes un video que resume el texto. Tú decides

Vivimos en una época marcada por la velocidad. Las redes sociales, los videos de 15 segundos y los resúmenes de todo tipo han condicionado a una nueva generación de estudiantes que, aunque tecnológicamente hábiles, se enfrentan a un reto profundo: la impaciencia digital. Esta tendencia, que se manifiesta en la preferencia por contenidos cortos, respuestas inmediatas y resultados instantáneos, está reconfigurando las dinámicas de aprendizaje en el aula y fuera de ella.

Es frecuente escuchar frases como “profe, ¿puede resumirlo?, o ¿hay un video más corto?. No se trata de falta de interés, sino de una forma diferente de relacionarse con la información. Los estudiantes hoy se sienten más cómodos en entornos donde la recompensa cognitiva es rápida y la carga mental es mínima.

Sin embargo, esta comodidad tiene un precio: la superficialidad. La impaciencia digital empuja a evitar la complejidad, a no detenerse en los matices y a pasar por alto los procesos reflexivos que requieren tiempo. En otras palabras, promueve una cultura de respuestas rápidas, pero no necesariamente correctas o significativas.

No se trata de culpar a las tecnologías, sino de entender cómo las hemos integrado en nuestras vidas. La gratificación instantánea se ha convertido en una norma. Un clic basta para obtener lo que antes requería horas de lectura, consulta o debate. Esta transformación ha moldeado nuevas expectativas de consumo de conocimiento: que todo sea inmediato, accesible y digerido.

Además, el entorno digital ha reforzado la ilusión de que “entender” es equivalente a “haber visto” o “haber leído algo breve”, desplazando el valor de la comprensión profunda.

Detengámonos en algunos datos.

TikTok es la plataforma de los videos cortos, donde se permiten videos desde 3 segundos a 60 minutos. La duración promedio actual se encuentra entre 30 y 60 segundos, según se lee en el blog CaptionsLas cuentas con mayor cantidad de seguidores suelen publicar videos algo más largos, en torno a 55 segundos, pero la propia plataforma recomienda videos entre 21 y 34 segundos.

En junio de este año, según se lee en un informe de Explonding Topics, los usuarios de esta red a nivel global pasaron entre 55 y 58 minutos al día viendo videos y lo hacen en cerca de 15 sesiones al día, con una duración entre 15 minutos y 41 segundos. En otro informe, de la plataforma Social Spehere se lee que en EUA los niños y adolescentes entre 11 a 17 años, dedican 2 horas diarias a ver videos en esta plataforma.

Según datos de We are Social, en YouTube la duración promedio de los videos es de unos 11.7 minutos. En noviembre del pasado año los usuarios que acceden a la plataforma desde la app del sistema Android lo hicieron 21 días en todo el mes. YouTube tiene cada mes unos 2,53 billones de usuarios, es decir 3 de cada 10 pobladores del planeta.

El reto para los docentes no es competir con TikTok o con los resúmenes en YouTube, sino cultivar el gusto por la pausa, la reflexión y la elaboración. En lugar de rechazar el formato breve, podemos usarlo como anzuelo para invitar a profundizar.

Algunas estrategias útiles:

- Utilizar el micro aprendizaje por medio de videos cortos, que generen preguntas más que ofrecer respuestas cerradas.
- Aprendizaje por proyectos, donde el estudiante deba investigar, contrastar y presentar resultados que requieren tiempo y elaboración.
- Evaluación del proceso, no del producto final, que premien el esfuerzo sostenido más allá de la inmediatez.
- Actividades metacognitivas, donde se reflexione sobre cómo se aprende y no solo qué se aprende.

La impaciencia digital no es una condena, pero sí un llamado de atención. Como educadores, formadores o ciudadanos preocupados por el desarrollo integral, tenemos la tarea de defender el valor de lo profundo frente al vértigo de lo efímero. El conocimiento no es solo información: es reflexión, conexión y transformación.

Educar en tiempos de inmediatez digital no significa volver al pasado, sino enseñar a navegar el presente con herramientas críticas. En lugar de resistir la ola tecnológica, aprendamos a surfearla con sentido, recordando que lo más valioso casi nunca es instantáneo.


Leo y la profe Azul: chatbots educativos en América Latina para la alfabetización inicial con inteligencia artificial

 Por   -  -  - 

Hemos pasado los últimos años escuchando de cerca a nuestros profesores y alfabetizadores en la región, quienes realizan la increíble labor de formar a las futuras generaciones. Lo que más nos han expresado es la necesidad de apoyo. ¡Y la buena noticia es que hay muchas formas de ayudar! Ahora, nuestro desafío es organizar y canalizar ese apoyo para que llegue a quienes más lo necesitan.

Desde el equipo del programa Aprendamos Todos a Leer (ATAL), hemos desplegado diversas acciones para complementar y fortalecer nuestra propuesta. Hace un par de años, en colaboración con el programa Juntos Aprendemos, ofrecimos una serie de siete webinars especializados. El año pasado,lanzamos de nuestro curso virtual El viaje de la alfabetización”. Y este año hemos puesto a disposición el curso “Conexiones”, gracias al valioso apoyo de UNICEF Colombia. 

Además, para ampliar nuestro ecosistema de apoyo, el año pasado lanzamos a Leo, el chatbot de ATAL, y este año presentamos a La Profe Azul, un asistente virtual desarrollado junto con UNICEF. Finalmente, y como respuesta directa a los comentarios y preguntas recibidas, hemos publicado diferentes entradas en nuestro blog Enfoque Educación. Todo esto nos motiva: responder a la solicitud de apoyo y ofrecer recursos que consideramos de gran utilidad para quienes tienen la valiosa responsabilidad de alfabetizar.

Desafíos recurrentes en la alfabetización: inquietudes desde la escuela

A lo largo de nuestros webinars, seminarios y visitas a escuelas en la región, hemos tenido la oportunidad de recopilar inquietudes comunes que reflejan los desafíos diarios que enfrentan los educadores en el proceso de alfabetización inicial. Estas preguntas, expresadas directamente por quienes tienen la misión de enseñar a leer y escribir en los primeros grados, subrayan la complejidad de su labor:

  • ¿En qué consiste la metodología ATAL y cómo se aplica?
  • ¿Cuál es el rol de las planas en el proceso de aprendizaje de la escritura?
  • ¿Se debe enseñar ortografía desde los primeros grados?
  • ¿Dónde acceder a los materiales del programa ATAL?
  • Si el niño o niña está en segundo grado y no lee, ¿está rezagado o rezagada?
  • ¿Cuál es la edad adecuada para enseñar a los niños  a leer y escribir?
  • ¿Por qué enseñar el sonido y no el nombre de las letras?
  • ¿Qué estrategias aplicar con las y los niños de edades avanzadas?
  • ¿Cuál es la utilidad de los dictados en el proceso de alfabetización?
  • ¿Qué hacer para que los niños y niñas lean con fluidez?
  • Cuando hay diagnóstico de dislexia, ¿se puede alfabetizar?
  • ¿Cuál es la relevancia de la velocidad lectora?
  • ¿Qué tipo de letra es más conveniente: cursiva o script?
  • ¿Con qué sonidos iniciar la enseñanza de la lectura y la escritura?
  • ¿Cómo apoyar a aulas con altos niveles de rezago en lectoescritura?
  • ¿Qué método de enseñanza es más efectivo: global o fonético?
  • ¿Cómo implementar la evaluación formativa para adaptar la intervención pedagógica?

Estas preguntas no solo ilustran la diversidad de retos, sino que también revelan la necesidad de claridad y herramientas prácticas para implementar metodologías efectivas para enseñar a leer y escribir en los primeros grados. En este contexto, la simple provisión de materiales pedagógicos, incluso aquellos de alta calidad como los de Aprendamos Todos a Leer (ATAL), resulta insuficiente por sí sola.  Es evidente que se requiere un apoyo integral para lograr una alfabetización exitosa para todos los estudiantes, es imprescindible:

  • Formación continua y acompañamiento a los docentes, permitiéndoles profundizar en las metodologías y adaptar sus prácticas a la evidencia científica.
  • Disponibilidad constante de recursos diversos y pertinentes que se ajusten a las distintas necesidades del aula.
  • Creación de un entorno de aprendizaje favorable y estimulante que motive a los niños y niñas a aprender a leer y a escribir y a leer y escribir para aprender.
  • Fomento de la colaboración activa entre educadores, directivos y familias, reconociendo el rol de cada actor en el proceso.
  • Promoción de una cultura de la evaluación formativa, que capacite a los educadores para identificar las necesidades individuales de los estudiantes, monitorear su progreso y adaptar su enseñanza para mejorar el aprendizaje de cada uno.

¿Quiénes son Leo y la Profe Azul?

Leo y la Profe Azul son dos asistentes virtuales o chatbots que utilizan inteligencia artificial para resolver dudas sobre la enseñanza de la lectura y la escritura, desde preescolar hasta el tercer grado. Todas sus respuestas están basadas en el material de ATAL de Colombia y Panamá, y no están habilitadas para responder preguntas fuera de este campo temático.

La Profe Azul, iniciativa de UNICEF Colombia y la Fundación Carvajal, surgió para brindar apoyo a docentes, familias, líderes y alfabetizadores en temas de lectoescritura inicial. Inicialmente, profesionales respondían a sus consultas, y en 2025, con el respaldo del BID, se transformó en una asistente virtual con inteligencia artificial para agilizar y mejorar la calidad de las respuestas.

Es importante destacar que Leo y la Profe Azul no reemplazan el uso de los materiales del programa. Su función principal es apoyar a losdocentes para que implementen el programa con mayor fidelidad, facilitando la comprensión de las ideas, estrategias, metodologías y conceptos que sustentan las secuencias didácticas de cada grado. Además, reconocemos que los docentes y alfabetizadores tienen en sus aulas grupos heterogéneos y situaciones complejas que superan sus capacidades para atenderlos de forma pertinente o planear actuaciones específicas. Para abordar esto, Leo y la Profe Azul ofrecen sugerencias didácticas basadas en evidencia, alineadas con el programa, brindando un apoyo valioso para intensificar la instrucción y proporcionar actividades que amplíen las oportunidades de práctica.

Algunas  de las funciones de Leo y la Profe Azul son:

¿Qué diferencia hay entre ambos chatbots?

A cada pregunta o solicitud que hacemos a los chatbots, la inteligencia artificial busca darte una respuesta eficiente. Ambas herramientas lo hacen de forma diferente y estructuran la información de manera tal que les permite contar con dos respuestas que van a ayudarnos a plantear situaciones de aprendizaje, complementarlas o escoger la que mejor se ajuste a sus necesidades. 

¿Cómo pueden ingresar al chatbot?

Para ingresar a Leo deben crear una cuenta en https://atal.sndbx.run/ y empezar a interactuar. Mientras que, a la Profe Azul, se accede a través de WhatsApp  agregando el siguiente contacto +57 (323) 833-1111 en el teléfono móvil e iniciar la conversación.

¿En qué horario está disponible?

Leo y la Profe Azul están disponibles las 24 horas del día, ya que ambas son asistentes de inteligencia artificial, siempre dispuestas a compartir ideas, conceptos, prácticas y recursos.

¿Qué debemos tener en cuenta?

Para que esta experiencia sea un ejercicio enriquecedor para todas y todos, les hacemos las siguientes sugerencias y claridades: 

  1. Es importante tener un enfoque analítico hacia las respuestas de la inteligencia artificial, ya que esta tiende a ser complaciente y, cuando no encuentra una respuesta adecuada, puede “alucinar”. Por esta razón, las respuestas de Leo y la Profe Azul deben ser evaluadas cuidadosamente antes de ser implementadas.
  2. Estructuren las preguntas o prompts manera que proporcionen información y detalles que ayuden a Leo y a la Profe Azul a comprender el alcance de la consulta, permitiéndoles así adaptar sus respuestas para cumplir con sus expectativas.
​​Un prompt es una solicitud o instrucción dirigida a un modelo de inteligencia artificial para que genere una respuesta o acción específica. El prompt es fundamental para guiar el comportamiento de la Profe Azul, ya que define la entrada que el sistema utilizará para generar la salida deseada. Para optimizar los resultados, es crucial que el prompt sea: ​Claro: utilizar un lenguaje sencillo y directo.  ​Específico: proporcionar detalles e información relevante para mejorar el resultado.​ 

 Por ejemplo, pueden precisar:

  • El grado correspondiente al nivel que están enseñando.
  • La habilidad que quieren desarrollar. Recuerda que el programa promueve la dinamización de habilidades precursoras y fundamentales como el lenguaje oral, conceptos de impresión, vocabulario, escritura emergente, conocimiento de las letras, el principio alfabético, la fluidez, la comprensión, la caligrafía, la ortografía y la composición escrita.
  • Precisen aspectos cómo el tipo de enseñanza que quieren dinamizar (explícita, sistemática, estructurada y directa) 
  • El tipo de andamiaje (grupo general, pequeños grupos, parejas y/o trabajo independiente. 
  • El material de ATAL que quieren consultar, por ejemplo, la guía del profesor, el cuaderno del estudiante o un video.
  • Pueden especificar cómo desarrollar la evaluación formativa y qué herramientas utilizar. 

También, queremos que imagines que esta interacción es similar a una conversación con un colega o amigo, por lo cual, puedes pedirles que amplíen la información, detallar la estrategia, contra preguntar y corregirlas de ser necesario.

¡Vamos a ponerlas a prueba!

Vamos a explorar ambos chatbots retomando algunas de las preguntas iniciales y su respuesta, recuerden, evaluar su pertinencia y pensar en los prompts para mejorar la calidad de las respuestas.

Pregunta a Leo: ¿Cuáles prácticas son las más efectivas para enseñar a leer?

Pregunta a la Profe Azul: ¿Por qué enseñar los sonidos y no el nombre de las letras?

Pregunta a Leo:¿Qué puedo hacer con los niños y niñas más rezagados en el primer grado?

Los invitamos a hacer un listado de preguntas o dudas que quieran resolver, traten de clasificarlas por habilidad y empiecen a interactuar con Leo y la Profe Azul y cuéntennos en los comentarios qué tal estuvo la experiencia. Tu realimentación es esencial para que continuemos mejorando el desempeño de ambos chatbots.

A modo de cierre

Leo y la Profe Azul son herramientas valiosas para la implementación de ATAL, ya que resuelven dudas, brindan orientación y sugieren actividades que pueden respaldar el programa. Estas herramientas permiten extender las iniciativas educativas, incrementar su intensidad y guiar de manera adecuada los espacios de práctica adicionales que algunos niños y niñas puedan necesitar. Además, al incorporar la inteligencia artificial en las aulas, pueden convertirse en recursos útiles, desafiantes y transformadores. El objetivo es que continuemos trabajando como un equipo para mejorar la calidad de los aprendizajes de los niños y niñas de la región.

Los invitamos a probarlos y dejarnos sus comentarios.

Tomado de Enfoque educación blog del BID

lunes, 18 de agosto de 2025

¿Se debe confiar en la IA?

 Por Melissa Guerra de EDUNEWS 

Anteriormente, en el artículo Principios éticos de la educación con Inteligencia Artificial (IA), se revisaron algunos marcos de referencia que concentran los principios éticos base de la IA. Entre estos principios, encontramos el término trustworthy AI, el cual establece que los sistemas de IA son confiables. Sin embargo, existe un debate profundo sobre si estas herramientas realmente son de confianza.

Recientemente salieron a relucir experimentos en donde se sometió a la IA a escenarios extremos, en ambientes controlados. En dichas instancias los sistemas de IA trataron no solo de descargarse, sino que chantajearon, mintieron y amenazaron a sus creadores. Ejemplos de esto son el Claude 4 de Anthropic, en donde el sistema chantajeó a un ingeniero para evitar ser apagado, mientras que el modelo o1 de OpenAI trató de descargarse en servidores externos, mintiendo para no ser descubierto.

Por tanto, hay una creciente preocupación de que estos sistemas no solo alucinen o tengan errores, sino que puedan engañar o simular un alineamiento (fingir cumplir y acatar con las instrucciones de su programador) para buscar otros fines.

La ética de la IA

La ética es un tema crucial dentro de la IA (aunque se hable poco o nada del tema), ya que gracias a esta los sistemas de inteligencia artificial rigen su comportamiento en términos de valores humanos, garantizando no solo un óptimo desarrollo, sino que también tenga un uso favorable, sin maleficencia para la sociedad.

Por esta razón, cuando se habla de marcos de referencia éticos de la IA, se refiere a ese conjunto de reglas que rigen a un sistema de IA, los cuales engloban valores, principios y técnicas que guían la conducta moral en el desarrollo, implementación, uso y venta de esta.

Cambios de la ética de la IA a través del tiempo

De acuerdo con Hagendorff (2024), la ética de la IA se ha estado transformando conforme los avances tecnológicos se hacen más evidentes; pasando de ser solamente una disciplina rigurosa y reactiva a un campo más proactivo. Ahora no solo debía erigir normatividades para gestionar la IA, sino que debía explicar en qué consistía y cómo sería la aplicabilidad de esos principios a la realidad, lo cual dio paso a la creación de la ética de la virtud de la IA (AI specific virtue ethics), la cual se refiere a la implementación de cualidades virtuosas (en vez de solo reglas o consecuencias) en los sistemas de IA y en las personas que están a cargo de su desarrollo, implementación o uso.

Posteriormente, la ética de la IA tuvo una aplicación más jurídica, con la creación de actas o leyes para gestionar las implicaciones éticas de estos sistemas. Por consiguiente, la ética de la IA se diversificó para poder abordan cuestiones técnicas y teóricas, gracias a estos dos campos:

  • Alineación de la IA (AI alignment): que la IA se comporte como se espera, en concordancia con los valores y objetivos humanos, con el fin de asegurar fiabilidad, seguridad y utilidad.
  • Seguridad de la IA (AI safety): garantizar que la IA sea diseñada y utilizada para fines benéficos, minimizando riesgos o daños.

Ahora bien, revisemos el marco ético, relativo a la confianza en los sistemas de IA, para comprender mejor este concepto.

IA confiable (Trustworthy AI)

La IA fiable o IA confiable (trustworthy AI TAI) es un término que se refiere a un marco de referencia ético de la IA, que hace alusión a la confianza en los sistemas de IA. Según el reporte de la Comisión Europea Ethics Guidelines for Trustworthy AI, este concepto tiene tres componentes:

En este sentido, la IA debe ser:

  • Legal: debe acatar las leyes y regulaciones.
  • Ética: debe asegurar la adherencia a los principios éticos y los valores.
  • Robusta: desde una perspectiva técnica (funciona correctamente incluso en condiciones adversas; es estable y mantiene rendimiento) y social (considera el contexto humano para minimizar daños no intencionales).

Además, la Comisión Europea declara que este concepto es clave para habilitar la competencia responsable, ya que gracias a este marco de referencia (trustworthy AI) se cimenta una base responsable para que las personas puedan confiar que el diseño, desarrollo y uso de la IA sea legal, ético y robusto, fomentando la innovación sostenible, con el fin de beneficiar y proteger el florecimiento humano y el bien común de la sociedad.

Adicionalmente, la IA confiable se basa en cuatro principios éticos siete requisitos clave, los cuales se muestran en el siguiente gráfico:

Sus cuatro principios éticos son: respeto por la autonomía humana, prevención de daños, justicia y explicabilidad. Mientras que sus siete requisitos clave (que deben cumplirse) son necesarios para garantizar un desarrollo, implementación y uso exitoso de los sistemas de IA: agencia humana y supervisión, solidez técnica y seguridad, privacidad y gobernanza de los datos, transparencia, diversidad, no discriminación y equidad, bienestar ambiental y social, y responsabilidad.

Desconfianza, ethics washing y factores de riesgo

Para empezar a debatir sobre este dilema, es necesario tomar en cuenta lo sucedido en el primer episodio del podcast de OpenAI, donde el CEO y co-fundador de esta misma compañía, Sam Altman, saltó a la discusión sobre la confianza en estos sistemas:

«Las personas tienen un grado de confianza muy alto en ChatGPT, lo cual es interesante porque la IA alucina. Debería ser la tecnología en la que no se confía tanto. Las personas están teniendo conversaciones muy privadas con Chat GPT. Chat GPT se convertirá en una fuente de información sensible, por lo que pienso que se necesita un marco de referencia que refleje esta realidad», mencionó Altman.

Autores como Stamboliev y Christiaens (2025) también han mencionado que los principios éticos sobre la regulación ética de la IA se formulan como declaraciones no vinculantes, es decir, aquellos contratos que no generan obligaciones legales o cuando se realizan negociaciones iniciales, en donde ambas partes expresan una intención de colaborar, pero sin estar legalmente obligados a su cumplimiento. De acuerdo con estos autores, esto se vincula con el fenómeno de ethics washing: donde la industria de la IA adquiere certificaciones éticas a conveniencia, sin ganar esa aprobación mediante prácticas empresariales responsables.

En sectores como la medicina, finanzas, educación, etc., también tienen sus consideraciones a la hora de confiar en sistemas de IA. Por ejemplo, en el campo de la medicina, estudios demuestran que existe un nivel considerable de desconfianza en los sistemas de diagnósticos basados en IA, puesto que las personas prefieren la perspectiva holística de un médico humano y no una app. Otro ejemplo notable de la falta de confianza en estos sistemas es en el sector de finanzas, puesto que muchos inversores prefieren la predicción humana a un algoritmo, a lo cual se le denomina aversión algorítmica, ya que prefieren las decisiones humanas (aunque el algoritmo haya probado ser más preciso y con menos errores).

Otro caso reciente que puede generar desconfianza en el uso de la IA, relativo a la seguridad y privacidad, fue lo acontecido con el secretario de Estado de los EE. UU., Marco Rubio, en donde un impostor utilizó IA para hacerse pasar por el secretario (utilizando suplantación de voz y un estilo de escritura similar), con el fin de adquirir información sensible.

A saber, existen muchos factores por los cuales existe un grado de desconfianza en los sistemas de IA. Afroogh et al. (2024), en su artículo Trust in AI: progress, chanlleges, and future directions, contemplan los siguientes:

Es necesario destacar que estas no son las únicas preocupaciones de los expertos, ya que también existe una creciente inquietud por la Inteligencia Artificial General (AGI). La AGI podría poseer una inteligencia plástica amplia y poderosa, por lo que no solo estarían centradas en tareas específicas (como la IA generativa que es task-oriented). Estas inquietudes, en parte, son porque una AGI podría procesar información más rápido que los humanos, teniendo acceso a todo el conocimiento disponible en internet, superando así a los creadores humanos.

Otra preocupación es que estos sistemas podrían tener un problema de alineación, es decir, que los intereses y valores de una AGI podrían no alinearse con los de la humanidad (como los ejemplos mostrados anteriormente de Claude 4 y el modelo o1 de OpenAI). Por esta razón, estrategias como el AI boxing (AI containmentson puestas sobre la mesa para contener posibles IA avanzadas o superinteligencias para reducir sus posibles peligros, por ejemplo, que tome decisiones riesgosas, que encuentre formas de salir de un entorno restringido o que sea capaz de manipular o engañar a los humanos.

Confianza en la IA en el contexto educativo

En este sentido, las preocupaciones éticas más relevantes, que generan desconfianza en el uso de la IA en la educación son las siguientes: los sesgos, la integridad académica y el potencial impacto de la IA en la investigación sobre la educación y la práctica docente. Casos específicos de falta de confianza en estos sistemas son las alucinaciones de la IA, ya que recientemente la IA generativa en la educación ayuda a la creación de contenido académico (artículos, planes clase, presentaciones, cursos, etc.), por lo que se debe tener precaución y revisar que la información sea verídica y de fuentes confiables.

A su vez, estudios revelaron que a las madres y padres les preocupa que los sistemas de IA provoquen que los estudiantes dependan excesivamente de la tecnología, reduciendo su capacidad de pensamiento crítico e independiente, lo cual se puede relacionar con la más reciente investigación del MIT sobre la deuda cognitiva (menos actividad neuronal y un cerebro menos activo) que causa el uso de los LLM (como ChatGPT) en el cerebro de las personas.

Entonces, ¿se debe o no confiar en la IA?

La IA promete una vida mejor, no obstante, muchas de las veces esto significa compartir información sensible, perder habilidad cognitiva, etc., con el fin de ahorrar tiempo, automatizar procesos y evitar tareas tediosas. Hasta cierto punto es normal desconfiar de los sistemas de IA cuando existe una noción de cómo y quiénes controlan estos sistemas, ya que en la mayoría de los casos el cumplimiento de las normativas éticas recae en los creadores y desarrolladores de los sistemas de IA, y no en el usuario final.

Sin embargo, el usuario final también tiene la responsabilidad de conocer el producto que utiliza y las repercusiones que este puede tener (dependiendo de uso), aunque no en la misma forma ni proporción que los titanes de manejan la industria de la IA. Por esa razón, es importante la normatividad y la regulación de los sistemas de IA, con el fin de que su desarrollo e implementación se apegue lo más posible con uso ético, justo y benevolente para fomentar la innovación y uso responsable.

Ciertamente, hay muchas inquietudes respecto al futuro de los sistemas de IA. Si queremos confiar o no en estos sistemas dependerá de lo que queramos perder o ganar en el proceso.

Tomado de EDUNEWS del Tec de Monterrey