jueves, 5 de marzo de 2026

¿La generación Z es realmente “menos inteligente”?

 Por Paulette Delgado de EDUNEWS del Tec de Monterrey

En las últimas semanas, ha circulado en artículos redes sociales el debate sobre si la generación Z sería la primera en más de un siglo en obtener peores resultados cognitivos que la anterior. La afirmación proviene del neurocientífico Jared Cooney Horvath, quien ha señalado que jóvenes nacidos entre 1997 y 2010 muestran descensos en atención, memoria, lectoescritura, aritmética, función ejecutiva e incluso en el coeficiente intelectual general en comparación con generaciones previas.

La frase es llamativa, pero también problemática. Antes de aceptar que estamos ante una generación “menos inteligente”, conviene revisar qué se está midiendo, cómo se mide y qué sabemos históricamente sobre la evolución de la inteligencia.

El debate surgió tras una audiencia ante el Comité de Comercio, Ciencia y Transporte del Senado de Estados Unidos, en la que Horvath sostuvo que, por primera vez en más de un siglo, los puntajes en pruebas estandarizadas de habilidades cognitivas parecen haber disminuido en lugar de aumentar. Aunque los datos completos aún no han sido publicados en una revista revisada por pares, el argumento central es claro: estaríamos ante un quiebre en la tendencia histórica.

Esto contrasta con el patrón observado durante gran parte del siglo XX, cuando las escalas de inteligencia y de rendimiento académico mostraron aumentos sostenidos generación tras generación, fenómeno conocido como el Efecto Flynn. ¿Pero qué están midiendo exactamente estos datos?

Los hallazgos se basan en puntuaciones de pruebas académicas y cognitivas que evalúan habilidades como atención sostenida, memoria de trabajo, comprensión lectora, razonamiento lógico, habilidades numéricas y funciones ejecutivas básicas. Estas capacidades son fundamentales, correlacionándose con el éxito escolar y ciertos desempeños laborales. Sin embargo, no capturan la totalidad de las habilidades humanas.

La inteligencia es un constructo multifacético que incluye creatividad, adaptación contextual, habilidades sociales, capacidad de innovación y resolución de problemas reales, dimensiones que no siempre se reflejan directamente en estas pruebas.

Una de las explicaciones propuestas apunta al uso generalizado de la tecnología digital. Según esta hipótesis, la generación Z ha pasado más tiempo frente a pantallas que cualquier generación anterior, tanto en contextos educativos como recreativos, lo que habría transformado la manera en que procesa la información.

Los dispositivos digitales suelen sustituir libros extensos por lecturas fragmentadas y contenidos breves. Las redes sociales y los videos cortos ofrecen recompensas inmediatas que compiten con tareas cognitivamente exigentes. Además, la educación mediada por la tecnología ha modificado las dinámicas tradicionales de aprendizaje.

Coloquialmente, algunos llaman brain rot a la sensación de que la exposición constante a estímulos digitales fragmenta la atención y reduce la profundidad de procesamiento. Sin embargo, correlación no implica causalidad. La relación entre pantalla y cognición es compleja y multifactorial. La digitalización es solo una pieza en un contexto que incluye transformaciones sociales, económicas, pedagógicas y culturales más amplias.

También influyen los efectos de la pandemia, la escolarización remota prolongada, las desigualdades educativas y los cambios en las metodologías de evaluación. Centrar todo el debate en la tecnología simplifica un fenómeno estructural.

Calificar a toda una generación como “menos inteligente” sin contextualización científica alimenta estigmas y polariza el diálogo. Más allá del titular, la discusión ha puesto en el centro temas urgentes: la relación entre tecnología y mente, la calidad del aprendizaje y la manera en que medimos el desarrollo humano.

Lo que está en juego no es si esta generación es “menos inteligente”, sino nuestra capacidad para adaptarnos a un entorno informativo radicalmente nuevo sin perder de vista lo esencial de la educación: profundidad, curiosidad y pensamiento crítico.

El Efecto Flynn

Durante gran parte del siglo XX ocurrió un fenómeno sorprendente: las puntuaciones promedio en pruebas de coeficiente intelectual (CI) aumentaron de forma sostenida generación tras generación. Este fenómeno fue documentado por el investigador neozelandés James R. Flynn y desde entonces se conoce como el Efecto Flynn.

Entre 1930 y finales de los años setenta, los puntajes crecieron aproximadamente tres puntos por década en varios países industrializados. Esto obligaba a reestandarizar las pruebas periódicamente para que el promedio regresara a 100. En otras palabras, una persona promedio de 1980 habría obtenido una puntuación significativamente mayor en un test diseñado en 1930.

Este aumento no se debió a una evolución genética acelerada, sino a factores ambientales: mejor nutrición y salud infantil, mayor escolarización, entornos urbanos más complejos y mayor exposición al razonamiento abstracto. Los incrementos fueron más notorios en pruebas de inteligencia fluida, como el razonamiento abstracto, que en inteligencia cristalizada, vinculada a conocimientos adquiridos.

El Efecto Flynn demostró que las puntuaciones de CI son sensibles al entorno cultural y educativo. La inteligencia medida no es fija ni inmutable, sino que interactúa con el contexto. Aquí el debate actual cobra relevancia.

En varios países desarrollados, como Noruega, Dinamarca y Reino Unido, investigaciones han documentado que el aumento sostenido del CI parece haberse estancado o incluso revertido en las últimas décadas. Este fenómeno, conocido como “Efecto Flynn negativo” o “reverse Flynn effect”, no implica una caída dramática del potencial humano, sino un cambio en la tendencia histórica.

Si durante décadas cada generación superó a la anterior en pruebas estandarizadas, hoy esa curva parece haberse estabilizado o descender ligeramente en ciertos contextos. Entre las posibles explicaciones se encuentran transformaciones en sistemas educativos, cambios en hábitos de lectura y modificaciones en los estilos cognitivos predominantes.

La afirmación de que la generación Z muestra puntajes más bajos se inserta, entonces, en una discusión más amplia: ¿estamos observando el fin del impulso ambiental que alimentó el Efecto Flynn?

Pantallas y atención: la hipótesis de la fricción cognitiva

Horvath y otros investigadores señalan la exposición constante a pantallas como factor decisivo para el menor puntaje cognitivo. La generación Z es la primera en crecer con internet móvil, redes sociales y algoritmos diseñados para maximizar la atención. En muchos casos, una parte significativa del tiempo despierto transcurre frente a dispositivos digitales.

Desde esta perspectiva, el aprendizaje profundo requiere fricción cognitiva: enfrentarse a textos largos, sostener la atención en tareas complejas y tolerar la confusión inicial antes de comprender. Cuando el entorno privilegia la velocidad y la inmediatez, el cerebro se adapta a esa dinámica. La cuestión no es que los jóvenes sean incapaces de pensar profundamente, sino que el ecosistema digital puede estar reforzando otras habilidades: escaneo rápido, multitarea y respuesta inmediata.

Aquí el Efecto Flynn ofrece una lección clave. Si durante décadas el aumento del CI estuvo ligado a cambios culturales y educativos, también es plausible que las transformaciones digitales estén modificando el tipo de habilidades que se desarrollan con mayor intensidad.

Las pruebas estandarizadas valoran la memoria de trabajo, la atención sostenida, el razonamiento secuencial y la comprensión lectora profunda. El entorno digital, en cambio, fomenta la navegación entre múltiples fuentes, el reconocimiento rápido de patrones y la adaptabilidad informativa. La pregunta central no es si las nuevas generaciones son “más tontas”, sino si estamos evaluando con instrumentos diseñados para un mundo previo a la hiperconectividad.

Cada generación ha sido criticada por la anterior. La televisión, los videojuegos e internet fueron acusados de arruinar la mente juvenil. La diferencia actual radica en la escala y la sofisticación tecnológica: los algoritmos optimizan la retención de la atención y compiten directamente con la lectura profunda. Sin embargo, etiquetar a una generación como “menos inteligente” simplifica en exceso un fenómeno complejo. Las capacidades cognitivas no dependen únicamente del año de nacimiento.

Más que un declive definitivo, podríamos estar ante una transición. El desafío para la educación no es regresar nostálgicamente al pasado analógico, sino encontrar un equilibrio entre tecnología y profundidad, velocidad y reflexión, conectividad y concentración.

Si algo revela esta discusión, no es que una generación esté perdida, sino que la inteligencia depende del ecosistema en el que se cultiva. Y cuando el entorno cambia radicalmente, también lo hacen las métricas.

Si observamos estancamientos o descensos en ciertos indicadores, la respuesta no es el alarmismo, sino el análisis crítico: ¿Qué habilidades queremos fomentar? ¿Qué tipo de atención estamos cultivando? ¿Estamos diseñando sistemas educativos que equilibren lo digital con la profundidad?

La inteligencia humana no se evapora de una generación a otra, se adapta.

Tomado de EDUNEWS 

miércoles, 4 de marzo de 2026

Aprender IA sin volver al inicio: la carrera sin meta

 Por Carlos Bravo Reyes y Mercedes Leticia Sánchez Ambriz

 

En colaboración con Mercedes Leticia Sánchez Ambriz

No dejes de escuchar el podcast en este enlace

Recientemente conversaba con un colega de trabajo y me explicaba que con la IA vuela en su actividad docente, pero que siempre siente que se queda atrás con las herramientas de IA que conoce. Es una sensación persistente: con la inteligencia artificial no se llega a un final. Se aprende una herramienta y aparece otra que la desplaza, o la misma plataforma cambia y obliga a reaprender. Esa experiencia suele expresarse como un problema de falta de tiempo, de disciplina o de actualización insuficiente.

Pero este problema humano, tiene una interpretación pedagógica muy diferente: el objeto de aprendizaje se mueve con más rapidez que los ciclos formativos. Si los contenidos se construyen alrededor del funcionamiento de una herramienta, el curso queda atado a un objetivo inestable. El efecto es predecible: frustración, dispersión, dependencia de tutoriales y una idea equivocada de competencia digital, entendida como dominio de la herramienta. En este caso, el medio se convierte en el centro del proceso, quitando su lugar al aprendizaje del estudiante.

Una sugerencia

El punto de partida es distinguir dos formas de organizar este proceso. Una forma consiste en dominar procedimientos propios de un producto, menús, opciones, plantillas, atajos y formatos. Esa ruta produce resultados rápidos, pero caduca en cuanto cambia el producto. Otra forma consiste en construir capacidades que se transfieren entre herramientas: formular problemas, dialogar con los algoritmos, verificar, justificar, documentar, tomar decisiones con responsabilidad. En esta segunda ruta, la herramienta es un medio. La competencia se conserva, aunque la plataforma cambie.

Esta distinción reordena la enseñanza universitaria. Si el currículo evalúa la herramienta, cualquier actualización provoca la sensación de reinicio. Si el currículo evalúa el desempeño intelectual mediado por IA, el cambio tecnológico deja de ser un obstáculo y se vuelve un cambio de entorno de trabajo. En términos didácticos, el problema no es la innovación, es haber puesto la meta en un objeto móvil.

Para que esta idea no se quede en lo declarativo, conviene traducirla a principios de formación que permanezcan estables y puedan aplicarse con cualquier herramienta. Un criterio es la formulación del problema académico: qué se quiere lograr, con qué condiciones, qué evidencia será aceptable, qué limitaciones existen. Otro es la construcción de instrucciones y diálogo con la IA: pedir alternativas, delimitar supuestos, solicitar contraejemplos, exigir que la respuesta se ajuste a un formato evaluable. A los anteriores se suma la verificación: contrastar con fuentes, revisar coherencia interna, detectar afirmaciones sin respaldo, corregir errores conceptuales y de citación. La trazabilidad: dejar registro de qué aportó la IA, qué cambió el estudiante, y por qué lo cambió es otro criterio que podemos aplicar en clases. Otro criterio es el uso ético: no delegar el juicio académico, no ocultar la mediación de la herramienta, cuidar datos y evitar atajos que terminen en plagio o en trabajo sin comprensión.

En un trabajo anterior denominado “El Viejo y el mar como simulador de toma de decisiones con inteligencia artificial en educación superior”, que puede leer desde aquí comentamos como a partir del análisis de una obra literaria o científica podemos emplear la IA siguiendo un grupo de reglas que culminan con un registro de evidencias que el estudiante debe presentar. Sí seguimos este camino es el estudiante el responsable de desafiar la IA y no al revés, como suele suceder.

Cuando las ideas anteriores se convierten en el centro del curso, aparece una consecuencia directa: el programa deja de quebrarse cuando cambia la herramienta. En lugar de enseñar una aplicación como contenido principal, se enseña una práctica académica con mediación de IA. La herramienta se trabaja como ejemplo y se puede sustituir sin reescribir el diseño didáctico.

Un ejemplo en Ciencias de la Educación lo muestra con claridad. En una asignatura que imparto, los estudiantes deben crear el sistema de evaluación de una asignatura. Hasta aquí parece sencilla la tarea, pero no es así. Ellos tienen que empezar por crear una institución escolar, diseñar su estructura, seleccionar las facultades, carreras y en una de ellas describir todas las asignaturas. Al principio se copian todo de la IA, pero en la medida en que van presentando públicamente sus resultados, deben volver al inicio para rediseñar todo con su propio criterio. Con un enfoque centrado en herramienta, el estudiante aprende a trabajar con la herramienta, pero no aprende a crear el sistema de evaluación exigido.

Por el contrario, al enfocarnos en las competencias, el estudiante debe definir el desempeño, justificar los criterios, construir niveles, proponer evidencias, anticipar errores, y utilizar la IA para revisar consistencia, sugerir redacción, proponer variantes y detectar ambigüedades. La evidencia evaluable no es la habilidad de navegar la interfaz, es la calidad del instrumento y la solidez de las decisiones que lo sustentan. Si mañana cambian las plataformas, la tarea sigue siendo la misma, y el aprendizaje también.

Este modo de diseñar reduce un riesgo frecuente en la formación con IA: la fatiga por actualización permanente y la sobreexposición a novedades. Al poner el énfasis en criterios pedagógicos, el estudiante aprende a decidir cuándo un cambio tecnológico requiere reentrenamiento y cuándo solo exige adaptación menor. Aprende a sostener un criterio de calidad por encima del entusiasmo por lo nuevo. En educación superior, esa estabilidad es pedagógicamente deseable: permite profundidad, continuidad de desempeño y evaluación más justa.

A manera de conclusión.

La sensación de no ver el final con la IA suele aparecer cuando se confunde el objetivo con el dominio de un producto. Si la meta es aprender herramientas, siempre habrá reinicio porque el ecosistema cambia sin pausa. Si la meta es construir capacidades transferibles, el cambio tecnológico deja de invalidar el aprendizaje. La docencia universitaria gana consistencia cuando evalúa desempeño intelectual mediado por IA: formular problemas, dialogar con criterio, verificar, justificar, documentar y actuar con responsabilidad. El final no es dominar una IA. El final es sostener un trabajo académico riguroso, aunque la herramienta cambie.

 Tomado de 366 días

martes, 3 de marzo de 2026

El uso y la percepción de la inteligencia artificial entre los adolescentes

 Tomado de Universo Abierto.

Pew Research Center (24 de febrero de 2026). How Teens Use and View AI. Pew Research, 2026

Texto completo

El informe del Pew Research Center revela una integración significativa de los chatbots de inteligencia artificial en la vida cotidiana de los adolescentes estadounidenses de 13 a 17 años. Actualmente, el 64% de los jóvenes reporta haber utilizado estas herramientas, una cifra que supera notablemente la percepción de sus padres, quienes creen que solo el 51% de sus hijos las emplea.

Entre las actividades más comunes se encuentra la búsqueda de información (57%), el apoyo en tareas escolares (54%) y el entretenimiento o diversión (47%). La mayoría de los adolescentes considera que la IA es una herramienta valiosa para el aprendizaje; aproximadamente la mitad de los usuarios afirma que los chatbots les han ayudado de manera significativa a completar sus deberes, mientras que solo una mínima fracción del 3% los considera inútiles. No obstante, existe una dependencia variable: mientras el 10% confía en la IA para la mayor parte de su trabajo escolar, un 45% aún no ha recurrido a ella con fines académicos.

El estudio profundiza en las marcadas diferencias demográficas y de género respecto a la adopción y visión del futuro de esta tecnología. Los adolescentes varones tienden a mostrar un optimismo más elevado que las mujeres, tanto sobre el impacto de la IA en sus propias vidas (41% frente a 30%) como en la sociedad en general (35% frente a 27%). Asimismo, se observan variaciones en el uso según el origen étnico y el nivel de ingresos del hogar, lo que sugiere que factores socioeconómicos influyen en cómo se aprovechan estas herramientas para el aprendizaje o el acceso a noticias. En cuanto a las capacidades de la IA frente a los humanos, los jóvenes son mayoritariamente escépticos en áreas que requieren juicio humano complejo, como la contratación de personal, donde el 50% cree que la tecnología tendría un peor desempeño que una persona.

El informe analiza la perspectiva parental y el consenso sobre los límites éticos del uso de la IA. Existe una aceptación mayoritaria entre los padres para que sus hijos utilicen chatbots en búsquedas de información y tareas escolares (aprobado por cerca del 60%), pero el nivel de comodidad desciende drásticamente cuando se trata de interacciones más personales, como conversaciones casuales. A pesar de los beneficios en eficiencia que los adolescentes reconocen —similares a los que percibe el público adulto—, persiste una preocupación compartida sobre las consecuencias a largo plazo, incluyendo el temor a la pérdida de empleos en el futuro. Este panorama refleja una generación que abraza la IA como una herramienta de productividad esencial, pero que mantiene una cautela crítica sobre su capacidad para replicar la esencia del comportamiento y la toma de decisiones humanas.

Aspectos más destacados:

Uso generalizado: El 64% de los adolescentes estadounidenses de entre 13 y 17 años ha utilizado chatbots de IA en algún momento.

Brecha de percepción parental: Existe una desconexión entre padres e hijos; mientras que el 64% de los jóvenes afirma haber usado IA, solo el 51% de sus padres cree que sus hijos lo han hecho.

Propósitos principales del uso:

  • Búsqueda de información: 57% de los adolescentes.
  • Tareas escolares: 54% de los adolescentes.
  • Entretenimiento: 47% de los adolescentes.

Impacto en la educación:

  • Alrededor de la mitad de los usuarios de IA (un 52% de los adolescentes que han usado chatbots) considera que estas herramientas han sido «muy» o «algo» útiles para completar sus tareas escolares.
  • Un 10% de los adolescentes confía en la IA para realizar la mayor parte de su trabajo escolar.

Diferencias de género: Los chicos adolescentes muestran un mayor optimismo que las chicas. El 41% de los varones cree que la IA tendrá un impacto positivo en su vida personal, frente al 30% de las mujeres.

Opinión sobre las capacidades de la IA: El 50% de los adolescentes considera que la IA haría un peor trabajo que los humanos en tareas que requieren juicio, como la contratación de empleados.

Postura de los padres: La mayoría de los padres se siente cómoda con que sus hijos usen IA para aprender cosas nuevas o para labores académicas, pero la aprobación disminuye significativamente cuando se trata de usar la tecnología para interacciones personales o casuales.

Tomado de Universo Abierto

lunes, 2 de marzo de 2026

La prohibición de redes sociales a menores: ¿arregla el problema?

 Por Ángel Fidalgo

Foto by A. Fidalgo

Había un tramo de autovía que presentaba bastantes anomalías: baches y pequeños desniveles aparecían constantemente durante unos 7 u 8 kilómetros. El gobierno de turno solucionó el problema limitando la velocidad en ese tramo, de 120 km/h a 100 km/h.

¿Se solucionó el problema?

Para el gobierno sí. Fue una solución rápida, sencilla y barata. Pero además generaba recursos económicos, ya que si ibas a 120 km/h te multaban.

Para el usuario no solo no se arregló el problema, sino que se empeoró: las anomalías de la carretera seguían presentes, era igual de molesto circular a 100 que a 120 km/h, además perdías tiempo al tener que reducir la velocidad y, si se te pasaba, te ponían una multa. Es decir, el problema seguía igual, pero ahora, además, pagabas dinero a quien no había arreglado la carretera.

Ahora imagínese, lo digo porque esto que voy a contar es solo una licencia literaria, que el gobierno saca una norma y dice que, como el tramo es peligroso, no dejará circular a las personas que tengan menos de tres años de carné de conducir.

Esto generaría más problemas: colas interminables para verificar carnés, controles adicionales, retrasos… y, mientras tanto, la carretera seguiría igual de peligrosa.

Pues bien, ahora vamos a hablar de la propuesta de prohibir el uso de redes sociales y determinadas plataformas a menores de 16 años.

Es evidente que las redes sociales pueden utilizarse para hacer cosas malas, por ejemplo acoso o ciberacoso, pero también para muchas cosas buenas. Entonces… ¿la solución es prohibirlas?

Desde luego sería la opción más rápida, barata y sencilla, al menos para los adultos y los políticos. Pero hay otra opción: arreglar los baches.

¿Y cómo podemos arreglarlos? No tengo la solución completa, pero sí sé un par de cosas que ayudarían.

El acoso.
Si decimos que las redes sociales pueden utilizarse para el acoso, conviene hacer una pregunta incómoda: ¿quién utiliza hoy las redes para desacreditar, ridiculizar o denigrar al adversario?

Los adultos lo hacen. Y no digamos en política. Hay representantes públicos que utilizan las redes para descalificar, simplificar de forma interesada o alimentar la polarización.

Si queremos que los menores aprendan a utilizar las redes de forma responsable, quizá quienes han sido elegidos para representarnos podrían empezar por predicar con el ejemplo. Porque educar también es mostrar cómo se hace.

Prohibir a los adolescentes el acceso no corrige el modelo que están observando. Simplemente los aparta temporalmente del escenario.

El pensamiento crítico.
El verdadero problema no es que exista Internet. El verdadero problema es cómo se usa.

Si formamos a nuestro alumnado en pensamiento crítico, si les enseñamos a analizar la información, a detectar manipulaciones, a distinguir hechos de opiniones, a reconocer una patraña, estaremos construyendo ciudadanos capaces de utilizar las redes de forma positiva.

Prohibir no desarrolla criterio. Educar sí.

Podemos elegir la solución rápida y barata: limitar, restringir, prohibir.

O podemos asumir la solución compleja y exigente: arreglar la carretera, dar ejemplo desde las instituciones, formar en pensamiento crítico y enseñar a debatir sin destruir.

La opción de prohibir ofrece titulares, debates inmediatos y cuesta poco. La opción de arreglar construye sociedad pero requiere esfuerzo, coherencia, tiempo y educación.

“Bajar la velocidad nunca arregló un bache.”

Tomado de Investigación e investigación educativa

viernes, 27 de febrero de 2026

Cuatro futuros del trabajo con IA hacia 2030 y lo que la universidad debe decidir ahora

 Por Carlos Bravo Reyes y Mercedes Leticia Sánchez Ambriz


No te pierdas el podcast con un resumen del informe del WEF

En DAVOS se celebró el Foro Económico Mundial, donde el debate sobre la IA ocupó gran parte de las sesiones y de los informes. En el artículo anterior: De la discusión a la aplicación de la IA se hizo referencia a cómo la IA pasó de ser una novedad, a generar un impacto tangible. El debate sobre inteligencia artificial en educación suele quedarse en herramientas, tutoriales y promesas de productividad. El problema es que el empleo real de la IA se está moviendo a nivel de flujos de trabajo, modelos de negocio y cadenas de valor. Esa escala cambia la conversación educativa: ya no basta con enseñar a usar aplicaciones, hay que preparar a los estudiantes para desempeñarse en contextos laborales que pueden evolucionar en direcciones muy distintas.

Un insumo útil para pensar esto con rigor es el documento del World Economic Forum Four Futures for Jobs in the New Economy: AI and Talent in 2030 (enero de 2026). Plantea cuatro escenarios construidos con dos variables: el ritmo de avance de la IA (exponencial o incremental) y la preparación del talento (alta o limitada). El valor del enfoque no está en “adivinar” el futuro, sino en diseñar decisiones educativas que sean robustas ante más de un futuro posible.

Cuatro futuros para el trabajo y lo que revelan sobre la educación

El documento parte de un dato que ya debería incomodar a cualquier universidad: en la opinión de ejecutivos encuestados por el WEF, 54 % espera que la IA desplace empleos existentes y un 24 % cree que creará nuevos empleos; además, un 44,6 % anticipa aumento de márgenes, pero solo un 12 % espera mejoras salariales. Esa combinación sugiere que la discusión sobre “empleabilidad” no puede ser ingenua: puede haber productividad sin bienestar distribuido.

El WEF describe cuatro escenarios.

Supercharged Progress. Avances exponenciales con alta preparación del talento. Se masifican agentes y flujos de trabajo de alta autonomía. El trabajo humano migra desde ejecutar tareas hacia diseñar, supervisar y orquestar ecosistemas habilitados por IA. Aparecen ocupaciones nuevas con rapidez, pero los marcos éticos y de gobernanza quedan tensionados por la velocidad del cambio.

The Age of Displacement. Avances exponenciales con baja preparación del talento. La automatización se vuelve más barata que la formación masiva, y el desplazamiento supera la capacidad de reconversión. La economía acelera tecnológicamente, pero se fractura socialmente: desempleo, caída de confianza, presión fiscal y expansión de desinformación y manipulación.

Co Pilot Economy. Avances graduales con alta preparación del talento. Se consolida la lógica de aumento, con equipos humanos IA, rediseño incremental de tareas y foco en integración pragmática. La clave aquí es que la productividad mejora sin un shock de automatización masiva, pero el riesgo es la dependencia sistémica y la erosión del juicio humano si no se define qué queda bajo control humano.

Stalled Progress. Avances graduales con baja preparación del talento. La IA progresa, sin embargo con limitaciones, costos y adopción desigual. Las organizaciones automatizan para “rellenar” escasez de talento; se ensanchan brechas de competitividad y se estrechan rutas de entrada laboral, sobre todo en empleos tempranos y tareas administrativas.

Dos señales del informe conectan directamente con la universidad. La primera: el uso empresarial de IA en al menos una función pasó de un 55 % en 2022 a un 88 % en las estimaciones más recientes citadas por el WEF. La adopción ya no es marginal. La segunda: LinkedIn estima que la demanda de habilidades de alfabetización en IA creció un 70 % entre 2024 y 2025. Esto coloca presión inmediata sobre planes de estudio, prácticas docentes y evaluación.

Si se lee el informe desde la educación superior, aparece una idea central: el “objeto” de formación cambia. No es solo conocimiento disciplinar ni solo destrezas digitales. Es competencia para trabajar con sistemas de IA en tareas reales, con criterio, control de calidad, trazabilidad, ética y capacidad de aprendizaje continuo. Esto exige un giro metodológico: pasar de enseñar respuestas a enseñar preguntas, pruebas, contrastación y toma de decisiones.

¿Qué puede hacer la universidad desde hoy?

El WEF propone estrategias empresariales “no regret”, útiles porque funcionan en los cuatro escenarios: experimentar en pequeño y escalar lo que funciona; alinear tecnología y talento; invertir en colaboración humano IA y flujos agentivos; fortalecer gobernanza y datos; anticipar necesidades de talento; construir cultura y confianza; diseñar flujos multigeneracionales; apoyarse en alianzas. Traducidas a educación superior, estas estrategias se convierten en decisiones curriculares, didácticas y evaluativas.

Una ruta universitaria robusta puede organizarse en cinco decisiones concretas.

La primera es definir alfabetización en IA como competencia verificable, no como charla. El informe reconoce que no existe una medida global estandarizada de “AI literacy”, lo cual abre un campo de trabajo para docentes: operacionalizarla en desempeños observables. En este contexto, puede expresarse como capacidad de formular prompts con intención cognitiva clara, verificar con fuentes, detectar alucinaciones, documentar el proceso y justificar decisiones.

La segunda es rediseñar tareas académicas para que obliguen a pensar, no a copiar. El riesgo educativo más visible hoy es la aitoxicación: exposición acrítica que produce dependencia y empobrecimiento del juicio. La respuesta no es prohibición general, sino diseño didáctico que exija evidencia del proceso. Por ejemplo, pedir bitácoras de interacción, contrastación con lecturas, comparación de alternativas, y explicación de por qué se eligió una salida y se rechazó otra.

La tercera es mover la evaluación hacia desempeño con criterios de calidad. Si el trabajo se desplaza desde ejecutar a supervisar ecosistemas con IA, entonces evaluar debe incluir: calidad de la pregunta, calidad de la verificación, consistencia argumental, ética de uso, y metacognición. Bloom aquí es útil como andamiaje: usar la IA para recordar y comprender puede ser el inicio, pero la evidencia evaluativa debe ubicarse en analizar, evaluar y crear. Esto reduce el incentivo de “copiar y pegar” y aumenta el valor del pensamiento crítico.

La cuarta es introducir colaboración humano IA como práctica cultural, no como truco. El informe insiste en que el futuro no lo define la tecnología sola, sino la estrategia de capital humano. En aula, esto se traduce en enseñar roles: quién formula, quién valida, quién audita sesgos, quién redacta, quién edita, quién cita. La IA entra como copiloto o como agente bajo supervisión, pero siempre con dueño humano responsable.

La quinta es construir alianzas y curación de contenidos como infraestructura académica. Si herramientas y modelos cambian, la universidad necesita curar: repositorios de prompts validados por asignatura, rúbricas comunes, protocolos de citación y transparencia, y bancos de casos locales. Esto convierte la innovación en sistema y no en improvisación.

A modo de conclusión.

Los cuatro escenarios del WEF no son un ejercicio futurista para entretenerse: son un mapa para evitar errores caros. El error uno es formar para un solo futuro. El error dos es confundir uso de herramientas con competencia profesional. La universidad que quiera sostener pertinencia hacia 2030 necesita decisiones que funcionen tanto si la IA acelera como si se estanca, tanto si el talento se adapta como si queda rezagado. Esa robustez se construye en el diseño de tareas, en la evaluación, en la cultura de verificación, y en la formación del juicio crítico.

Tomado de 366 días