miércoles, 18 de marzo de 2026

IA en educación superior y el mundo del trabajo

 Por Paola Dellepiana

El avance tecnológico, lejos de ser un fenómeno puramente técnico, representa un agente de profunda transformación socioeconómica y política que redefine las relaciones de poder, la estructura de la desigualdad y la naturaleza del trabajo. Desde este lugar, las oportunidades de empleo para los futuros graduados presentarán cambios significativos en su naturaleza y demanda. A nivel global, se proyecta una reconfiguración importante del mercado laboral en el corto y mediano plazo. 

El Informe sobre el Futuro del Empleo elaborado por el Foro Económico Mundial (2023) estima que cerca del 23% de los puestos de trabajo actuales cambiarán de aquí a 2027 debido a la adopción de nuevas tecnologías, incluida la IA​. Aunque la transformación tecnológica traerá oportunidades, también conllevará pérdidas de trabajos tradicionales, obligando a los graduados a competir en un entorno más volátil. Sectores como atención al cliente o periodismo, el reemplazo de la interacción humana por asistentes virtuales conlleva la pérdida de matices empáticos y responsabilidad humana en la comunicación.

Según el Foro Económico Mundial, 2024, para 2030 se proyecta la creación de 78 millones de nuevos empleos a nivel global, mientras se anticipa la desaparición de 92 millones de trabajos tradicionales​. Esta transición afectará de manera desigual a las economías, con los países desarrollados liderando la adopción de tecnologías y los países emergentes enfrentando mayores retos para adaptarse. Sin embargo, el mismo informe afirma que los seres humanos siguen superando a las máquinas en creatividad, colaboración, liderazgo y empatía, cualidades difíciles de replicar mediante IA.​  

En Argentina, la situación se percibe con mayor complejidad: el 42% de los trabajadores necesitará desarrollar nuevas habilidades en los próximos cinco años, una cifra superior a la media global. Esto incluye competencias en áreas tecnológicas como análisis de datos y aprendizaje automático, pero también habilidades transversales como la resiliencia y el aprendizaje continuo​.

En este contexto, los empleadores enfrentan desafíos como regulaciones desactualizadas y una cultura organizacional resistente al cambio, lo que suma complejidad a la situación. Según el informe del Observatorio de Innovación Educativa, la adopción efectiva de estas tecnologías requiere una inversión significativa en la formación de talento y en la creación de políticas públicas que promuevan la inclusión digital​. Se valoran cada vez más las habilidades para liderar equipos híbridos -humanos y algoritmos- y la gestión de procesos automatizados.


Fuente: imagen generada con Gemini

En cuanto a las áreas con mayor crecimiento previsto, se incluyen tanto sectores tecnológicos como sectores emergentes: se espera, por ejemplo, una alta demanda de especialistas en IA y aprendizaje automático, analistas de datos e inteligencia de negocios, especialistas en ciberseguridad; así como también, de expertos en sostenibilidad ambiental. ​Además de los campos estrictamente tecnológicos, la transición ecológica impulsa un nuevo escenario de oportunidades laborales, creando roles como especialistas en sostenibilidad y revitalizando sectores clave como la agricultura, la educación y la economía digital, los cuales están proyectados a registrar un aumento absoluto de empleos en los próximos años.

Adicionalmente, diversos estudios de prospectiva enfatizan que para 2025-2030 las empresas valorarán crecientemente habilidades como la creatividad, el pensamiento crítico y analítico, la resolución de problemas complejos, la comunicación efectiva, la resiliencia y la adaptabilidad.​ 

A estas habilidades se suma un conjunto de habilidades digitales, que implican el uso creativo, crítico y seguro de las tecnologías digitales para aprender, trabajar y participar como ciudadanos. En esta línea, Esteve, Castañeda y Adell (2018) proponen un modelo de competencia holístico que toma como aspectos claves para su construcción: la naturaleza de la competencia, de la tecnología y de la acción docente. Una competencia holística, situada, orientada hacia roles de desempeño, función y relación, sistémica, entrenable y constante desarrollo. En este sentido, si bien la demanda de habilidades técnicas relacionadas con IA, tales como programación, ciencia de datos o robótica aumentará, también lo hará la demanda de capacidades cognitivas y socioemocionales que permitan complementar a la tecnología. 

El libro Automatizados. Vida y trabajo en tiempos de inteligencia artificial propone varios interrogantes que son respondidos a lo largo de la obra. 

Sus autores, Eduardo Levy Yeyati y Darío Judzikn, nos proponen cuatro disparadores en clave de interrogantes

  • ¿Qué efecto tendrá la tecnología sobre la probabilidad de conseguir trabajos de calidad?

  • ¿Qué herramienta de distribución de ingresos reemplazará el trabajo cuando este escasee?

  • ¿Existe una trinchera del trabajo humano que sea inmune a la automatización?

  • ¿Qué haremos con las horas de ocio a medida que se vayan acumulando?

Para responder a estos desafíos, las universidades no solo deben actualizar planes de estudio o incorporar equipos de última generación, sino que deben forjar una cultura institucional de innovación y acompañamiento continuo. 

Las competencias blandas y la formación ética se perfilan como ejes diferenciadores en un entorno donde la automatización puede reemplazar muchas tareas técnicas. En este sentido, en la era de la IA, las habilidades más humanas cobrarán un valor diferencial en el mercado laboral.

La diferenciación institucional se construye mostrando capacidad de diálogo con el contexto global, sólido apoyo tecnológico e incentivos para la innovación y el emprendimiento. 

¿Cómo se logra entonces integrar un enfoque multidisciplinario en donde los educadores sean parte de los desarrollos de IA?  

Continuará.... 

martes, 17 de marzo de 2026

IA y Altas Capacidades: ¿aliada o ancla en el desarrollo del talento?

 Por Javier Tourón

En la era de la Inteligencia Artificial, la pregunta para los docentes, particularmente para los que atienden a alumnos con Altas Capacidades (AACC) ha cambiado. Ya no se trata de cuánta información podemos darles, sino de cómo enseñarles a procesar el océano de datos que tienen a un clic de distancia. ¿Es la IA una amenaza a nuestra autoridad como profesores o la herramienta que finalmente nos permitirá ser los mentores que nuestros alumnos necesitan?

1. El nuevo concepto de autoridad: criterio sobre datos

Muchos docentes sienten que la IA amenaza su rol como fuente de conocimiento. Sin embargo, la verdadera autoridad hoy nace de la humildad intelectual. Poseer datos ya no es un superpoder; el verdadero poder es el discernimiento. Siempre lo fue realmente.

Para un alumno con AACC, ver a un profesor que duda, que verifica una fuente o que admite no saber algo para investigarlo junto a él, es la lección de «pensamiento de alto nivel» más valiosa que existe. No perdemos autoridad al usar la IA; la transformamos en maestría de pensamiento.

2. Aprender a gestionar la incertidumbre: el profesor como «Pensador en Voz Alta»

Es natural sentir vértigo cuando un alumno brillante avanza más rápido que el currículo. Aquí, el docente debe pasar de «impartir» a «modelar».

  • Saber cosas: lo hace la IA.
  • Saber razonar sobre los hechos: lo hace el profesor.

Al convertirnos en «pensadores en voz alta», enseñamos al alumno a auditar a la máquina, a buscar sesgos y a no conformarse con la primera respuesta que podamos obtener. El aula deja de ser un lugar de respuestas cerradas para ser un laboratorio de aprendizaje profundo. Contrastar, verificar, triangular, analizar coherencias y discrepancias… Como dije tantas veces hoy ya no se trata de responder a la pregunta: ¿qué sabes?; más bien a esta otra: ¿qué sabes hacer con lo que sabes? Y eso no se hace con un consumo lineal y pasivo de información escrita, recibida por vía auditiva, visual, etc. Se hace como siempre: «ocupando el entendimiento con los conceptos, teniéndolos presentes en la conciencia».

3. El riesgo calculado: menos mecánica, más conexión

Delegar la parte mecánica del aprendizaje en la IA (búsqueda de datos, resúmenes básicos, ejercicios repetitivos) no es perder el control, es ganar tiempo. Ese tiempo liberado es el que permite al profesor centrarse en lo que la IA nunca podrá replicar: la conexión humana, la validación emocional y la guía ética. ¿Recordáis aquello que dije alguna vez de que la educación se resuelve en un encuentro entre personas, no entre personas y máquinas?

4. Estrategia práctica: el momento «sabías que…»

¿Cómo aplicar esto en un aula diversa sin morir en el intento? A modo de ejemplo, podríamos poner en marcha algo así como la Píldora de Investigación:

  1. La Misión (10 min): Mientras el grupo trabaja en la base, el alumno de AACC usa la IA para buscar una conexión sorprendente sobre el tema.
  2. El Filtro de Calidad: El profesor guía: «¿Por qué este dato es relevante? ¿Cómo sabemos que es cierto?»
  3. Compartir el Hallazgo: Al final, el alumno comparte un «Sabías que…». Esto integra su talento, enriquece a sus compañeros y posiciona al profesor como el mentor que valida y da sentido al descubrimiento.

5. Conclusión: de la herramienta al propósito

El verdadero desafío que enfrentamos no es decidir si la tecnología debe entrar o no en nuestras aulas; esa puerta ya está abierta. Sería como preguntarnos si debemos utilizar o no los teléfonos o la mensajería instantánea. La pregunta que todo educador debe hacerse hoy, a mi modesto entender, no es «IA ¿sí o no?», sino «IA ¿para qué?». Debemos utilizarla para liberar el potencial creativo, para fomentar la autonomía y el pensamiento crítico y para permitir que cada alumno, especialmente aquellos con Altas Capacidades, encuentren su propio camino hacia la excelencia. Te invito a que no seas un espectador de este cambio, sino un protagonista: experimenta, cuestiona y comparte tus hallazgos. El futuro de la educación no lo escribirá un algoritmo, sino los docentes que se atrevan a usarlo como puente hacia un aprendizaje más humano y profundo. ¿Y tú, para qué vas a usar la IA mañana en tu clase?

Tomado de Javier Tourón

lunes, 16 de marzo de 2026

Un nuevo problema pedagógico: La formación ética en inteligencia artificial

 Por Carlos Bravo Reyes y Mercedes Leticia Sánchez Ambriz 

No dejes de escuchar el podcast, con ejemplos que ilustran el artículo.

La expansión de la inteligencia artificial en la vida cotidiana está modificando la relación entre los estudiantes y el conocimiento. Muchas herramientas permiten producir textos, imágenes, videos, analizar grandes volúmenes de información, responder de manera detallada en muy corto tiempo. Este cambio plantea un desafío educativo que no es únicamente tecnológico. El problema central se sitúa en la dimensión ética, siendo una preocupación de muchas instituciones y organismos internacionales. Un ejemplo lo tenemos en un documento publicado el pasado año por la UNESCO.

Se trata del Marco de competencias para estudiantes en materia de IA. Una publicación que reconoce la necesidad de preparar a los estudiantes para ser ciudadanos responsables y creativos en la era de la IA. Su objetivo se centra en ayudar a los educadores con esta integración, para lo cual describe 12 competencias que atraviesan cuatro dimensiones: una forma de pensar centrada en el ser humano, la ética de la IA, las técnicas y aplicaciones de la IA y la IA para el diseño de sistemas de IA. Estas competencias se desarrollan en tres niveles de progresión: comprender, aplicar y crear.

El marco de competencias en inteligencia artificial para estudiantes plantea que el aprendizaje de la IA debe incluir la reflexión sobre derechos humanos, privacidad de los datos, equidad y responsabilidad humana. La tecnología no puede enseñarse como una herramienta neutral. Debe comprenderse dentro de sus consecuencias sociales y culturales.

La educación superior enfrenta entonces una pregunta pedagógica decisiva. No basta con enseñar a usar la inteligencia artificial. Es necesario formar estudiantes capaces de analizar críticamente sus efectos y de asumir responsabilidad en su uso.

El desafío educativo de la ética de la IA

El uso de inteligencia artificial en educación ha crecido de forma acelerada. Los estudiantes consultan sistemas generativos para responder preguntas, redactar trabajos o resolver problemas. Esta práctica introduce varios problemas éticos. El primero aparece en el concepto de autoría. Cuando un estudiante utiliza una herramienta generativa, surge una interrogante fundamental: ¿quién produce el conocimiento? El estudiante, el sistema o una combinación de ambos.

El segundo problema se relaciona con la veracidad de la información. Los sistemas de IA pueden producir respuestas convincentes que contienen errores o sesgos. El estudiante necesita desarrollar una actitud crítica frente a estos resultados. ¿Pero está preparado? Este problema no es nuevo, siempre ha existido, en especial desde el ámbito digital, solo que ahora se agrava, al ser más fácil de obtener la respuesta.

El último de estos problemas está vinculado con los datos. Muchas aplicaciones de inteligencia artificial procesan grandes volúmenes de información personal. Esto implica reflexionar sobre privacidad, consentimiento y seguridad digital.

El Marco de competencias en IA plantea que los estudiantes deben comprender estas implicaciones éticas y analizar cómo afectan los derechos humanos, la equidad social y la inclusión digital.

Desde la perspectiva educativa, el problema deja de ser tecnológico y se transforma en pedagógico. La pregunta central ya no es cómo usar la IA. La pregunta es cómo formar ciudadanos capaces de convivir con sistemas inteligentes.

Implicaciones pedagógicas para la educación superior

La formación ética en inteligencia artificial requiere cambios en la enseñanza universitaria. La primera implicación consiste en incorporar la reflexión ética dentro de las actividades de aprendizaje. El estudiante no solo debe utilizar herramientas. Debe analizar sus resultados, cuestionar sus decisiones y evaluar sus consecuencias sociales. Los profesores no pueden negar su uso, tampoco decir a la ligera que no acepta el trabajo porque sospecha que fue creado con IA.

La segunda implicación se relaciona con el desarrollo del pensamiento crítico. Los estudiantes deben aprender a identificar sesgos algorítmicos, reconocer limitaciones de los modelos y contrastar la información generada por sistemas inteligentes.

La tercera implicación se vincula con la responsabilidad humana. El Marco de competencias subraya que las decisiones finales deben mantenerse bajo control humano. La inteligencia artificial no reemplaza la responsabilidad del sujeto que la utiliza.

Estas ideas obligan a replantear la práctica docente. La enseñanza de la inteligencia artificial no puede limitarse a talleres técnicos sobre herramientas digitales. Debe incluir debates, análisis de casos y reflexión ética. Debe ser parte del currículo, no solo como una materia, sino como una transversal

A modo de conclusión

La educación en inteligencia artificial plantea uno de los desafíos pedagógicos más importantes del presente. La tecnología avanza con rapidez, pero la formación ética de los estudiantes requiere procesos educativos más profundos.

El Marco de competencias para estudiantes propone que la alfabetización en inteligencia artificial combine conocimientos técnicos con reflexión ética. Este enfoque busca formar estudiantes capaces de comprender la tecnología, evaluar sus impactos y actuar con responsabilidad.

El futuro de la educación no dependerá únicamente de la presencia de herramientas inteligentes en el aula. Dependerá de la capacidad de los docentes para formar estudiantes críticos, conscientes y responsables frente al uso de la inteligencia artificial.

La pregunta educativa del siglo XXI no es si los estudiantes utilizarán inteligencia artificial. La pregunta es si sabrán utilizarla con criterio, responsabilidad y sentido humano.

Bibliografía

“AI competency framework for students”, Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura. (2025) DOI: https://doi.org/10.54675/EKCU4552

viernes, 13 de marzo de 2026

IA, Altas Capacidades y el rol del profesor en el aula del siglo XXI

 Por Javier Tourón

En el ecosistema educativo actual, la Inteligencia Artificial (IA) ha dejado de ser una promesa de futuro para convertirse en una herramienta presente en cada aula. Sin embargo, cuando hablamos de alumnos con Altas Capacidades (AACC), surge una pregunta fundamental: ¿Es la IA un propulsor que amplifica su potencial o una «muleta» que podría perjudicar su capacidad de pensamiento crítico?

La IA como amplificador: rompiendo el techo del aula

Para un alumno con AACC, el ritmo del aula tradicional a menudo le hace sentirse como si caminara con pesas en los pies. La IA ofrece una solución sin precedentes: la hiper-personalización. A diferencia de un currículo lineal, los sistemas de aprendizaje adaptativo permiten que el estudiante navegue por conceptos complejos a su propia velocidad. Si un niño de primaria domina la aritmética en minutos, la IA puede abrirle las puertas a la astrofísica, o a la programación avanzada, proporcionando desafíos que están justo en su «Zona de Desarrollo Próximo». La IA no solo entrega datos; elimina el techo que muchas veces impone el sistema educativo estándar. Ciertamente requiere supervisión y orientación por parte del profesor, entrenamiento técnico, etc. (puedes ver a este respecto el post anterior sobre el rol del profesor).

El riesgo de la «muleta»: fortaleza y esfuerzo en la era del clic

Sin embargo, tener una herramienta que ofrece resúmenes y soluciones en segundos es una espada de doble filo. Para un alumno con AACC, que a menudo procesa la información con gran rapidez, el riesgo es la atrofia del esfuerzo. Si el camino es siempre llano, el «músculo» de la fortaleza no se desarrolla. Por eso, la IA no debe ser un solucionador, sino un generador de desafíos. El verdadero aprendizaje ocurre cuando el alumno actúa como un «Director de Orquesta»: utiliza la potencia de la máquina para gestionar datos, pero aporta su propio criterio para dar sentido y profundidad al resultado. El conocimiento propio es el filtro indispensable que transforma una respuesta automática en un logro intelectual real. Si no hay conocimiento y reflexión propias esto será imposible.

Del consumo a la auditoría: el valor de buscar el error

Una de las estrategias más potentes para fomentar esta mentalidad es la auditoría cognitiva. En lugar de pedirle al alumno que resuelva un problema que la IA ya domina, el reto se invierte: le entregamos una solución generada por la IA que contiene un error sutil o una omisión profunda. Su misión es encontrar el fallo, analizar por qué ocurrió y proponer una solución superior. Este ejercicio desplaza al alumno de una posición pasiva a una de autoridad técnica, enseñándole que la excelencia no nace de la velocidad, sino del rigor y la capacidad de cuestionar lo que parece «perfecto».

Una aventura compartida: el profesor como mentor y brújula

En este nuevo paradigma, la relación entre el docente y el alumno con AACC se transforma profundamente. (Ver los enfoques basados en metodologías activasflipped classroom, por ejemplo). El profesor ya no es quien «imparte la lección» desde un pedestal de autoridad (the sage on the stage), sino un mentor que acompaña al estudiante en un territorio inexplorado (the guide on the side). Mientras la IA se encarga de la profundidad técnica, el profesor se ocupa de lo esencialmente humano: la validación emocional, la gestión de la frustración y el fomento de la intuición. Se convierten en compañeros de una aventura donde ambos investigan, auditan y descubren. Esta conexión personal es la que permite al guía detectar cuándo el alumno está brillando por su cuenta y cuándo se está dejando llevar por la inercia de la máquina.

Conclusión: el esfuerzo como sello de identidad

Al final del día, debemos recordarles a estos alumnos ( y a todos los demás en grados diversos) que la facilidad no es sinónimo de éxito. El conocimiento propio que ha de adquirirse a través del estudio, forjado a través de la duda y el análisis crítico, es el único que genera un verdadero desarrollo del talento. La IA es un copiloto extraordinario, pero el vuelo —con todas sus turbulencias y rectificaciones— le pertenece exclusivamente al ser humano. El logro no reside en la respuesta que da la pantalla, sino en la capacidad de la mente humana para cuestionarla, mejorarla y hacerla suya.

Todo un reto cargado de valor añadido.

Tomado de Javier Tourón

jueves, 12 de marzo de 2026

¿Existe consenso entre los investigadores sobre en que revistas publicar sus trabajos?

 Tomado de Universo Abierto

Van Buskirk, Ian, Marilena Hohmann, Ekaterina Landgren, Johan Ugander, Aaron Clauset y Daniel B. Larremore. Consensus and Fragmentation in Academic Publication Preferences. arXiv:2603.00807v1 [cs.DL], 28 de febrero de 2026

Este trabajo analiza cómo los investigadores toman decisiones sobre dónde publicar sus trabajos científicos y hasta qué punto existen patrones de consenso o, por el contrario, fragmentación dentro de las comunidades académicas.

Los autores parten de la premisa de que la elección de la revista o del canal de publicación no es un proceso puramente individual, sino que refleja dinámicas colectivas dentro de cada disciplina científica. Estas decisiones están influenciadas por múltiples factores —prestigio de las revistas, redes académicas, incentivos institucionales o visibilidad— y, en conjunto, configuran un sistema complejo de preferencias compartidas que puede ser estudiado mediante herramientas de análisis de redes y ciencia de datos. El objetivo central del artículo es identificar si las comunidades científicas muestran patrones claros de acuerdo sobre qué revistas son más relevantes o si, por el contrario, el sistema editorial está caracterizado por una pluralidad de preferencias que fragmenta el espacio de publicación.

Para abordar esta cuestión, los autores desarrollan un enfoque cuantitativo que combina datos de publicaciones académicas con modelos de redes y análisis estadístico. A partir de estos datos reconstruyen un mapa de las preferencias de publicación de los investigadores, observando cómo los científicos de distintas áreas tienden a concentrar sus envíos en determinados grupos de revistas. Este enfoque permite detectar estructuras emergentes en el sistema editorial: por un lado, núcleos de consenso donde muchos investigadores convergen en un pequeño conjunto de revistas consideradas centrales; y por otro, regiones de fragmentación en las que las preferencias se dispersan entre múltiples opciones. El análisis muestra que estas estructuras no son uniformes en todas las disciplinas: algunas comunidades presentan jerarquías editoriales muy claras, mientras que otras exhiben una distribución más diversificada de canales de publicación.

Uno de los hallazgos más relevantes del estudio es que el sistema de publicación científica funciona como una red de coordinación social. Las decisiones individuales de los investigadores están influidas por lo que hacen sus pares, lo que genera dinámicas colectivas de imitación, reputación y señalización. Publicar en determinadas revistas actúa como una señal de calidad y legitimidad dentro de la comunidad científica, lo que refuerza la concentración de envíos en ciertos títulos. Sin embargo, esta dinámica también puede producir fragmentación cuando diferentes subcomunidades científicas desarrollan sus propios circuitos editoriales o cuando emergen nuevas revistas y plataformas que compiten con las tradicionales. De este modo, el sistema editorial no es completamente centralizado ni completamente disperso, sino que presenta una estructura híbrida caracterizada por clusters o comunidades de publicación.

El artículo también examina las implicaciones de estos patrones para la evaluación científica y la difusión del conocimiento. Cuando existe un fuerte consenso en torno a unas pocas revistas, estas adquieren un poder simbólico considerable, lo que puede reforzar desigualdades en la visibilidad de la investigación y consolidar jerarquías académicas. Por el contrario, una mayor fragmentación puede favorecer la diversidad de enfoques y la aparición de nuevos espacios de comunicación científica, aunque también puede dificultar la identificación de estándares comunes de calidad. En este sentido, el estudio sugiere que comprender la estructura de preferencias de publicación es fundamental para analizar fenómenos como la concentración editorial, la influencia de los rankings de revistas o el impacto de políticas de ciencia abierta.

Finalmente, los autores destacan que su enfoque ofrece una nueva perspectiva cuantitativa para estudiar el ecosistema de la publicación científica, integrando métodos de análisis de redes, ciencia computacional y sociología de la ciencia. Este tipo de análisis permite comprender mejor cómo se forman los consensos en torno a determinadas revistas, cómo surgen nichos editoriales especializados y cómo evolucionan las comunidades científicas a lo largo del tiempo. En última instancia, el estudio aporta evidencia empírica sobre las dinámicas colectivas que subyacen a la comunicación académica y abre nuevas líneas de investigación sobre la gobernanza del sistema de publicación científica, especialmente en un contexto marcado por la expansión del acceso abierto, la proliferación de nuevas revistas y los cambios en los mecanismos de evaluación de la investigación.

Tomado de Universo Abierto