lunes, 23 de marzo de 2026

¿Nos está haciendo la IA más inteligentes… o menos? Implicaciones para la alta capacidad y el desarrollo del talento

 Por Javier Tourón 

Vivimos un momento histórico fascinante y, a la vez, inquietante. La inteligencia artificial —y en particular la IA generativa— ha irrumpido en nuestra vida cotidiana con una velocidad difícil de exagerar. Escribe, programa, resume, diseña, responde, sugiere, engaña (sobre esto mira la nota al final)… y cada vez lo hace mejor. Pero la pregunta importante no es qué puede hacer la IA. La pregunta importante es qué está haciendo con nosotros.

Robert J. Sternberg, una de las voces más influyentes en el estudio de la inteligencia, la creatividad y las altas capacidades, aborda en este artículo –que se puede descargar desde el enlace que incluyo al final– una cuestión de enorme calado:

¿Aumenta la IA nuestras capacidades cognitivas, las disminuye o produce una combinación de ambas? ¿Y qué significa todo esto para la identificación y el desarrollo de las personas con alta capacidad?

He considerado de gran interés ofrecer esta traducción a los lectores del blog —docentes, orientadores, investigadores y familias— porque la discusión sobre IA no puede limitarse a su eficiencia productiva. Afecta directamente al modo en que entendemos la inteligencia, el talento, la creatividad y la autonomía personal.

La cuestión no es tecnológica. Es profundamente humana.

A continuación hago una exégesis breve del artículo y al final incluyo los enlaces para acceder al original en inglés y a la versión que he traducido con el amable consentimiento del autor. También quiero indicar que este artículo estará en un monográfico de Frontiers in Education cuyo editor invitado es Marcos Román de la UNED.

Seis posibles escenarios en la era de la IA

Sternberg plantea seis escenarios posibles respecto a la alta capacidad en la era de la IA:

1. Nada ha cambiado. Las personas que antes hubieran sido identificadas con alta capacidad lo siguen siendo ahora. La IA no altera sustancialmente el mapa.

2. Hay muchas más personas con alta capacidad. Quienes saben usar la IA potencian la calidad y cantidad de sus producciones, alcanzando niveles que antes no les eran posibles.

3. Muchos parecen tener alta capacidad… pero no la tienen. No es su competencia, sino el “andamiaje artificial” de la IA lo que produce la apariencia de excelencia.

4. Se pierde alta capacidad. El uso indiscriminado de IA genera externalización cognitiva (cognitive offloading) y deterioro progresivo de habilidades.

5. La IA sustituye los campos de expresión del talento. Profesiones hacia las que se orientó a muchos jóvenes con alta capacidad pueden verse parcialmente absorbidas por la IA.

6. Todo depende del uso que hagamos. Esta es la posición del autor: la IA puede ampliar o erosionar la alta capacidad. No está predeterminado. Es una elección.

El riesgo silencioso: la externalización cognitiva

El principio es sencillo y conocido: lo que no se usa, se pierde. Ocurre con el lenguaje, con la musculatura y con las capacidades cognitivas. El uso de calculadoras, por ejemplo, ha laminado nuestra capacidad de cálculo mental, por ejemplo; la falta de práctica de un idioma extranjero aprendido hace que se pierda, y tantos otros ejemplos.

La IA generativa no es simplemente una herramienta de apoyo (como un lápiz o una calculadora). Realiza parte del trabajo cognitivo de alto nivel. Si delegamos sistemáticamente ese trabajo, el riesgo no es que produzca textos mediocres. El riesgo es que reduzca nuestra implicación cognitiva.

Los estudios citados por Sternberg en su artículo muestran:

  • Menor activación cerebral en tareas asistidas por LLM (Large Language Models).
  • Disminución del pensamiento crítico.
  • Mayor homogeneidad creativa.
  • Influencia actitudinal inconsciente incluso cuando el sesgo es advertido.

La cuestión no es si la IA puede producir buenos resultados. La cuestión es si el proceso cognitivo sigue siendo nuestro.

La habitación china y la ilusión de competencia

Sternberg recupera el argumento de la “Habitación China” de Searle. Un individuo sigue reglas sintácticas sin comprender realmente el significado. Desde fuera parece competente. Pero no entiende nada del idioma. La pregunta incómoda es esta:

¿Estamos empezando a atribuirnos capacidades que en realidad pertenecen al sistema con el que interactuamos? Si evaluamos nuestra competencia solo por el producto final —y no por el proceso cognitivo que lo genera— podemos entrar en una ilusión peligrosa.

Tres tipos de inteligencia en la era de la IA

Sternberg introduce una distinción sugerente, a mi juicio:

🔹 Inteligencia de convocatoria inmediata. La que necesitamos en situaciones imprevistas: entrevistas, decisiones críticas, respuestas en tiempo real.

🔹 Inteligencia de convocatoria próxima. La que requiere breve reflexión, pero sin acceso ilimitado a apoyos externos.

🔹 Inteligencia de convocatoria distal. La que se despliega en proyectos largos y complejos.

Es en esta última donde la IA puede ser más constructiva… siempre que no genere dependencia progresiva.

¿Puede la IA erosionar algo más que la inteligencia general?

El riesgo no se limita al CI, que por otra parte ya sabemos las limitaciones y problemas que tiene

Sternberg advierte sobre posibles efectos en:

  • Pensamiento crítico
  • Creatividad no conformista
  • Inteligencia práctica
  • Sabiduría
  • Inteligencia emocional

Paradójicamente, podríamos perder precisamente el tipo de pensamiento que la IA modela mejor: el pensamiento computacional.

Si externalizamos sistemáticamente la descomposición de problemas, la identificación de patrones o la planificación paso a paso, esas capacidades pueden debilitarse.

6. Resumiendo: ¿Qué significará tener alta capacidad en el futuro?

Sternberg es claroTener un alto CI no bastará.

La alta capacidad del futuro exigirá:

1️⃣ Capacidad real en situaciones de convocatoria inmediata

La IA no tomará por nosotros las decisiones vitales.

2️⃣ Creatividad transformadora

La creatividad que cambia paradigmas y mejora el mundo no puede delegarse.

3️⃣ Sabiduría e inteligencia práctica

Decidir qué mundo queremos y cómo construirlo es una tarea humana.

4️⃣ Humildad intelectual

Reconocer límites, evitar la ilusión performativa y mantener autonomía cognitiva.

La decisión es individual

Las empresas tecnológicas buscan rentabilidad. Las organizaciones buscan eficiencia.
Las instituciones tienen sus propias agendas. Pero la decisión última es personal.

Podemos usar la IA para ampliar nuestras capacidades. O podemos usarla para sustituirlas.

La alta capacidad en la era de la IA no será solo cuestión de rendimiento. Será cuestión de autonomía.


Hasta aquí un esbozo del contenido del artículo que puedes conseguir traducido por mí en este enlace. La versión original en inglés se puede descargar desde este enlace.

La pregunta final no es tecnológica. Es antropológica. ¿Queremos ser personas que piensan con herramientas? ¿O personas que delegan su pensamiento en las herramientas?

La IA no decidirá por nosotros, pero sí decidiremos lo que la IA haga con nosotros. Por eso no se deben imponer soluciones emocionales al uso de la tecnología que, a la postre, no sirven para nada porque la tecnología está aquí. Lo decisivo es analizar con prudencia y profundidad los límites en los que queremos que las herramientas nos ayuden. Ellas son un medio, no un fin. Por eso digo que la respuesta es antropológica. Aclaremos nuestros fines y utilicemos con sagacidad los medios.

Os recomiendo una lectura atenta del artículo de Sternberg. No os dejará indiferentes.

Nota. Mientras termino este post me encuentro con una noticia en X que parece de ciencia ficción, pero no lo es. Te invito a verla aquí.

Tomado de Javier Tourón

No hay comentarios: