viernes, 19 de enero de 2024

Inteligencia artificial (IA), educación y sociedad

Por Por Eva María Olmedo-Moreno*, Carmen Carmona-Rodriguez** y Juana M. Tierno-García*** *Universidad de Granada. Directora RELIEVE. Co-Coordinadora RedIAES **Universitat de València. Co-Coordinadora  RedIAES ***Universidad Rovira i Vigil. Co-Coordinadora RedIAES

Esta misma semana se ha aprobado un acuerdo provisional sobre la propuesta que establece las normas sobre inteligencia artificial (IA), también llamada Ley de Inteligencia Artificial en la Unión Europea (UE), siendo un paso pionero en esta materia a nivel internacional. Según el comunicado de prensa de 9 de diciembre de 2023 (Presidencia Española. Consejo de la Unión Europea) el proyecto de reglamento pretende garantizar que los sistemas de IA comercializados y utilizados en el mercado europeo sean seguros y respeten los derechos fundamentales y los valores de la UE. La idea principal es regular la IA basándose en el potencial de esta última para causar daño a la sociedad siguiendo un enfoque “basado en el riesgo”: cuanto mayor sea el riesgo, más estrictas serán las normas. Como la primera propuesta legislativa de este tipo en el mundo, puede establecer un estándar global para la regulación de la IA en otras jurisdicciones, al igual que el RGPD (Reglamento General de Protección de Datos), promoviendo así el enfoque europeo de la regulación tecnológica en el escenario mundial (UE, 2023).

El desarrollo de la necesaria normativa debe adecuarse a la protección de la ciudadanía, pero no puede representar un límite para el desarrollo de esta tecnología que ha venido no solo a quedarse, sino también a expandir su uso en pro de la mejora de aquel campo en el que se aplique con rigor y eficacia, promoviendo la innovación y el avance en el uso y empleo de modelos generativos (IAG, en adelante), los cuales están asumiendo un protagonismo relevante en educación, en especial, ChatGPT (Sánchez-Santamaría y Olmedo-Moreno, 2023). Hablamos de estos modelos generativos (IAG), sin dejar de mencionar la evolución inminente hacia los modelos de simulación (IAS, en adelante) que permitirán desarrollar sistemas complejos con eficiencia y menor riesgo en pruebas de conceptos. Estos, aplicados al campo de la educación, constituirán un gran avance en la prueba de resolución de problemas vinculados a situaciones de aprendizaje, especialmente se va a enfatizar en la práctica basada en la evidencia (PBE), puesto que la base es la posibilidad de disponer de un fondo documental desde el cual se fundamente la práctica/servicio. El problema, hasta el momento, es cómo gestionar ese fondo documental; la IA es un recurso que, entrenado debidamente, puede darnos una visión sintética de dicha base documental con un nivel de volumen en gestión de datos inalcanzable por cualquier otra vía, tanto humana como tecnológica.

Imaginemos qué puede hacer la IA por la Educación si se logra el avance hacia modelos de simulación (IAS). Lo primero es fijarnos en aquellos campos del conocimiento donde ya se está aplicando IA, como es el caso de la Medicina o la Ingeniería. Desde ahí podemos hacer un ejercicio de analogía con dos de ellos, avistando algunas posibilidades:

Prototipos de simulación: cuando se diseña una herramienta educativa, esta tiene como finalidad integrarse en el proceso de aprendizaje para mejorarlo; por tanto, formará parte de esta situación de aprendizaje en el que unos elementos (tareas, contextos, grupos…) dependen de los otros. La IA sería capaz de tener todas estas variables en cuenta para, a partir de determinados inputs, proponer herramientas, considerando cómo afectan a toda la situación de aprendizaje antes de su puesta en marcha e incluso construirla para ser observada.

Subrutinas o PBE: la creación de prácticas basadas en la evidencia es un paso más allá a la hora de realizar propuestas de intervención. Tiene como base la investigación, ya que se tiene en cuenta el propio resultado de la simulación como input y llevarlo a cabo es, por tanto, complejo. La IA puede acelerar y facilitar este proceso de manera exponencial, como ya se apuntó en párrafos previos.

Intervención de precisión: trabajando en escenarios complejos, como son los médicos y las patologías, ya se están empleando este tipo de estrategias. En Educación, su aplicación nos acerca al concepto de “Educación de Precisión”, donde no consideran solo los resultados evidenciados desde la PBE sino como esta interacciona en cada estudiante, según las relaciones con cada miembro del grupo al que pertenece. Es cuestión de tiempo que estas simulaciones alcancen un mayor grado de confianza, eficacia y eficiencia.

Indudablemente los desafíos que nos presenta esta nueva tecnología son aún difíciles de imaginar por la incertidumbre de lo desconocido, pero sí existe un cierto consenso en que se debe trabajar para dar respuesta a cómo la IA impacta en la sociedad, y en la educación en particular.

Una parte esencial es clarificar las cuestiones éticas, jurídicas y legales de lo que supone llegar a incorporar la IA al campo educativo y su investigación. El marco de los datos, el marco de la privacidad y la confidencialidad y de la ética es vital en este caso (European Commission, 2022). Por lo que la revista RELIEVE en su Vol. 29 Núm. 2 (2023) (https://revistaseug.ugr.es/index.php/RELIEVE/index) ha apostado por la publicación de un monográfico sobre “Integridad Académica en la Era de la Inteligencia Artificial Generativa”, coordinado por el catedrático Jesús Miguel Muñoz Cantero. Este monográfico se “centra en los desafíos éticos y prácticos que enfrenta la educación superior en la era de la Inteligencia Artificial Generativa (IAG). Explora cómo las herramientas de IAG están remodelando los enfoques de enseñanza y aprendizaje, al tiempo que plantean interrogantes sobre la integridad académica. Aborda las estrategias de detección de plagio y las prácticas editoriales frente al plagio en publicaciones académicas y examina la prevalencia y factores del plagio entre los estudiantes de nuevo ingreso. Se investiga el alcance internacional de la industria del fraude académico y reflexiona sobre el impacto ético de la IAG en la educación, resaltando la necesidad de directrices claras y prácticas pedagógicas innovadoras para guiar a los educadores y estudiantes en este entorno cambiante”. Con cinco artículos que desde ópticas multidisciplinarias y equipos internacionales profundizan en interrogantes surgidos en torno a la implementación de la IAG y la integridad académicaMoya & Eaton (2023) en su artículo hacen uso del Modelo Integrado para la Integridad Académica con el propósito de fomentar la discusión a partir de doce documentos que se enfocan en la utilización de la IAG con integridad. Se identifican, a nivel individual (micro), departamental/programático (meso), institucional (macro) y a niveles interinstitucionales/nacionales/internacionales (mega).  Se encuentran recomendaciones centradas en el aprendizaje que van más allá de la conducta del estudiantado, lo cual se encuentra en consonancia con las tendencias actuales en integridad académica. Se concluye proponiendo explorar formas de brindar un mayor respaldo a redes y líderes para crear las condiciones propicias para promover el uso ético de la IAG.

Fuente de la imagen: Pexels

El uso ético de la IAG tiene un impacto directo en las formas de plagio que se presentan en los textos, y específicamente en los científicos. En este sentido Espiñeira et al. (2023), nos presenta un estudio realizado con 166 revistas de Ciencias Sociales Iberoamericanas indexadas en Scopus, en el que se concluye que las medidas preventivas actuales son insuficientes para erradicar el plagio, y especialmente el derivado del empleado para la construcción de contenidos con IAG, sugiriendo la necesidad de estrategias más efectivas para combatir esta práctica en el ámbito académico. Y es que el “fraude académico existe en la industria de compra-venta de trabajos académicos”, tal y como demuestran Lancaster & Salasevicius (2023) en su estudio, realizado con un modelo de aprendizaje automático entrenado (aplicación script), que analiza dicha práctica fraudulenta en nueve áreas de conocimiento y en cuatro países (Australia, Reino Unido, Canadá y Estados Unidos). Entre las conclusiones se destaca que la IAG ofrece nuevas vías para el abuso, tanto por parte del estudiantado como de la industria del fraude académico. Esta tecnología facilita la creación de plataformas publicitarias más extensas, que se dirigen masivamente a personas que buscan “ayuda” para sus trabajos académicos. El estudiantado universitario vinculado a estas prácticas fraudulentas es identificado por Comas-Forgas et al. (2023), en función de unos determinados factores asociados. Así, señala que el alumnado con mayor tendencia a plagiar suele ser hombre, de menor edad, que se considera peor estudiante, valora el plagio con menor gravedad, está poco motivado por sus estudios y afronta las tareas académicas con propensión a la procrastinación. Entre las conclusiones de este estudio se señala la necesidad de espacios para las intervenciones dirigidas a promover la integridad académica y a reducir las prácticas fraudulentas en la universidad, basadas en evidencias. Lo que supone un proceso de transformación que exigirá el establecimiento de unas directrices claras que se ajusten a los códigos éticos y a las políticas de integridad de las instituciones de educación superior. En su estudio, Gallent et al. (2023), examinan desde una triple perspectiva (alumnado, profesorado y centro), las implicaciones éticas de su uso en educación superior. Se propone explorar las posibilidades de integración de la IAG en las aulas universitarias, mediante prácticas pedagógicas que orienten al alumnado en su correcta utilización, y permitan al profesorado buscar nuevos enfoques educativos.

Estamos, por lo tanto, en un momento esencial para arrojar más luces que sombras, mediante la investigación en este campo desde distintos ámbitos y perspectivas. Por lo que, en base a esta necesidad, se ha creado la Red de Inteligencia Artificial (IA), Educación y Sociedad (Red-IAES, en adelante) desde la Asociación Interuniversitaria de Investigación Pedagógica (AIDIPE). Sus coordinadoras: Carmen Carmona (U. Valencia), Juana María Tierno (U. Rovira i Virgili) y Eva María Olmedo (U. Granada), junto con los ya más de 30 miembros, colegas de universidades de casi todo el territorio nacional, hemos creído en la necesidad de visibilizar e impulsar las investigaciones que se realizan sobre inteligencia artificial en educación y que además generan un impacto en la sociedad. 

La Red-IAES (https://aidipe.org/index.php?pagina=redes&id_red=7) pretende dar respuesta a necesidades actuales, estableciendo unas líneas de investigación que conecten el avance de la IA con el ámbito educativo, en cualquiera de sus niveles; y que en un futuro tendrán un pacto a nivel de sociedad. La Red es también una propuesta de colaboración entre el mundo social y el académico. Una plataforma abierta a los sectores de la sociedad implicados en procesos educativos en cualquier ámbito: formal, no formal e informal.

Las preocupaciones educativas centrales reflejadas por la Red-AIES están en línea con la UNESCO (2023), en el entorno de aceleración e incertidumbre de la IA:

  • Desarrollar una comprensión más clara de cuándo, por quién y por qué razones esta nueva tecnología debe y no debe usarse.
  • Reexaminar lo que hacemos con IA en educación, cómo lo hacemos y, más fundamentalmente, por qué.
  • Garantizar que nuestros sistemas educativos desempeñen un papel clave para lograr que la transición de la humanidad hacia un mundo de IA sea correcta.

Y desde aquí se han trazado propuestas de investigación dentro de la Red-IAES:

  • Desarrollo de sistemas educativos que ayuden a nuestras sociedades a un posicionamiento sobre qué es y debería ser la IA.
  • Determinación de los retos, desafíos y “líneas rojas” de actuación en la implementación de la IA.
  • Valoración de cómo moldeará la educación nuestra recepción e integración de la IA, tanto la tecnología que está aquí hoy como la tecnología que permanece en el horizonte.
  • Reflexión sobre cómo nuestros sistemas educativos pueden definir una trayectoria y establecer unas normas sobre cómo entendemos la tecnología que cambia el mundo y, por extensión, cómo permitimos que influya en nosotros y en nuestro mundo.

Estas propuestas anteriores nos orientan a un horizonte de ideas, propuestas y expectativas abierto a las posibles áreas de investigación en la red:

Docencia con apoyo de la IA:

  • Diseño y planificación docente
  • Cambio y mejora docente
  • Desarrollo profesional docente
  • Integración curricular
  • Ética y sesgos didácticos
  • Diseño de entornos de aprendizaje
  • Competencia digital

Aprendizaje con apoyo de IA (aprendizaje computacional, aprendizaje automático, aprendizaje adaptativo).

  • Personalización y acompañamiento educativo
  • Tutoría y asistente virtual
  • Cultura de integridad académica
  • Toma de decisiones
  • Evaluación y retroalimentación automática
  • Equidad e inclusión
  • Competencia digital

Investigación con apoyo de la IA en diferentes áreas

  • Actividades previstas de la red
  • Organización de encuentros anuales de la red
  • Organización de seminarios
  • Organización de actividades formativas sobre buenas prácticas en IA
  • Difusión de investigaciones

Esta Red-IAES, por tanto, es un espacio de trabajo abierto que pretende impulsar la oportunidad que la IA puede ofrecer al campo de la educación, impulsando modelos generativos (IAG) y de simulación (IAS), propios del nivel Weak IA.  Y esperamos que en un futuro no tan lejano, un foco de investigación para este nivel, y para el que llegará (Strong AI), en el que replicará la inteligencia humana e incluso la superará, tal y como se afirma en el estudio realizado desde el Future of Humanity Institute, centro de investigación interdisciplinario de la Universidad de Oxford, donde 356 científicos e investigadores expertos en IA consideran que esto sucederá antes de 2061, en un 50% de los participantes y el 100% antes de 100 años.

Referencias

Comas-Forgas, R., Cerdà-Navarro, A., Touza-Garma, C., & Moreno-Herrera, L. (2023). Prevalencia y factores asociados al plagio académico en estudiantes de nuevo ingreso de Trabajo Social y Educación Social: un análisis empírico . RELIEVE – Revista Electrónica De Investigación Y Evaluación Educativa, 29(2). https://doi.org/10.30827/relieve.v29i2.29055

European Commission, Directorate-General for Education, Youth, Sport and Culture (2022). Ethical guidelines on the use of artificial intelligence (AI) and data in teaching and learning for educators, Publications Office of the European Unionhttps://data.europa.eu/doi/10.2766/153756

Espiñeira-Bellón, E. M., Muñoz-Cantero, J. M., Porto-Castro, A. M., & Mosteiro-García, M. J. (2023). Percepciones y eficacia de los mecanismos de detección de plagio en revistas científicas de Ciencias Sociales españolas, portuguesas e iberoamericanas. RELIEVE – Revista Electrónica De Investigación Y Evaluación Educativa, 29(2). https://doi.org/10.30827/relieve.v29i2.29097

Gallent-Torres, C., Zapata-González, A., & Ortego-Hernando, J. L. (2023). El impacto de la inteligencia artificial generativa en educación superior: una mirada desde la ética y la integridad académica. RELIEVE – Revista Electrónica De Investigación Y Evaluación Educativa, 29(2). https://doi.org/10.30827/relieve.v29i2.29134

Lancaster, T., & Salasevicius, M. (2023). Una comparación internacional de la industria de la compra-venta de trabajos académicos. RELIEVE – Revista Electrónica De Investigación Y Evaluación Educativa, 29(2). https://doi.org/10.30827/relieve.v29i2.29227

Moya, B., & Eaton, S. E. (2023). Examinando Recomendaciones para el Uso de la Inteligencia Artificial Generativa con Integridad desde una Lente de Enseñanza y Aprendizaje. RELIEVE – Revista Electrónica De Investigación Y Evaluación Educativa, 29(2). https://doi.org/10.30827/relieve.v29i2.29295

Muñoz-Cantero, J. M. (2023). Presentación Monográfico “Integridad Académica en la Era de la Inteligencia Artificial Generativa”. RELIEVE – Revista Electrónica De Investigación Y Evaluación Educativa, 29(2). (https://revistaseug.ugr.es/index.php/RELIEVE/index )

Sánchez-Santamaría, J., & Olmedo-Moreno, E. (2023). El despertar de la inteligencia artificial: implicaciones para la competencia investigadora en educación. Aula Magna 2.0. Revistas Científicas de Educación en Red, 1-14. [Blog]. https://cuedespyd.hypotheses.org/13719

UE (2023). Ley de inteligencia artificial: el Consejo y el Parlamento llegan a un acuerdo sobre las primeras normas del mundo para la IA. Presidencia Española. Comisión Europea. 9 de diciembre de 2023. https://spanish-presidency.consilium.europa.eu/es/noticias/consejo-parlamento-acuerdo-primeras-normas-mundiales-inteligencia-artificial/

Cómo citar esta entrada:

Olmedo-Moreno, Eva María; Carmona-Rodriguez, Carmen y Tierno-García, Juana M. (2024). Inteligencia artificial (IA), educación y sociedad. Aula Magna 2.0 [Blog]. https://cuedespyd.hypotheses.org/14630 

Tomado de Aula Magna 

No hay comentarios: