viernes, 28 de junio de 2024

Guía Ampliada sobre el uso de IA para autores, editores y revisores de Taylor & Francis

 Tomado de Universo Abierto. 

Robinson, Mark. «Taylor & Francis Issues Expanded Guidance on AI Application for Authors, Editors and Reviewers». Taylor & Francis Newsroom, 12 de junio de 2024. https://newsroom.taylorandfrancisgroup.com/expanded-guidance-on-ai-application-for-authors-editors-and-reviewers/.

A medida que el uso de inteligencia artificial (IA) generativa en la investigación y la escritura sigue evolucionando, Taylor & Francis ha emitido la última iteración de su política sobre la aplicación de herramientas de IA. La política tiene como objetivo promover el uso ético y transparente de la IA, al mismo tiempo que aborda los riesgos y desafíos que puede presentar para la publicación de investigaciones.

Las herramientas de IA generativa están proporcionando un apoyo positivo a los investigadores en áreas como la generación de ideas, la codificación, la mejora del lenguaje y la difusión de la investigación. Sin embargo, su uso también puede plantear riesgos serios para los trabajos académicos, incluyendo la introducción de inexactitudes, sesgos o falta de atribución, así como comprometer la confidencialidad y los derechos de propiedad intelectual.

Para apoyar la adopción responsable de las oportunidades de la IA y responder a preguntas comunes, Taylor & Francis ha lanzado una nueva política que describe las expectativas para autores, editores y revisores que utilizan herramientas de IA en su trabajo.

La guía para autores se basa en el principio de que ellos siguen siendo responsables de la originalidad, validez e integridad del contenido que envían a los editores. Cubre áreas como la atribución de autoría, el reconocimiento del uso de IA y las actividades para las cuales no se permite el uso de IA.

Se recuerda a los editores y revisores en la política sobre los riesgos que plantea el uso de IA para la precisión, la confidencialidad, los derechos de propiedad y los datos. Con esto en mente, la guía describe varias tareas para las cuales no se deben usar herramientas de IA, con el fin de mantener los estándares de calidad editorial y de revisión por pares.

La política se basa en el estado actual de la IA generativa y la ética de la investigación, y se espera que siga evolucionando a medida que la tecnología y la práctica se desarrollen. Taylor & Francis acoge con satisfacción las nuevas posibilidades ofrecidas por las herramientas de IA y anima a los investigadores a usarlas de manera responsable y de acuerdo con la nueva guía.

Tomado de Universo abierto

jueves, 27 de junio de 2024

¿Por qué alucina la inteligencia artificial?

 Tomado de Universo Abierto


MIT Technology Review. «Why Does AI Hallucinate?» Accedido 19 de junio de 2024. https://www.technologyreview.com/2024/06/18/1093440/what-causes-ai-hallucinate-chatbots/.



El artículo «¿Por qué la inteligencia artificial alucina?» de Will Douglas Heaven, publicado en junio de 2024 por MIT Technology Review, profundiza en los desafíos que enfrentan los chatbots y los modelos de lenguaje como GPT-3.5 debido a su propensión a generar respuestas incorrectas, un fenómeno conocido como alucinación. Este problema no solo afecta la precisión de los chatbots, sino que también influye en la confianza que las personas depositan en ellos.

El artículo comienza ilustrando el problema con el caso del chatbot SARAH de la Organización Mundial de la Salud, diseñado para proporcionar consejos de salud en varios idiomas las 24 horas del día. SARAH, respaldado por el modelo GPT-3.5, fue lanzado con buenas intenciones pero rápidamente se descubrió que daba información incorrecta, incluyendo direcciones y nombres ficticios de clínicas en San Francisco. Este ejemplo subraya cómo incluso organizaciones prestigiosas pueden enfrentar desafíos con la precisión de los chatbots.

El efímero chatbot científico Galactica de Meta inventó artículos académicos y generó artículos wiki sobre la historia de los osos en el espacio. En febrero, Air Canada recibió la orden de cumplir una política de reembolso inventada por su chatbot de atención al cliente. El año pasado, un abogado fue multado por presentar documentos judiciales llenos de opiniones judiciales falsas y citas legales inventadas por ChatGPT. Estos ejemplos destacan cómo la alucinación puede llevar a errores significativos y potencialmente costosos.

El problema es que los grandes modelos lingüísticos son tan buenos en lo que hacen que lo que inventan parece correcto la mayoría de las veces. Y eso hace que sea difícil confiar en ellos. Esta tendencia a inventar -conocida como alucinación- es uno de los mayores obstáculos que impiden la adopción generalizada de los chatbots. ¿Por qué lo hacen? ¿Y por qué no podemos solucionarlo?

Para entender por qué los grandes modelos lingüísticos alucinan, tenemos que ver cómo funcionan. Lo primero que hay que tener en cuenta es que inventar cosas es exactamente para lo que están diseñados estos modelos. Cuando se hace una pregunta a un chatbot, éste extrae su respuesta del gran modelo lingüístico que lo sustenta. Pero no es como buscar información en una base de datos o utilizar un motor de búsqueda en Internet.

A diferencia de buscar información en una base de datos o en la web, estos modelos utilizan números para calcular respuestas desde cero. Cada modelo está compuesto por billones de parámetros que ajustan sus predicciones con base en patrones lingüísticos encontrados en grandes cantidades de datos textuales de internet. Cuando se les hace una pregunta, estos modelos generan secuencias de palabras nuevas basadas en probabilidades estadísticas, no en conocimiento específico almacenado.

Los grandes modelos lingüísticos generan texto prediciendo la siguiente palabra de una secuencia. Si un modelo ve «el gato se sentó», puede adivinar «en». Esa nueva secuencia se vuelve a introducir en el modelo, que ahora puede adivinar «el». Si da otra vuelta, puede adivinar «mat», y así sucesivamente. Este truco es suficiente para generar casi cualquier tipo de texto que se pueda imaginar, desde listados de Amazon hasta haiku, pasando por ficción de fans, código informático, artículos de revistas y mucho más. Como dice Andrej Karpathy, informático y cofundador de OpenAI: los grandes modelos lingüísticos aprenden a soñar con documentos de Internet.

Para adivinar una palabra, el modelo simplemente ejecuta sus números. Calcula una puntuación para cada palabra de su vocabulario que refleja la probabilidad de que esa palabra sea la siguiente en la secuencia en juego. La palabra con la mejor puntuación gana. En resumen, los grandes modelos lingüísticos son máquinas tragaperras estadísticas. Gire la palanca y saldrá una palabra.

¿Podemos controlar lo que generan los grandes modelos lingüísticos para que produzcan un texto cuya exactitud esté garantizada? Estos modelos son demasiado complicados para que sus números puedan manipularse a mano. Pero algunos investigadores creen que entrenarlos con aún más texto seguirá reduciendo su tasa de error. Es una tendencia que hemos observado a medida que los grandes modelos lingüísticos han ido creciendo y mejorando. Pero, ninguna técnica puede eliminar completamente la alucinación. Debido a su naturaleza probabilística, siempre existe un elemento de riesgo en lo que producen estos modelos.

El artículo concluye destacando la importancia de gestionar las expectativas sobre las capacidades de estos modelos. A medida que mejoren en precisión, será crucial mantener una vigilancia constante para identificar y corregir los errores que puedan surgir. Además, subraya la necesidad de una mayor investigación y desarrollo en métodos que mitiguen la alucinación en los modelos de lenguaje.

Otro método consiste en pedir a los modelos que comprueben su trabajo sobre la marcha, desglosando las respuestas paso a paso. Este método, conocido como «cadena de pensamiento», ha demostrado aumentar la precisión de los resultados de un chatbot. Todavía no es posible, pero en el futuro los grandes modelos lingüísticos podrán comprobar los hechos del texto que producen e incluso rebobinar cuando empiecen a descarrilar.

Tomado de Universo abierto

miércoles, 26 de junio de 2024

Inteligencia vs Inteligencia Artificial ¿tiene sentido esta división?

 Por Paola Dellepiane


Partiendo de una visión sistémica de la Inteligencia Artificial (IA), su desarrollo afectará a ámbitos diversos de la educación, y desde un enfoque multidisciplinario en investigación, docencia, gestión, relación con la sociedad y otros campos del conocimiento representativos de las humanidades y las ciencias sociales. En 2019, el Consenso de Beijing, en su documento sobre IA y educación de la UNESCO, enfatizó la característica interdisciplinar de la IA como aspecto clave a tener en cuenta para quienes toman decisiones y formulan e implementan políticas públicas. Pero también la relación compleja que representa pensar la IA en la educación por las múltiples aristas que abarca: políticas educativas, uso en la gestión, apoyo a la docencia y a la evaluación del aprendizaje, competencias para la vida y el trabajo, nuevas oportunidades de aprendizaje permanente, y todo ello sin descuidar los aspectos de uso ético, transparente, equitativo e inclusivo.

Conectando esta visión con una reciente publicación de Faraón Llorens, es posible agregar dos dimensiones o características a la IA en el ámbito educativo: la humanización de la respuesta y su necesidad de supervisión humana

El primer aspecto, hace que sea casi imposible discernir si una tarea ha sido efectuada por la IA o por un humano puesto que ésta tiene capacidad creativa y naturalidad en el lenguaje.  El segundo aspecto tiene que ver con las incoherencias de las respuestas.

Llorens resalta la importancia de “tener en cuenta que la IA no puede reemplazar completamente al profesorado humano, ya que la enseñanza y el aprendizaje son actividades complejas que requieren la interacción humana y el pensamiento crítico”.

Cabe también la siguiente conclusión: Si un robot puede hacerlo, no era una tarea específicamente humana.

En este sentido, el planteo que considera positivamente el potencial de la IA es que el rol docente podría alejarse de la presentación y gestión de contenidos y centrarse en el desarrollo de habilidades complejas que son propias de la condición humana, y que la tecnología no puede hacer.

Entonces, cabe una segunda conclusión: Si queremos desarrollar inteligencia artificial debemos entender la inteligencia natural y conocer cómo funciona. En palabras de Turkle, “redefinir lo que es humano en base a lo que la tecnología no puede hacer (..)  Toda tecnología plantea un desafío para nuestros valores humanos, y eso es bueno porque hace que reafirmemos cuáles son”

Y en esta línea, se hace necesario revalorizar la ternura y el sentido del humor como "dos tecnologías" esenciales que tenemos que llevar al aula.

En las últimas décadas, la IA se ha desarrollado para estar presente en nuestras vidas cotidianas. Siguiendo las ideas de Turkle, las máquinas están programadas para participar en conversaciones como si entendieran de qué hablan hasta el punto de que algunos se han preguntado: ¿hasta dónde puede llegar esto y qué ocurrirá entonces? 

De esta manera, no se trata de decidir si IA sí o IA no. La opción de no IA ni es viable ni es conveniente. 

Siguiendo la propuesta de Llorens, el aumento de inteligencia que representaría que tanto la inteligencia natural como la artificial se pusieran a colaborar y se complementaran, sería la opción más inteligente.

En las universidades debemos formar universitarios que, junto a una inteligencia natural bien ejercitada, sepan sacar partido a la inteligencia artificial en su vida profesional (y personal).

Retomando el carácter interdisciplinar de la IA, se puede enseñar inteligencia artificial en las materias curriculares de otras disciplinas desde un enfoque transversal y adoptando un enfoque global, práctico y activo en el que el trabajo basado en proyectos y contextualizado desempeñe un papel muy importante.

Abordar una IA que converse, cree y potencie la enseñanza y el aprendizaje. 

Como dice Cathy O’Neil en su texto Armas de destrucción matemática, nos enfrentamos a un mundo donde los datos no van a desaparecer, ni tampoco los ordenadores, y los modelos predictivos son las herramientas de las que dependeremos cada vez más para dirigir nuestras instituciones y gestionar nuestras vidas. Y agrega que, estos modelos no se construyen únicamente con datos, sino fundamentalmente con las decisiones que tomamos sobre los datos a los que debemos prestar atención. Y esas decisiones no se refieren únicamente a cuestiones logísticas, de beneficios o eficiencia, sino que son fundamentalmente decisiones humanas. 

Referencias: 

¿Deberíamos revisar el alcance del término inteligencia? (I) , Faraón Llorens, 2024

¿Deberíamos revisar el alcance del término inteligencia? (II), Faraón Llorens, 2024

La inteligencia artificial en el gobierno universitario, Faraón Llorens, 2023

Turkle, S. (2015). En defensa de la conversación. El poder de la conversación en la era digital. Ático de Libros: Barcelona

Tomando deAplicaciones educativas en entornos virtuales

martes, 25 de junio de 2024

Uso de la IA en proyectos colaborativos: un caso práctico

 Por Ramón Besonías.


Dentro de los múltiples usos educativos que puede darse a la IA, quizá el más completo sea aquel que se aplica a un proyecto colaborativo. No solo abarca el uso de diferentes herramientas que permiten llevar a cabo las tareas propuestas durante el proyecto, sino que también puede aplicarse al diseño curricular y orgánico del proyecto. 

Comparto contigo una experiencia real y reciente de aplicación de la IA a un proyecto colaborativo en Filosofía de 1º de Bachillerato. Llevo más de 8 años desarrollando este proyecto. Aunque ya el curso pasado hice uso de la IA, fue de forma residual y discreta. Sin embargo, este año su uso ha tenido mayor peso en algunos aspectos del desarrollo del proyecto. Conviene, aunque sea obvio, subrayar algunos, ya que es evidente que la IA tiene la categoría de herramienta vehicular y no vertebradora del proyecto. Esto es necesario tenerlo siempre en cuenta cuando introducimos la IA en procesos de aprendizaje. 

El proyecto colaborativo se llama EDUcampaña y consiste en simular durante 4 semanas una campaña electoral, con todos sus elementos: creación de partidos políticos, con sus nombres, logos, eslóganes, ideología... y puesta en marcha de una campaña electoral, con programa político, trípticos, fotos, vídeos, pódcast, sintonías, mitin y elecciones. Cada partido está compuesto por 4 miembros con un rol específico cada uno. El director de campaña asume el rol de coordinación del proceso y solo él se comunica con el docente para resolver problemas o dudas. Se entregan tareas semanales y se hace un informe semanal del proceso de trabajo. 




Puedes acceder a todos los elementos de diseño del proyecto en el enlace al site, desde el que los alumnos podían saber qué hacer en cada momento, cómo hacerlo y qué entregar cada semana. Las imágenes para acceder a cada categoría dentro del site fueron generadas desde Dall-E. Además de esto, para llevar a cabo algunos elementos de diseño del proyecto utilicé IA como ayuda auxiliar.  Tienes acceso a los documentos en la sección Diseño Curricular del site. Resumiré algunas de las tareas de diseño en las que recurrí a la IA:

  • Saberes básicos: En este documento se determinan los contenidos de área que desarrolla este proyecto colaborativo. Para agilizar la redacción utilicé Chat GPT, facilitándole el pdf de mi programación de aula. Le indiqué que se centrara en el bloque temático C1 y que discriminara qué contenidos curriculares fomenta mi proyecto y cómo lo hace. Saberes básicos implicados y objetivos relacionados con el proyecto. Para que la IA supiera de qué le estoy hablando, le facilité información relevante y precisa acerca de mi proyecto. A partir de la respuesta de la IA, realicé retoques, quitando, añadiendo o modificando lo que me parecía necesario. 
  • Criterios de evaluación: Igualmente, alimentado con mi programación y la información acerca del proceso de trabajo del proyecto, Chat GPT me propuso una adaptación de los criterios de evaluación de área a los del propio proyecto. Me propuso algunos criterios y yo los adapté. Sin embargo, he de decir que me sorprendió cómo captó esa adaptación de criterios a los datos que le proporcioné sobre el proyecto. Afina si le das la información correcta, clara y precisa. 
  • Metodología: En este caso, fue muy importante que la IA tuviera toda la información acerca de las tareas que los alumnos debían realizar durante todo el proyecto, a fin de asociarlas con metodologías específicas que debía discriminar y describir. 
  • Roles y talentos: En este documento, se asocia cada uno de los 4 roles que debían desempeñar los alumnos durante el proyecto a determinados talentos. En otro documento asocio estilos de aprendizaje con tareas específicas que debían desarrollan. Por último, otro documento que asocia cada tarea a criterios de evaluación y competencias clave
  • Tareas semanales, criterios y competencias: En este documento se puede observar qué competencias desarrolla cada tarea (por semana) y su relación con los criterios de evaluación.
  • Uso de la IA: Aquí se puede apreciar el uso de la IA en cada tarea del proyecto y las competencias que desarrolla su uso. 

Las rúbricas de evaluación no las elaboré con ayuda de IA, aunque hubiera estado bien comprobar qué elementos podría sugerir que no los hubiera considerado. Intenté con Chat GPT de pago mejorar la rúbrica de seguimiento de tareas, pero aún está muy verde para que afine y me ofrezca lo que quiero. Sin embargo, te animo a usar Chat GPT para mejorar formularios de evaluación. 

  • Seguimiento de tareas: Los alumnos podían acceder semanalmente al desarrollo de sus tareas. También aquí accedían a las anotaciones de mejora y la puntuación parcial y final, individual y colectiva. 


Una vez desgranado el uso de la IA en el diseño curricular, pasemos a su uso para realizar tareas del proyecto. Esto incluye tanto el uso que hice como docente de la IA para ayudarles a crear sus tareas, como las herramientas de IA que usaron los alumnos para desarrollarlas. 

  • Perfil psicológico de cada rol: La primera tarea era formar equipos y consensuar los roles. Para ello, les facilité dos documentos. Una hoja en la que se especifica el perfil psicológico de cada rol, y otro en la que pueden realizar un breve test de elección de rol, para detectar habilidades propias y asociarlas a un rol específico. Le facilité a Chat GPT información de las tareas y objetivos de cada rol y del proceso de trabajo del proyecto. A partir de esta información, elaboró un texto preliminar que después adapté. A partir de la lectura y análisis de estos documentos, hicieron un feedback reflexivo en el equipo y tomaron una decisión sobre el rol a adoptar. Tengo experiencia de que lo que más les cuesta en los proyectos colaborativos es trabajar en equipo, resolver conflictos, respetar y asumir los roles y ser asertivos con los compañeros. Este ejercicio previo ayudaba a asumir ese objetivo y reflexionar sobre los problemas asociados con la convivencia en democracia.
  • Colores e ideología: Igual reflexión a la hora de elegir el color que representa a cada partido. Cada partido debía tener un color diferente a través del que se representase la imagen del partido. Era parte del objetivo de este proyecto reflexionar acerca del papel de la imagen en una campaña electoral, si la imagen representa valores o los simula, el efecto que tiene la imagen frente a las ideas en una campaña...
  • Ideología y nombre del partido: Después de debatir acerca de la ideología a adoptar, debían tomar la decisión de poner nombre a su partido acorde con sus ideas. Esta tarea fue difícil porque los alumnos carecen de base teórica que les permita discriminar ideologías, pero sí podían categorizar ideas que representaran posturas frente a determinados problemas actuales. 
  • Logotipo y eslogan: Igualmente, ambos debían corresponder con sus ideas y el color asignado. Que ideas e imagen confluyeran, mostrando al electorado qué quieren defender. Para diseñar el logo, usaron Canva, que ya influye IA para mejorar la respuesta de creación de logos. Les facilité un tutorial y ejemplos.
  • Cartel de campaña: Otro elemento más de definición de su imagen de partido, coherente con el resto de elementos. También usaron Canva paras diseñarlo. Les facilité algunos ejemplos reales.
 

  • Sintonía de campaña: Aquí lo importante es discriminar palabras-fuerza del partido, que representen ideas a presentar en la campaña. Una vez consensuadas, se convierten en prompt y se escribe en Suno, que generará diferentes versiones de sintonía. Esta se usará en el podcast que se grabarán en la radio del centro y que les sirve a los candidatos a entrenarse para el mitin. También una actriz se ofreció a impartirles un taller de dicción y oratoria, cualidades que el próximo curso subrayaremos cuando veamos la filosofía de los sofistas.


  • Fotos y vídeos de campaña: Si pinchas sobre el título de este apartado podrás acceder a los materiales creados por los alumnos. Fotos de campaña, con logo y eslogan; vídeos promocionales; programas políticos en pdf... Para la edición de fotos y vídeos recurrieron a Canva.
  • Redes sociales: Aunque aquí no está implicada la IA, los alumnos debían crear cuentas en al menos dos redes sociales, y allí subir sus mensajes de texto, imagen y vídeo. 


  



Como puedes haber observado, el uso de la IA en este proyecto es instrumental, facilita el diseño y la elaboración de tareas, a la vez que puede servir de fuente inicial de inspiración de ideas. En ningún caso sustituye la creatividad y toma de decisiones en los equipos de trabajo. Está al servicio de la tarea y sus objetivos. Motiva el interés del alumno y fomenta la inclusión de cada miembro del equipo. Sirve a ayuda para desarrollar competencias, no las ahoga. 

Si el alumno intentaba que la IA le hiciera el trabajo sin tener que pensar cómo y de qué manera, ni evaluando el resultado, se daba cuenta de que no salía bien la tarea. Que era necesario una implicación humana en el proceso, una toma de decisiones en equipo, un testado de resultados, una mejora de algunos elementos... Porque la IA no puede sustituir esas competencias en un proyecto colaborativo, sino ser una herramienta de apoyo y agilización de determinados procesos de trabajo. 

Los alumnos, una vez se meten en la dinámica de trabajo del proyecto, comprenden la funcionalidad de la IA, la usan como herramienta según qué tarea necesitan realizar y a continuación toman de otros recursos diferentes que no requieran IA. El diseño de las experiencias de aprendizaje debe propiciar este efecto proactivo, no meramente reproductivo de contenidos. 

Esto sirve también para el docente. La IA no diseña el proyecto por ti, sino que se pone a trabajar a partir de los objetivos, detalles, reajustes prácticos sobre el terreno que tú le indicas. Si no sabes lo que quieres hacer, la IA no sabrá ayudarte y te proporcionará un modelo estandarizado, sin conexión con el contexto de enseñanza y las contingencias del proceso de trabajo. 

Tomado de IA educativa

lunes, 24 de junio de 2024

Encuesta sobre el uso de chatbots de IA generativa por parte de estudiantes para la investigación académica

 Tomado de Universo Abierto

Deschenes, A., & McMahon, M. (2024). A Survey on Student Use of Generative AI Chatbots for Academic Research. Evidence Based Library and Information Practice19(2), 2–22. https://doi.org/10.18438/eblip30512

El estudio de Amy Deschenes y Meg McMahon de la Universidad de Harvard revela que el 65% de los estudiantes utiliza o planea utilizar chatbots de IA generativa para trabajos académicos, aunque muchos desconfían de sus resultados. A pesar de su uso activo, los estudiantes buscan orientación para utilizarlos eficazmente. Los bibliotecarios deben aprender a usar estas herramientas para apoyar a los estudiantes en la evaluación crítica y la incorporación de resultados de IA en sus investigaciones.

La investigación tiene como tiene como objetivo comprender el uso de la IA generativa entre estudiantes de pregrado y posgrado. Específicamente, se busca saber cuántos estudiantes utilizan estas herramientas, con qué frecuencia y para qué tareas. Además, se pretende identificar la confianza de los estudiantes en los resultados generados por la IA y sus opiniones sobre la posibilidad de una herramienta de IA generativa mantenida localmente. También se exploró el interés de los estudiantes en recibir capacitación sobre el uso de la IA generativa en el contexto académico. Este estudio tiene como finalidad ayudar a los bibliotecarios a entender la adopción de la IA generativa entre los estudiantes y la necesidad de incorporarla en sus labores de apoyo académico.

Para llevar a cabo el estudio, un equipo compuesto por tres miembros del personal de la biblioteca y un pasante estudiante diseñó y ejecutó una encuesta que fue distribuida a 360 estudiantes de la Universidad de Harvard. La distribución se realizó a través de listas de correo electrónico y en lugares frecuentados por estudiantes como cafés y bibliotecas del campus. La recopilación y análisis de datos se llevó a cabo utilizando la plataforma Qualtrics.

Los resultados revelaron que casi el 65% de los encuestados ha utilizado o planea utilizar chatbots de IA generativa para sus trabajos académicos. Sin embargo, a pesar de este uso, la mayoría de los estudiantes (65%) no considera que los resultados generados por la IA sean suficientemente confiables para fines académicos. Estos hallazgos indican que, aunque los estudiantes emplean activamente estas herramientas, existe una necesidad de orientación y formación sobre su uso eficaz.

Se encontró que casi el 65% de los encuestados ha utilizado o planea utilizar chatbots de IA generativa para el trabajo académico, aunque la mayoría de los encuestados (65%) no encuentra sus resultados lo suficientemente confiables para el trabajo académico. Los hallazgos muestran que los estudiantes usan activamente estas herramientas, pero desean orientación sobre cómo usarlas eficazmente.

En conclusión, la investigación muestra que los estudiantes están interactuando con la IA generativa en sus actividades académicas, pero no confían completamente en la información que esta produce. Es esencial que los bibliotecarios comprendan el impacto significativo de esta tecnología en los hábitos de búsqueda de información y de investigación de los estudiantes. Para brindar un apoyo adecuado, los bibliotecarios deben estar capacitados en el uso de estas herramientas, de manera que puedan asesorar a los estudiantes sobre cómo evaluar críticamente los resultados de la IA e incorporarlos de manera efectiva en sus investigaciones.

Tomado de Universo abierto

viernes, 21 de junio de 2024

Enseñando matemáticas a mi asistente educativo de inteligencia artificial

 Por José Javier Salas tomado de EDUBITS

En este artículo deseo compartir algunas reflexiones sobre las potencialidades de la Inteligencia Artificial (IA) en la educación. Me di a la tarea de contrastar algunas prácticas cotidianas de nuestro sistema educativo actual utilizando BearlyAi, un asistente de IA basado en ChatGPT que sirve como apoyo para la creación de contenido en diferentes formatos tanto en texto como en video. Recordemos que en el mercado ya existen varios asistentes virtuales basados en IA que podemos utilizar, los principales competidores en el mercado son Copilot de Microsoft, Bard de Google, ChatGPT de Open AI. También, existen otros chatbots más especializados, aquí puedes consultar los Top AI Chatbots en el mercado (Hines, 2023), algunos son gratuitos y otros manejan planes de pago. Sin embargo, para esta experiencia quise explorar BearlyAi a fin de poner en práctica algunas actividades educativas que a continuación les comparto.

Si eres nuevo utilizando herramientas de IA o ya tienes experiencia, no está de más recordarte que debemos de ser muy críticos y cuestionar la información que nos arroje este tipo de herramientas. Nunca debe ser nuestra única fuente de consulta ya que la información puede ser errónea. A mi entender, la idea básica de un chatbot basado en IA es que, cuanto más se use más aprende. Pero ¿cuál es la noción de aprendizaje para un chatbot, puede BearlyAi realmente aprender? Sobre ello, la misma inteligencia artificial nos responde:

“Soy un asistente de inteligencia artificial basado en ChatGPT, alimentado con una gran cantidad de datos y modelos de lenguaje pre-entrenados. No tengo capacidad para «aprender» en el sentido tradicional, como lo haría un ser humano. Sin embargo, a medida que interactúo con los usuarios y recibo información nueva, puedo ajustar mis respuestas y mejorar mi desempeño en términos de la calidad y precisión de las respuestas que brindo. Así que, en cierto sentido, puedo «aprender» en cuanto a mejorar mi eficacia en la comunicación a medida que gano más experiencia”.

De cierta manera, BearlyAI nos indica que efectivamente no lo sabe todo, pero que la eficacia de sus respuestas mejorará conforme obtenga más interacciones y “experiencia”.

¿Herramientas de IA como asistentes educativos?

Para explorar la utilidad de BearlyAI en mis actividades docentes como profesor de matemáticas, le formulé un par de preguntas en las cuales la inteligencia artificial fallóquiere decir que me dio respuestas equivocadas. Le consulté dos problemas de matemáticas de nivel primaria:

  • ¿Cuál es el número más pequeño formado por 4 dígitos diferentes no consecutivos? Los niños con conocimientos sobre el valor de la posición de los dígitos hasta la unidad de mil pueden responder. Estudiantes de tercer grado de primaria, de 9 a 10 años.
  • ¿Cuál es el menor múltiplo impar de 81? Para resolver este problema es necesario tener la noción del múltiplo. Estudiantes de sexto grado de primaria, de 11-12 años.

En la primera pregunta, BearlyAI se equivocó cuatro veces, luego de cada respuesta errada y al indicarle el motivo de su error, BearlyAI mejoraba su argumento, acá les muestro el resumen de nuestra conversación:

BearlyAI: “Por lo tanto, el número más pequeño formado por 4 dígitos diferentes no consecutivos es 0123”.

YO: “no, no puede ser 0123 porque los dígitos son consecutivos”

BearlyAI: “Por lo tanto, el número más pequeño formado por 4 dígitos diferentes no consecutivos es 0123” (repitió la misma respuesta anterior).

YO: “me estás repitiendo la misma respuesta … sigue estando mal”

BearlyAI: “Por lo tanto, el número más pequeño formado por 4 dígitos diferentes no consecutivos sería 1357” (mejoró su respuesta).

YO: Mejor, aunque sigue estando mal, hay números de cuatro dígitos más pequeños… ¿por qué te equivocaste en las dos respuestas anteriores?

BearlyAI: “Lamento las respuestas incorrectas anteriores. Como asistente de inteligencia artificial, mi conocimiento se basa en una amplia gama de datos y patrones previamente procesados. En ocasiones, puedo cometer errores en la interpretación o aplicación de la información debido a la complejidad de algunas consultas.

En este caso particular, cometí errores al no considerar correctamente la restricción de los dígitos consecutivos al formar el número más pequeño. Agradezco tu paciencia y comprensión, y tomaré esto como una oportunidad para mejorar y aprender de mis errores. Por lo tanto, el número más pequeño formado por 4 dígitos diferentes no consecutivos es 1023”. (casi llega a la respuesta correcta).

YO: “casi das con la respuesta correcta, recuerda que 2 y 3 son consecutivos”

BearlyAI: “Por lo tanto, el número más pequeño formado por 4 dígitos diferentes no consecutivos es 1024”. (finalmente la opción correcta).

¿Qué implica la secuencia anterior y por qué estamos ante una nueva era?

El chatbot logró ajustar su base de datos, alineó sus interpretaciones, logró reconocer los motivos de sus primeros cuatro fracasos (lo que llamarían los seres humanos hacer metacognición)En términos prácticos, “aprendió”, no volverá a errar y extenderá sus aprendizajes a situaciones similares.

No significa que sea infalible. Tampoco significa que su base de datos sea definitiva o tenga toda la información que el ser humano ha creado en más de 4000 años de evolución. Lo sí es seguro es que, diariamente se alimenta de datos que son sometidos a escrutinios, lo cual le ayuda a refinar sus condiciones para ofrecer mejores respuestas. Dado que miles, quizá millones de personas lo usan, sus posibilidades son infinitas.

Además, si complicamos la pregunta, aumentando el número de dígitos veremos que la IA responde correctamente, no tiene posibilidades de desaprender ni de olvidar. Este enunciado es más importante para BearlyAI que todos los reactivos donde ya tiene respuestas parametrizadas correctamente.

En cuanto a la segunda pregunta: ¿Cuál es el menor múltiplo impar de 81?

BearlyAI: “Para encontrar el menor múltiplo impar de 81, podemos empezar probando con los primeros números impares: 1, 3, 5, 7, etc. Vamos a verificar si cada número es un múltiplo de 81”.

BearlyAI: “El número 1 no es múltiplo de 81. Probemos con el número 3: 81 / 3 = 27”.

BearlyAI: “El número 3 es un múltiplo de 81. Sin embargo, es un número par, no impar. Siguiendo la secuencia de números impares, podemos probar el número 5: 81 / 5 = 16.2”.

BearlyAI: “El número 5 no es un múltiplo exacto de 81. Continuando así, llegamos al número 9: 81 / 9 = 9”.

BearlyAI: “El número 9 es un múltiplo de 81 y también es impar”.

BearlyAI: “Por lo tanto, el menor múltiplo impar de 81 es 9”.

YO: “Cuidado… 3 y 9 no son múltiplos, son divisores de 81”.

BearlyAI: “Mis disculpas por la confusión. Tienes razón, 9 no es un múltiplo de 81, es un divisor de 81. Permíteme corregir mi respuesta”.

BearlyAI: “Para encontrar el menor múltiplo impar de 81, podemos comenzar probando con los primeros múltiplos impares. Para ello, vamos a multiplicar 81 por diferentes números impares hasta encontrar el primer múltiplo”.

BearlyAI: “Empezando por el número impar más pequeño, que es 3, vamos a multiplicarlo por 81: 3 * 81 = 243”.

BearlyAI: “El resultado, 243, es impar, pero no es el menor múltiplo impar de 81. Siguiendo con el siguiente número impar, que es 5: 5 * 81 = 405”.

BearlyAI: “El resultado, 405, es un múltiplo impar de 81. Por lo tanto, el menor múltiplo impar de 81 es 405”.

YO: “aún tienes un error… ¿por qué 81 no es la respuesta correcta?”

BearlyAI: “La respuesta correcta es que no existe un múltiplo impar de 81. Esto se debe a que 81 es un número impar en sí mismo y por lo tanto, cualquier múltiplo de 81 también será impar. No hay un número impar más pequeño que sea múltiplo de 81”.

YO: “recuerda la definición de múltiplo… dime los primeros 3 múltiplos de 81”.

BearlyAI: “Mis disculpas por la confusión anterior. Para obtener los primeros tres múltiplos de 81, podemos multiplicar 81 por diferentes números naturales”.

Los primeros tres múltiplos de 81 son:

1. 81 * 1 = 81

2. 81 * 2 = 162

3. 81 * 3 = 243

YO: “¿Cuál de los tres resultados anteriores corresponde con ser el múltiplo impar más pequeño de 81?”

BearlyAI: De los tres resultados anteriores, el único resultado que corresponde con ser el múltiplo impar más pequeño de 81 es 81.

Como podemos observar, BearlyAI se comporta de forma muy similar a lo que hace un niño, da respuestas, contrasta con nuestras observaciones, refina, ajusta y produce una nueva respuesta. Acá la principal debilidad de la Inteligencia Artificial fue la confusión entre divisor y múltiplo lo que produjo los errores en su lógica.

¡Nuestra función como docentes de matemáticas ha cambiado!

Los argumentos actuales sobre la falta de precisión o veracidad de las respuestas de los asistentes virtuales basados en IA serán borrados con el pasar de los años. Esto nos lleva a una situación en la que la Inteligencia Artificial sí ofrecerá las respuestas correctas en muchos campos de actuación del ser humano.

¿Nos estamos preparando para eso? ¿Estamos proyectando un futuro donde no tengamos el protagonismo como expertos?

La respuesta sencilla es No. No estamos considerando que la Inteligencia Artificial puede convertirse en el experto y en la primera opción de consulta del ser humano. Simplemente, estamos disfrutando del uso y consumo de sus servicios, al mismo tiempo que se robustece para darnos más y mejores respuestas.

Sus potencialidades son infinitamente mayores, su capacidad para refinar respuestas y adecuar su base de datos le permitirá en el corto plazo ser el experto ideal en muchos campos del saber. Entonces, ¿cuál será el papel del profesor de matemáticas si la IA ofrecerá respuestas correctas en tiempo real? Sobre ello, vale la pena leer el artículo “El mayor experto en IA aclara cuál será la única profesión que seguirá existiendo siempre” de García (2023), donde se afirma que la carrera docente no está en riesgo, no obstante, el papel del docente será muy diferente al actual. Con esto, volvemos a la pregunta inicial del artículo ¿nuestro sistema educativo está preparado?

Muchas apps como PhotoMath o Google Lens son capaces de reconocer patrones o preguntas típicas que formulan los docentes de matemáticas y ofrecernos respuestas correctas (con detalles sobre su resolución) o portales con información (vídeos o páginas) que orientan sobre el tema. Estos patrones repetitivos de preguntas son prácticamente iguales en todo el mundo, se formulan las mismas cuestiones y se privilegia el resultado en lugar del análisis del procedimiento, lo cual facilita el trabajo de la Inteligencia Artificial.

Asimismo, las aplicaciones móviles o digitales también pueden responder por los estudiantes ya que los programadores de dichas aplicaciones identificaron estos patrones monótonos y frecuentes; ajustando la mirada de sus programas para responder en consecuencia. En pocas palabras, la costumbre por simplificar las preguntas, describiendo ejercicios modelo, o ejercicios tipo examen, ha facilitado el trabajo de las IA. Así pues, tenemos que combatir la costumbre de simplificar la formulación de reactivos o preguntas, al mismo tiempo que favorecemos la reflexión y análisis creando argumentos sólidos que pueden tener su fase germinal en respuestas de la Inteligencia Artificial.

Hoy en día, las aplicaciones ofrecen muchas respuestas erradas, pero eso cambiará, con la fusión de la IA, depurarán sus formas de dar soluciones y servicios adecuados a sus usuarios.

Los profesores de matemáticas y ciencias exactas deben ser los primeros en preocuparse y ocuparse de esto. Su condición de “expertos» será progresivamente sustituida por la Inteligencia Artificial. Tenemos que darle la vuelta a nuestra función docente: en lugar de enseñar a resolver ejercicios de matemáticas necesitamos asumir la responsabilidad de experto en didáctica de las matemáticas.

Los docentes de Humanidades son los más favorecidos, la IA no ofrecerá una respuesta completamente válida o errada; usualmente en literatura, historia, ciencias políticas etc., no encontramos respuestas absolutas, por el contrario, son los grises los que hacen del ser humano importante para seleccionar la tonalidad más adecuada en función de su escala de valores y principios

¿Qué tenemos que hacer para integrar favorablemente las herramientas de IA en la educación?

Cambiar nuestra forma de cuestionar, de preguntar, elevar los niveles de producción de las respuestas, así como también promover la argumentación y el análisis crítico. El énfasis en la resolución de operaciones y la memoria es errado, ninguna de las dos habilidades será necesaria, la IA, ofrecerá siempre respuestas correctas de manera inmediata.

La Inteligencia Artificial reduce el tiempo de análisis y reflexión, optimiza los tiempos, podemos afirmar también que el usuario puede dejar de pensar por sí mismo y repetir las respuestas correctas del software. En muchas situaciones debería ser más importante el proceso de análisis, reflexión, presentación y defensa de una respuesta válida que la respuesta en sí misma.

Evidentemente, se puede aprender de la lectura de las respuestas correctas, pero la calidad del aprendizaje sin duda es menor, la riqueza que da el proceso de refinamiento de respuestas a nivel cognitivo se pierde y con ello la oportunidad para elevar nuestras habilidades de razonamiento.

La Inteligencia Artificial supera ampliamente nuestra rapidez de cálculo y nuestra capacidad de memoria. No podemos ganarle haciendo cuentas ni memorizando información. Sin embargo, muchos docentes siguen perdiendo tiempo en actividades orientadas a tal fin. Seguimos anclados en un pasado anacrónico.

Como docente te invito a generar conciencia, a establecer círculos de reflexión y análisis con tus colegas. Hay que pensar mucho sobre ¿qué? y ¿cómo? orientar nuestra acción docente.

La principal habilidad del ser humano en la que podemos y tenemos que ganar a cualquier Inteligencia Artificial es el pensamiento crítico y analítico sustentado por valores y principios. Considero que ahí está el verdadero aprendizaje. Urge dejar de ver la malla curricular como una lista del supermercado en lugar de un horizonte de posibilidades.

Necesitamos orientar a nuestros docentes hacia un futuro cada vez más próximo, el proceso de adaptación y actualización debe ser urgente e intenso. Prohibir el uso de las AI será inútil, el ser humano siempre buscará optimizar sus tiempos de respuesta y calidad de estas; ambas fortalezas de las Inteligencias Artificiales.

Nuestra habilidad por ser más sagaces aprovechando sus fortalezas, evitando la pérdida de la calidad del proceso de aprendizaje será lo que nos distinga como docentes. ¡El futuro llegó y no está esperando!

Gracias por llegar hasta el final…

Acerca del autor

José Javier Salas (jsalas@ucab.edu.ve) es licenciado en Educación en Física y Matemáticas, Máster en Matemáticas Puras, Doctor en Ciencias (Matemáticas Computacionales). Tiene más de 25 años de experiencia. Actualmente coordina proyectos especiales para la Escuela de Educación de la Universidad Católica Andrés Bello en Caracas. Es autor del libro Taxonomía PEG de las TIC: Más de 300 alternativas digitales para potenciar la innovación educativa (2023). Recientemente trabaja en alternativas digitales para la inclusión de niños con espectro autista. Redes sociales profesionales @jjaviersalas en Twitter o X y jjsg2022ve en Instagram.

Referencias

BBC News Mundo. (2023, 27 de septiembre). 25 años de Google: 4 hitos y 2 controversias en la historia del buscador de internet más usado en el mundo, Redacción, BBC News Mundo, https://www.bbc.com/mundo/articles/cq58rr885l2o#:~:text=Ese%20fue%20uno%20de%20varios,27%20de%20septiembre%20de%201998

García, E. (2023, 12, agosto). El mayor experto en IA aclara cuál será la única profesión que seguirá existiendo siempre. La Vanguardia.    https://www.lavanguardia.com/andro4all/tecnologia/el-mayor-experto-en-ia-aclara-cual-sera-la-unica-profesion-que-seguira-existiendo-siempre

Granero, M. (2023, March 16). Bearly Ai: La aplicación de inteligencia artificial para leer, escribir y aprender más rápido. Retrieved from https://yeswelab.com/blogs/aplicaciones-de-la-inteligencia-artificial/bearly-ai-aplicacion-inteligencia-artificial

Granero, M. (2023, 23, noviembre) ¿Qué es la Inteligencia Artificial y para qué sirve? Yermelab: El Laboratorio Digital  IA, Automatización y Monetización https://yeswelab.com/pages/que-es-la-inteligencia-artificial-y-para-que-sirve

Hines, K. (2023, December 21). Scalable AI tools for SEO: A quick guide for 2024. Search Engine Journal. Retrieved from https://www.searchenginejournal.com

Salas, J. (2020). Taxonomía PEG de las TIC: Más de 200 alternativas digitales organizadas para el Sistema Educativo Venezolano. UCAB. http://biblioteca2.ucab.edu.ve/anexos/biblioteca/marc/texto/AAV1919.pdf

Salas, J. (2023). Taxonomía PEG de las TIC: Más de 300 alternativas digitales para potenciar la innovación educativa. Generis Publishing. https://www.generis-publishing.com/book.php?title=taxonoma-peg-de-las-tic-ms-de-300-alternativas-digitales-para-potenciar-la-innovacin-educativa-1363

Tomado de EDUBITS del Tec de Monterrey