miércoles, 15 de mayo de 2024

Novedades en ChatGPT: la que se avecina

 Por Ramón Besonias



Novedades del evento de OpenAI (13 de mayo de 2024)

GPT-4 gratis, incluido GPTs, que serán públicos. Todo docente y alumno podrá usar (no crear) GPTs. Gran noticia. Podremos ofrecer al alumnado asistentes para el trabajo de aula y que ellos los creen para aprender. Era algo que esperaba hace tiempo porque no poder compartir GPTs limitaba el potencial de trabajo. Por ejemplo, hace tiempo creé un GPT para asistir a los alumnos acerca de la EBAU de Filosofía en Extremadura. En unas semanas podrán utilizarlo. O un GPT de asistencia de contenidos de mi área.  

GPT-4o de pago (sustituye al actual GPT-4): multimodal. Texto, audio y vídeo. Más rápido y eficiente. 5 veces más uso que la versión gratis. La multimodalidad, cuando esté afinada, será brutal. No solo leerá como hasta ahora, hablará y verá, interactuando contigo. Te ofrece 80 mensajes cada 3 horas. 

Asistente de voz en tiempo real. Rápido, sin apenas latencia. Crea una conversación natural con la IA. Incluso canta. Pero lo más interesante es que es capaz de realizar traducciones en varios idiomas de forma simultánea

Vídeo a través de tu cámara del móvil en tiempo real: el asistente interactúa contigo, analizando lo que le pidas. Increíble para aprender. Existen ya pruebas de usuarios en YouTube que te dejan con la boca abierta. La interacción es natural, entiende contexto, matices, subjetividad. Y contesta con fluidez. 

Escritorio con visión. Ve lo que haces en el ordenador y te va ayudando en lo que pidas a través de voz. Como si tuvieras un profesor al lado. Otra función increíble. Imagina las utilidades educativas. La idea será sin duda que las IA interactúen en las actividades humanas, ayudando en el ámbito personal y profesional. Como un Siri o Alexa con esteroides. Ya no será necesario entrar en decenas de aplicaciones. Una integración con tareas de escritorio que sin duda le hará competencia a Google, que mañana abre su evento de novedades.


Mientras escuchaba este evento, me imaginaba el impacto que tendrá en unos años sobre las rutinas de ocio, formación y trabajo

El impacto en los alumnos será brutal. Cuando lo tengan en los móviles, la oralidad será más de lo que hoy lo es el lenguaje hegemónico. Ver y oír, interactuar con IA para estudiar o crear trabajos, repasar, mejorar contenidos en tiempo real. Los GPTs será lo primero que usarán en el aula. Y es esencial que les enseñemos a usarlos de forma creativa y eficaz. Tener todos los contenidos de área en un asistente y solicitar resúmenes, análisis, estructuras, mejoras de redacción... estará a la orden del día. El reto será trasladar eso a modelos de evaluación realmente competenciales, que generen aprendizaje y no una mera reproducción

Sin duda, en septiembre, si ya están disponible para todo el mundo los GPTs gratuitos, abriré talleres en mi centro para alumnos y docentes. Debemos adelantarnos a la ola, que sepan usarlo con criterio, conocimiento y ética.




Os invito a ver y escuchar este vídeo en el que un padre y su hijo hacen que Chat GPT interactúe mientras intentan resolver un problema de matemáticas. La IA ve el problema, escucha al niño y le va ayudando a resolver, facilitando la comprensión. Todo ello desde una tablet, con la voz y un pencil. Un ejemplo de una de los múltiples usos educativos de este nuevo modelo. 

Si entráis en la web de OpenAI, os irán informando. Y si vais probando, comprobaréis poco a poco las implementaciones:

  • Analizar vídeos. Aún en prueba. 
  • Crear audios a partir de vídeos. Probado. Lo hace bien, pero no traduce.
  • Crear imágenes 3D a partir de imágenes 2D.
  • Tipografías creativas.
  • Resúmenes de vídeos largos.
  • Mejora en la inserción de texto en la creación imágenes. Antes lo hacía mal. Se inventaba los textos.
  • Textos en formas diversas (caligramas).
  • Mejoras en matemáticas. 
  • Mayor precisión en las descripciones.
  • ...
Tomado de IA educativa

martes, 14 de mayo de 2024

1500 recomendaciones: un libro digital infinito

 Por Carlos Bravo Reyes

Las recomendaciones diarias es un proyecto personal que surge a raíz del aislamiento en nuestras casas que todos sufrimos durante la época del COVID. Todos los sectores de la sociedad de una manera u otra debieron adaptarse a las circunstancias. En el campo de la educación también tuvimos que romper muchos esquemas y pasar de la presencialidad a la distancia. Como profesor del campo de la tecnología educativa, muchos profesores y estudiantes me preguntaban cómo hacer una videoconferencia, o cuál programa emplear para editar un video, una imagen, como convertir un documento PDF y así muchas preguntas que no siempre tenían respuestas.

Fue ante esa cantidad de preguntas y tratando de ayudar a otros, que, en unión con mis estudiantes de tecnología educativa, nos dimos a la tarea de organizar diferentes actividades de capacitación. De ese modo creamos varios Wooc (WhatsApp Open Online), diferentes videoconferencias, transmitidas en directo en Facebook y YouTube, entre otras formas. Pero muchas de estas tuvieron como base las recomendaciones diarias.

Primera recomendación

Las recomendaciones se iniciaron el 31 de marzo del 2020, pocos días después que Bolivia y muchos otros países de Latinoamérica ingresaron a la cuarentena obligatoria. En un inicio las recomendaciones estaban dirigidas a consejos sobre el empleo de las redes, al ahorro de datos, a evitar cadenas de mensajes, entre otras más. Fue después del primer mes cuando empecé a comentar sobre diferentes sitios, redes y programas de utilidad para la actividad pedagógica.

En esa fecha es que se empezó a tomar claridad que el confinamiento no era de una semana, ni un mes, sino de largo tiempo. Los profesores empezaron a preguntar sobre muchas herramientas y parte de las respuestas empezaron a desarrollarse en las recomendaciones diarias. 

Las recomendaciones tienen el objetivo de recomendar un programa de escritorio, una aplicación para celular, un editor en línea de documentos o elementos de diferente tipo. También recomiendan repositorios de imágenes, videos, audio, libros, entre otros muchos tipos. Es frecuente referirme a aplicaciones de todo género, en especial aquellas referidas a la inteligencia artificial. Es imposible englobarlas en una sola categoría, son muchas las que recomendamos.

Un libro digital infinito.

Cuando estaba por arribar a las primeras 100, algunos amigos y mis propios estudiantes con los que siempre probamos muchos de los programas me dieron la idea de recopilarlas en un libro digital. Así surge la primera edición publicada 100 días después de la primera recomendación, justamente el 11 de julio del 2020. Siguieron otras ediciones hasta llegar a la 23.ª recientemente. Cada 500 recomendaciones creamos un tomo nuevo, en esta última estamos cerrando el tomo III. Los libros tienen las imágenes de las recomendaciones, dos categorías que enmarcan a cada una, más la dirección web. También cuentan con un índice y un grupo de palabras claves.

Portada de la última edición

Las recomendaciones no guardan un orden específico y muy rara vez una sigue a la siguiente. Tomamos en cuenta para la selección que el programa, el sitio, la aplicación sea útil, fácil de emplear, o que todas o algunas de sus utilidades sean gratuitas. No tenemos relación comercial ni de otro tipo con los sitios y aplicaciones recomendadas. Puede darse el caso que al cabo de un tiempo algunos sitios no sean accesible o que cambien su nivel de gratuidad.


El concepto de infinito tiene que ver con que el libro tiene inicio, pero hasta el momento no cuenta con un final. Los libros forman parte de la bibliografía de diferentes maestrías y doctorados en el campo de la tecnología educativa, además ser parte del “maletín digital” para profesores en algunos países latinoamericanos. Un caso es el del Ministerio de educación de Panamá, que desde las primeras ediciones lo incluyó en dicho maletín. Los tomos se han descargado unas 19 000 veces, pero no incluye otras descargas desde diferentes repositorios que cada profesor o institución tiene. Todas las ediciones se publican con una licencia Creative Commons de reconocimiento y compartir Igual.

La última edición se puede descargar desde este enlace

El tomo I con las primeras 500 se descarga desde aquí

El tomo II con las recomendaciones de la 501 a la 999 se descarga desde aquí

Tomado de 366 días 

lunes, 13 de mayo de 2024

Declaración de Barcelona. Los investigadores necesitan bases de datos bibliográficas «abiertas»

 Tomado de Universo Abierto

Barcelona Declaration on Open Research Information

Español

Los investigadores necesitan bases de datos bibliográficas «abiertas», según una nueva declaración Las principales plataformas, como Web of Science, ampliamente utilizadas para generar métricas y evaluar a los investigadores, están protegidas por derechos de propiedad intelectual.


Cuando las universidades están decidiendo a quién contratar y promocionar, o cuando las organizaciones de financiamiento están seleccionando proyectos para financiar, es muy probable que estén consultando más que solo los materiales de solicitud. Muchas organizaciones confían en bases de datos que recopilan información sobre publicaciones, incluidos autores, afiliaciones, citas y fuentes de financiamiento, para crear métricas destinadas a cuantificar la productividad de un investigador y la calidad de su trabajo.

Algunas de las bases de datos más conocidas, como Web of Science y Scopus, son propietarias y ofrecen datos y servicios de acceso pago que respaldan estas y otras métricas, incluidos los rankings universitarios y los factores de impacto de las revistas. Pero en una declaración publicada hoy, más de 30 organizaciones de investigación y financiamiento llaman a la comunidad a comprometerse con plataformas que, en cambio, sean gratuitas para todos, más transparentes sobre sus métodos y sin restricciones sobre cómo se puede utilizar los datos.

La Declaración de Barcelona sobre la Información de Investigación Abierta afirma que «en un momento en que la toma de decisiones en ciencia está cada vez más guiada por indicadores y análisis, abordar los problemas de la información de investigación cerrada debe ser una prioridad absoluta». Los firmantes hasta ahora incluyen a financiadores como la Fundación Bill y Melinda Gates y la Agencia Nacional de Investigación de Francia, así como a más de una docena de instituciones académicas.

La Universidad de la Sorbona, que canceló su suscripción a Web of Science el año pasado y cambió a una plataforma más nueva y abierta llamada OpenAlex, dijo en un comunicado que “al firmar la Declaración, queremos demostrar que no solo este movimiento hacia la información de investigación abierta debería ser un objetivo, sino que también se puede lograr”. El cambio puede ayudar a remediar el enfoque de las bases de datos existentes en las revistas en inglés, dicen los defensores. También podría ayudar a mejorar “la circulación del conocimiento científico y local producido en diferentes idiomas, formatos y en diferentes regiones geográficas”, dice otro signatario, el Consejo Latinoamericano de Ciencias Sociales a través del Foro Latinoamericano para la Evaluación Científica.

Jason Portenoy, ingeniero de datos senior en OurResearch, reconoce esta necesidad de aporte de la comunidad, diciendo que es comprensible que las instituciones puedan dudar en volver a hacer el trabajo. “Pero la diferencia es que con OpenAlex, está sucediendo de manera abierta”, dice. Cualquier brecha en la calidad de los datos se está cerrando rápidamente, agrega Jason Priem, CEO de OurResearch. “OpenAlex está evolucionando muy rápidamente, y a menudo los problemas descubiertos por nuestra comunidad se solucionan en unos pocos meses”. Cuando uno de los coordinadores de la declaración, Ludo Waltman, director científico del Centro de Estudios de Ciencia y Tecnología en la Universidad de Leiden, y colegas recientemente usaron OpenAlex para clasificar más de 1400 universidades en todo el mundo, concluyeron que, aunque necesita mejorar, el enfoque produjo “datos de calidad sorprendentemente buenos”.

Daniel Hook, CEO de Digital Science, que opera la base de datos propietaria Dimensions, acoge esta idea. (Dimensions ya ofrece una versión gratuita para uso no comercial, aunque los usuarios deben suscribirse para acceder a todas las funciones). Sin embargo, Hook dice que tal transición llevará tiempo. Las bases de datos propietarias necesitan recuperar los costos de establecer, mejorar y mantener conjuntos de datos tan grandes, un desafío que los equivalentes abiertos como OpenAlex también podrían enfrentar a largo plazo.

La declaración es un «excelente desarrollo», dice Elizabeth Gadd, experta en comunicaciones académicas y jefa de cultura e evaluación de investigación e innovación en la Universidad de Loughborough, que no estuvo involucrada en su preparación. “Muchas organizaciones han hecho compromisos públicos con prácticas de investigación abierta pero continúan utilizando fuentes de datos bibliográficos cerradas y comerciales para análisis de investigación”. El anuncio debería “estimular a una gama más amplia de organizaciones a ‘poner su dinero donde está su boca’”.

Con ese fin, los partidarios de la declaración esperan establecer una Coalición para la Información de Investigación Abierta para planificar los próximos pasos, dice la coordinadora Bianca Kramer, experta en comunicaciones académicas de la consultora Sesame Open Science. “Queremos facilitar que las organizaciones trabajen hacia esa transición, entre otras cosas, beneficiándose de la experiencia de los demás y explorando la acción colectiva”.

COMPROMISOS


1 – Haremos que la apertura sea la norma para la información de investigación que utilizamos y producimos

  • La apertura será la norma para la información sobre investigación que utilizamos, por ejemplo, para evaluar a investigadores e instituciones, apoyar la toma de decisiones estratégicas y encontrar resultados de investigación relevantes.
  • La apertura será la norma para la información de investigación que produzcamos, por ejemplo, la información sobre nuestras actividades y resultados, con excepción de la información cuya apertura sería inapropiada (‘tan abierta como sea posible y tan
    cerrada como sea necesario’


2. – Trabajaremos con servicios y sistemas que apoyen y hagan posible
la información abierta sobre investigación

  • En cuanto a los servicios y plataformas de publicación, requeriremos que la información de investigación generada en los procesos de publicación (por ejemplo, metadatos de artículos de investigación y otros resultados) esté disponible de forma abierta a través de infraestructuras académicas abiertas, utilizando protocolos e identificadores estándar cuando estén disponibles.
  • En el caso de los sistemas y plataformas para la gestión interna de la información de investigación (por ejemplo, los actuales sistemas de información de investigación), requeriremos que toda la información de investigación pertinente pueda exportarse y hacerse abierta, utilizando protocolos e identificadores estándares cuando estén disponibles.


3. Apoyaremos la sostenibilidad de las infraestructuras para la información abierta sobre investigación

  • Asumimos la responsabilidad de apoyar infraestructuras para la información abierta sobre investigación, por ejemplo participando en la creación de comunidades y en la gobernanza de las mismas y aportando contribuciones justas y equitativas a la estabilidad financiera y al desarrollo de estas infraestructuras.
  • Esperamos que las infraestructuras que apoyamos apliquen buenas prácticas
    de gobernanza comunitaria y sostenibilidad (por ejemplo, los Principios de la
    Infraestructura Académica Abierta).


4. Apoyaremos actuaciones colectivas para acelerar la transición hacia la apertura de la información sobre investigación

  • Reconocemos la importancia de compartir experiencias y coordinar acciones para promover en todo el sistema la transición de cerrada a abierta de la información de investigación.
  • Para facilitarlo, apoyamos la creación de una Coalición para la Información
    Abierta sobre Investigación y el refuerzo de la colaboración con otras iniciativas y organizaciones afines.

viernes, 10 de mayo de 2024

¿Cómo cuidar la integridad académica en proyectos prácticos con IA?

 Por Rosa María Morales de EDUBITS de Tec de Monterrey

En mi clase de Econometría que imparto a estudiantes de sexto semestre de economía en la Universidad de Monterrey, incorporé herramientas de Inteligencia Artificial (IA) en la elaboración de proyectos empíricos estudiantiles enfatizando en la integridad académica. Las normas de integridad académica de la institución se describen en el programa de estudios de cada curso y pueden ser resumidas como: no copiar textualmente información de otras publicaciones, acreditar las fuentes de las citas, no copiar el trabajo de otros estudiantes, prescindir de la comunicación entre los equipos para realizar el trabajo propio, y utilizar herramientas de IA solo cuando es autorizado, especificando la forma en la que fue utilizada. En este artículo describo los resultados de una actividad de investigación realizada por los estudiantes con la cual se espera desarrollen competencias para la resolución de problemas prácticos y la comunicación de resultados a través de un proyecto empírico.

Proyectos de modelos predictivos con IA enfatizando en la integridad académica

En economía, un proyecto empírico implica la realización de una investigación con información observable y verificable. Algunos ejemplos de proyectos empíricos pueden ser: 1) La evolución de la contaminación en la ciudad de Monterrey y la Ciudad de México en el periodo 1990-2022; 2) Co-movimientos en el precio del acero y el cobre a través del tiempo; o 3) Predicción del precio de la acción de una empresa en particular, por mencionar algunos. Esta información puede provenir de una base de datos, una encuesta o de un experimento. Dado que el curso implica series temporales, los datos son observaciones de una o más variables a través del tiempo, esta información es de utilidad para estudiar hechos a través del tiempo, hacer predicciones y elaborar políticas públicas a corto, mediano o largo plazo que permitan solucionar un problema en alguna región o país.

El proyecto de la clase consiste en realizar una investigación sobre un tema de economía, finanzas, socio-demografía o cuestiones ambientales en México o en cualquier otro país, que intente responder a una pregunta usando datos reales. La investigación se realiza en tres etapas siguiendo la estructura general descrita por Wooldridge (2015).

  1. Fase 1. Se elige el tema, se define el problema a resolver y se plantea la pregunta de investigación.
  2. Etapa empírica (fases 2 y 3). Las y los estudiantes utilizan un software econométrico para programar y así limpiar las bases de datos, crear variables, hacer estadísticas, así como estimar modelos econométricos o hacer predicciones.
  3. Fase 3. Presentación de resultados.

El trabajo se realiza en equipo usando la metodología de aprendizajes por proyectos. Los estudiantes ponen en práctica conocimientos y técnicas aprendidas durante el semestre, comunicando los avances del proyecto con presentaciones y al cierre del semestre un reporte final de los resultados.

¿Cómo utilizar herramientas de IA en proyectos empíricos de economía?

Dado que el curso involucra aprendizajes para el procesamiento de datos, aplicación de técnicas estadísticas y econométricas, estimación de modelos y predicción de variables, es necesario el uso de programación a través de software econométricos. Durante el curso, se les enseña a los estudiantes a programar en un software específico (Stata). A lo largo del semestre, conocen diferentes códigos de programación que permiten ejecutar tareas como graficar, hacer estadísticas descriptivas, estimar un modelo, predecir variables, entre otros. Sin embargo, en el proceso de investigación los estudiantes se enfrentan a datos reales y encuentran retos que los llevan a necesitar otros códigos. La búsqueda de códigos de programación utilizando buscadores tradicionales podría llevar mucho tiempo y no siempre se encuentra la información requerida.

Quienes han programado en un software econométrico suelen tener dificultades en estas actividades debido a la naturaleza de los datos y la elección del modelo para estimar o predecir variables. Por ello, se pensó que utilizando herramientas de IA generativa podían solventar estas dificultadesIBM Education (2023) muestra los beneficios de usar IA generativa para programar. Observando este potencial y dada la problemática planteada, se sugirieron las siguientes herramientas. Algunas de ellas, proporcionan ventajas en la búsqueda de información, el ahorro de tiempo y la variedad de contenido que ofrecen al momento de editar y generar códigos.

Las herramientas propuestas fueron las siguientes:

  • Elicit: Es una herramienta de IA que sirve para buscar artículos científicos y analizarlos. Se puede usar para hacer revisión sobre estudios pertinentes al tema de estudio.
  • Perplexity: Es un chatbot para responder preguntas. Se utiliza para buscar información respecto a temas específicos, hacer resúmenes y códigos de programación.
  • ChatGPT: Al igual que Perplexity, es una herramienta de IA que sirve para responder preguntas, genera texto y además automatiza ciertas tareas.
  • AIciclopedya: Es un directorio de herramientas de IA que sugiere que herramientas de IA se pueden utilizar de acuerdo con las necesidades del usuario.

También, podrían utilizar otras herramientas de inteligencia artificial adicionales, siempre y cuando me lo hicieran saber.

Con el fin de observar la adopción de IA generativa de los estudiantes haciendo énfasis en la integridad académica, diseñé para mi clase, un formato de seguimiento de uso de herramientas de IA, ver Tabla 1. Si los estudiantes usaban IA generativa debían llenar el formato al entregar el manuscrito final.

Tabla 1. Resumen del formato de Seguimiento de uso de herramientas de Inteligencia Artificial. Fuente: Elaboración propia (2023).

Además del formato de seguimiento, diseñé tres materiales educativos para indicar a los estudiantes qué se esperaba en cada entregable e introducir el uso de herramientas de inteligencia artificial.

En el primer material educativo, les muestro a los estudiantes cómo plantear una pregunta de investigación con y sin las herramientas. También, doy indicaciones de cómo buscar un tema de investigación. Usando Perplexity ai, se le pregunta “¿Qué se puede investigar en México usando técnicas de series temporales?” La herramienta dio una serie de resultados y a partir de allí, los estudiantes fueron orientando su búsqueda de acuerdo con sus intereses.

En el segundo material educativo, les presento a los estudiantes un ejemplo de cómo se escribe la metodología de un proyecto empírico y adicionalmente, para ampliar su comprensión, buscan en ChatGPT o Perplexity AI cómo escribir la metodología de un proyecto empírico relacionado a series de tiempo.

En el tercer material educativo, les muestro cómo buscar y editar códigos de programación en ChatGPT y Perplexity AI. Esto permitió una minimización en los tiempos de búsqueda y una mejora en el tipo de información requerida.

Resultados

De un total de siete grupos, cinco adoptaron distintas herramientas de IA generativas en al menos una fase del proyecto empírico. Una vez adoptadas las herramientas y al final del curso, las y los estudiantes se mostraron con apertura, pero al mismo tiempo con precaución al uso que daban a las mismas. Ciertos equipos mencionaron que, si bien les ayudaban, tenían que mantener un pensamiento crítico en su uso. Algunos equipos manifestaron que se motivaron a buscar información confiable.

Por otro lado, las herramientas de inteligencia artificial sugirieron a los estudiantes algunos artículos para revisión de la literatura que no se encontraban en herramientas de búsqueda tradicionales. Estas sugerencias, los llevó a buscar los artículos en las bases de datos de la biblioteca de la universidad en la que estudian. Podemos observar que las herramientas de IA pueden motivar a las y los estudiantes a mejorar sus búsquedas de información usando fuentes confiables aumentando de esa forma la calidad de la revisión de la literatura y la discusión de los resultados. De igual forma, manifestaron que no pudieron acceder dentro de las mismas herramientas a los artículos sugeridos porque “muchos papers eran privados” y por lo tanto tuvieron que buscarlos en biblioteca. En cuanto a los códigos de programación, indicaron que el uso de la IA les ahorró tiempo y resolvió varias inquietudes que tenían.

A continuación, les comparto un resumen con las respuestas dadas por los equipos en el formato de seguimiento de uso de herramientas de IA:

Usos de las herramientas de IA por estudiantes

“Perplexity se utilizó para buscar papers con temas similares a lo que nosotros queríamos abordar, en algunos casos, solo nos daba los títulos y nosotros complementamos la búsqueda en la Biblioteca”.

“Usamos ChatGPT para la revisión de literatura, le preguntamos qué elementos nos recomendaría abordar, aunque al final nosotros modificamos su sugerencia y la adaptamos a nuestro proyecto”.

“Para saber qué decían los errores que nos aparecían en el software al momento de correr los comandos”.

“Conocer qué es lo que debe de incluir en una buena introducción, una buena revisión de la literatura y una buena conclusión”.

“La utilizamos para saber cómo redactar una metodología para nuestro trabajo. Su respuesta nos sirvió como guía para poder escribir los datos de nuestro trabajo de forma más ordenada, y brindando una descripción de las variables”.

“Realizamos las siguientes preguntas: 1) ¿cómo escribir la metodología de un proyecto empírico? y 2 ¿dónde puedo obtener datos de la producción industrial de Mex y USA?”.

    “La IA nos ayudó a conocer los códigos de programación necesarios para poder elaborar nuestro trabajo en Stata. Por ejemplo, nos indicó cómo crear una variable (Num) que nos permita separar nuestras variables en los dos periodos de tiempo que analizamos”.

    Una vez que leí las respuestas en el formato de seguimiento y revisé los proyectos, pude notar la transparencia de los estudiantes al notificar como habían usado las herramientas e incluso reportar herramientas que no habían sido sugeridas. Esto puede indicar que, si le damos seguimiento al uso de las herramientas de IA generativas en clase, es probable que las faltas a la integridad académica sean disminuidas. En los proyectos entregados, no detecté deshonestidad académica, por tanto, considero que sí es posible que los estudiantes actúen con honradez al usar inteligencia artificial. Por otra parte, noté que los estudiantes refuerzan lo aprendido en clase con las herramientas de IA al no conformarse con los materiales y orientaciones dadas en el aula y aprovechar estas herramientas para perfeccionar lo aprendido, es decir, usan las herramientas como complemento al aprendizaje obtenido en clase.

    En cuanto a la calidad de la información en la presentación del proyecto fue bastante alta. Las y los estudiantes manifestaron encontrar a través de herramientas de IA nuevas formas de presentar gráficamente la información de sus datos impactando la calidad visual del proyecto. De igual forma, se observó que lograron resolver problemas durante el proceso de elaboración del proyecto, adquiriendo esta competencia.

    Lograron solventar sus dudas e inquietudes a través de las herramientas de IA que habrían sido difícil de responder usando herramientas de búsqueda tradicionales. Esto les permitió mejorar la precisión de la información y de las afirmaciones realizadas. En general, más allá de los resultados académicos, es mi percepción que, se disminuyó la ansiedad de las y los estudiantes en la búsqueda de códigos de programación que les permitiese trabajar de forma particular con sus datos. Hubo una disminución en los errores de programación y en los tiempos de búsqueda.

    Reflexión

    Para finalizar, no dejo de pensar que la adopción de herramientas de IA en las aulas nos presenta muchos retos, pasando desde la integridad académica hasta los cuestionamientos de privacidad de los datos y de la veracidad de la información. Su incorporación en algunas asignaturas debe pasar por la reflexión previa del profesorado, ponderando los riesgos y las ganancias en su adopción. Introducir y permitir el uso de herramientas de IA en la realización de los proyectos empíricos estudiantiles de uno de mis cursos no fue una decisión fácil; sin embargo, luego de analizar cómo podía incorporarlas minimizando la probabilidad de las faltas de honestidad académica y basándome en un enfoque formativo de la integridad, tomé la decisión de que los estudiantes las pudiesen adoptar de forma opcional.

    La experiencia narrada tiene por supuesto sus limitaciones, existen oportunidades de mejora en su incorporación y por supuesto riesgos inherentes al uso de las herramientas de IA generativa. Las afirmaciones dadas en este artículo son muy específicas y están referidas a una sola experiencia con el formato y los materiales educativos creados exclusivamente para el proyecto empírico descrito previamente. Considero que debemos seguir investigando sobre las prácticas de aprendizajes con IA y así ponderar retos y beneficios de forma sistemática. La invitación es también a buscar protocolos que permitan afrontar los retos a los que nos enfrentamos cuando se implementa IA generativa en clase.

    Acerca de la autora

    Rosa María Morales Valera (rosa.moralesv@udem.edu) es académica de la Escuela de Negocios de la Universidad de Monterrey (UDEM), PhD en Economía por Claremont Graduate University (California, USA) y miembro del Sistema Nacional de Investigadores (SNI) de México. La autora es integrante del Consejo de Honor de la UDEM.

    Referencias

    Currie, G. M. (2023, May). Academic integrity and artificial intelligence: is ChatGPT hype, hero, or heresy? In Seminars in Nuclear Medicine. WB Saunders. https://doi.org/10.1053/j.semnuclmed.2023.04.00

    IBM Education (2023). AI code-generation software: What it is and how it works. https://www.ibm.com/blog/ai-code-generation/

    Moya, B., Eaton, S. E., Pethrick, H., Hayden, K. A., Brennan, R., Wiens, J., McDermott, B., & Lesage, J. (2023). Academic Integrity and Artificial Intelligence in Higher Education Contexts: A Rapid Scoping Review Protocol. Canadian Perspectives on Academic Integrity, 5(2), 59–75. https://journalhosting.ucalgary.ca/index.php/ai/article/view/75990.

    Ta, R & D. West. (2023) Should schools ban or integrate generative AI in the classroom? The Brooking Institution. https://www.brookings.edu/articles/should-schools-ban-or-integrate-generative-ai-in-the-classroom/

    Wooldridge, J. M. (2015). Introductory Econometrics: A Modern Approach. 6th ed.

    Tomado de EDUBITSdel Tec de Monterrey

    jueves, 9 de mayo de 2024

    Inteligencia Artificial: historia, construcción, modelos y lenguajes.

     Por Marvin Soto

    La historia de la inteligencia artificial (IA) se remonta a la mitad de siglo XX, con mitos y leyendas que hablan de seres artificiales con capacidades humanas.

    No obstante, el verdadero desarrollo de la IA como campo de estudio científico comenzó en la década de 1950, cuando Alan Turing, considerado uno de los padres de la computación, propuso lo que hoy conocemos como la “Prueba de Turing”, una prueba para evaluar la inteligencia de una máquina.

    En los años siguientes, se realizaron avances significativos en el campo de la IA. En la década de 1960, se fundaron los primeros laboratorios de IA en instituciones académicas como el MIT y Stanford, lo que impulsó aún más la investigación en este campo.

    Los hitos más importantes en la historia de la inteligencia artificial incluyen:

    • Fin de la Segunda Guerra Mundial: La guerra reunió a científicos de diversas disciplinas, incluyendo a pioneros de la IA como Alan Turing y Grey Walter, quienes comenzaron a explorar el desarrollo de máquinas inteligentes.
    • Prueba de Turing: En 1950, Alan Turing propuso una prueba para evaluar la inteligencia de una máquina, conocido como la “Prueba de Turing”.
    • Desarrollo de LISP: En 1958, se creó el lenguaje de programación LISP, ampliamente utilizado en la investigación de IA.
    • Fundación de laboratorios de IA: En la década de 1960, se establecieron los primeros laboratorios de IA en instituciones académicas como el MIT y Stanford, impulsando aún más la investigación en este campo.
    • Victoria de Deep Blue sobre Kasparov: En 1997, la computadora Deep Blue de IBM derrotó al campeón mundial de ajedrez Garry Kasparov, marcando un hito importante en el desarrollo de la IA.
    • Desarrollo de redes neuronales: En 2011, se produjeron avances significativos en la creación de redes neuronales, sentando las bases para el posterior desarrollo de sistemas de IA más avanzados.
    • Victoria de AlphaGo sobre Lee Sedol: En 2016, el sistema de IA AlphaGo, desarrollado por DeepMind, derrotó al campeón mundial de Go Lee Sedol, demostrando el potencial de la IA en juegos complejos.

    Estos hitos han sido fundamentales en el desarrollo y evolución de la inteligencia artificial a lo largo de la historia, sentando las bases para los avances actuales y futuros en este campo.

    La IA ha revolucionado la forma en que las empresas gestionan la información y extraen valor de las bases de datos. El uso de bases de datos en IA es fundamental para aprovechar el potencial de los datos en un entorno empresarial cambiante.

    Ahora bien, los procesos involucrados en la construcción de la Inteligencia Artificial incluyen:

    • Recopilación de datos: La IA se basa en datos, por lo que el primer paso es recopilar una gran cantidad de información relevante para el problema que se quiere resolver. Esta información comienza su masiva recolección cuando dejamos de ser consumidores de información en el ciberespacio y pasamos a ser prosumidores, es decir; producimos y consumimos contenidos. De estas masivas boronas digitales, y contenidos publicados en el ciberespacio surge la materia prima que se afinara mediante el procesamiento de datos.
    • Preprocesamiento de datos: Una vez recopilados los datos, son almacenados en pantanos de datos, a partir de los cuales es necesario limpiarlos, normalizarlos, etiquetarlos y prepararlos para su uso en los algoritmos de IA. Esto es, convertirlos en lagos de datos.
    • Selección de algoritmos: Existen diversos algoritmos de IA, como redes neuronales, algoritmos genéticos, máquinas de soporte vectorial, entre otros. Se debe seleccionar el algoritmo más adecuado en acuerdo con el problema específico a resolver.
    • Entrenamiento del modelo: Utilizando los datos recopilados y preprocesados, se entrena el modelo de IA para que pueda aprender patrones y realizar predicciones o tomar decisiones.
    • Evaluación y ajuste: Una vez entrenado el modelo, se evalúa su desempeño utilizando datos de prueba y se ajusta para mejorar su precisión y eficiencia. Además, se maneja un proceso continuo de aprendizaje a fin de depurar y lograr la máxima precisión del algoritmo.
    • Implementación y despliegue: Finalmente, el modelo de IA se implementa en un entorno de producción para que pueda ser utilizado en la resolución de problemas reales. Aquí es cuando ya son consumidos masivamente por usuarios o plataformas.

    La integración de la inteligencia artificial con las bases de datos permite automatizar procesos, mejorar el rendimiento en consultas y análisis de datos, así como fortalecer la seguridad al detectar patrones anómalos. Esta combinación es una tendencia en auge, ya que facilita el acceso a la inteligencia de negocio, brindando a la industria una ventaja competitiva significativa.

    Modelos avanzados de procesamiento de lenguaje natural como ChatGPT, Gemini, Copilot, etc., permiten a los usuarios interactuar con las bases de datos de manera intuitiva, simplificando consultas complejas y abriendo el acceso a más personas sin conocimientos técnicos.

    La evolución de las bases de datos hacia sistemas más flexibles y eficientes, como las bases de datos NoSQL, ha sido clave para manejar grandes volúmenes de datos no estructurados y optimizar la escalabilidad horizontal, lo que es fundamental para aplicaciones modernas que requieren alto rendimiento y flexibilidad en entornos distribuidos.

    Los LLM (Large Language Models) son modelos de aprendizaje automático que pueden comprender y generar texto humano, mientras que el ML (Machine Learning) es un campo más amplio que se enfoca en entrenar sistemas para aprender y hacer predicciones a partir de datos.

    Entendido en un orden, los LLM son una subcategoría específica de modelos de ML que se centran en el procesamiento del lenguaje natural, permitiendo a las máquinas entender y generar texto humano de manera efectiva.

    Los lenguajes de programación más destacados para la Inteligencia Artificial son Python, Java, JavaScript, Prolog, Lisp, Julia, C++, R, y Scala.

    • Python es altamente recomendado por su versatilidad y amplia comunidad de desarrolladores.
    • Java es valorado por su versatilidad y portabilidad.
    • JavaScript es conocido por su interactividad en aplicaciones web.
    • Prolog se centra en la lógica y la toma de decisiones basadas en reglas.
    • es especializado en análisis de datos y estadísticas.
    • C++ destaca por su rendimiento y eficiencia en proyectos de IA que requieren alto rendimiento computacional.
    • Scala combina programación funcional y orientada a objetos para aplicaciones de alto rendimiento en IA

    Así pues, deriva en que la combinación de inteligencia artificial, los modelos de aprendizaje, las bases de datos y los lenguajes de programación son esenciales para potenciar la gestión de datos, automatizar procesos, mejorar el análisis de información y fortalecer la seguridad en un mundo cada vez más digitalizado y competitivo.

    Todos estos procesos son producto del avance desde sus albores de la IA y son fundamentales en la construcción de sistemas efectivos y funcionales, y representan la base de la revolución tecnológica que estamos presenciando en la actualidad.

    Tomado de Marvin G. Soto