Páginas

martes, 14 de mayo de 2024

1500 recomendaciones: un libro digital infinito

 Por Carlos Bravo Reyes

Las recomendaciones diarias es un proyecto personal que surge a raíz del aislamiento en nuestras casas que todos sufrimos durante la época del COVID. Todos los sectores de la sociedad de una manera u otra debieron adaptarse a las circunstancias. En el campo de la educación también tuvimos que romper muchos esquemas y pasar de la presencialidad a la distancia. Como profesor del campo de la tecnología educativa, muchos profesores y estudiantes me preguntaban cómo hacer una videoconferencia, o cuál programa emplear para editar un video, una imagen, como convertir un documento PDF y así muchas preguntas que no siempre tenían respuestas.

Fue ante esa cantidad de preguntas y tratando de ayudar a otros, que, en unión con mis estudiantes de tecnología educativa, nos dimos a la tarea de organizar diferentes actividades de capacitación. De ese modo creamos varios Wooc (WhatsApp Open Online), diferentes videoconferencias, transmitidas en directo en Facebook y YouTube, entre otras formas. Pero muchas de estas tuvieron como base las recomendaciones diarias.

Primera recomendación

Las recomendaciones se iniciaron el 31 de marzo del 2020, pocos días después que Bolivia y muchos otros países de Latinoamérica ingresaron a la cuarentena obligatoria. En un inicio las recomendaciones estaban dirigidas a consejos sobre el empleo de las redes, al ahorro de datos, a evitar cadenas de mensajes, entre otras más. Fue después del primer mes cuando empecé a comentar sobre diferentes sitios, redes y programas de utilidad para la actividad pedagógica.

En esa fecha es que se empezó a tomar claridad que el confinamiento no era de una semana, ni un mes, sino de largo tiempo. Los profesores empezaron a preguntar sobre muchas herramientas y parte de las respuestas empezaron a desarrollarse en las recomendaciones diarias. 

Las recomendaciones tienen el objetivo de recomendar un programa de escritorio, una aplicación para celular, un editor en línea de documentos o elementos de diferente tipo. También recomiendan repositorios de imágenes, videos, audio, libros, entre otros muchos tipos. Es frecuente referirme a aplicaciones de todo género, en especial aquellas referidas a la inteligencia artificial. Es imposible englobarlas en una sola categoría, son muchas las que recomendamos.

Un libro digital infinito.

Cuando estaba por arribar a las primeras 100, algunos amigos y mis propios estudiantes con los que siempre probamos muchos de los programas me dieron la idea de recopilarlas en un libro digital. Así surge la primera edición publicada 100 días después de la primera recomendación, justamente el 11 de julio del 2020. Siguieron otras ediciones hasta llegar a la 23.ª recientemente. Cada 500 recomendaciones creamos un tomo nuevo, en esta última estamos cerrando el tomo III. Los libros tienen las imágenes de las recomendaciones, dos categorías que enmarcan a cada una, más la dirección web. También cuentan con un índice y un grupo de palabras claves.

Portada de la última edición

Las recomendaciones no guardan un orden específico y muy rara vez una sigue a la siguiente. Tomamos en cuenta para la selección que el programa, el sitio, la aplicación sea útil, fácil de emplear, o que todas o algunas de sus utilidades sean gratuitas. No tenemos relación comercial ni de otro tipo con los sitios y aplicaciones recomendadas. Puede darse el caso que al cabo de un tiempo algunos sitios no sean accesible o que cambien su nivel de gratuidad.


El concepto de infinito tiene que ver con que el libro tiene inicio, pero hasta el momento no cuenta con un final. Los libros forman parte de la bibliografía de diferentes maestrías y doctorados en el campo de la tecnología educativa, además ser parte del “maletín digital” para profesores en algunos países latinoamericanos. Un caso es el del Ministerio de educación de Panamá, que desde las primeras ediciones lo incluyó en dicho maletín. Los tomos se han descargado unas 19 000 veces, pero no incluye otras descargas desde diferentes repositorios que cada profesor o institución tiene. Todas las ediciones se publican con una licencia Creative Commons de reconocimiento y compartir Igual.

La última edición se puede descargar desde este enlace

El tomo I con las primeras 500 se descarga desde aquí

El tomo II con las recomendaciones de la 501 a la 999 se descarga desde aquí

Tomado de 366 días 

lunes, 13 de mayo de 2024

Declaración de Barcelona. Los investigadores necesitan bases de datos bibliográficas «abiertas»

 Tomado de Universo Abierto

Barcelona Declaration on Open Research Information

Español

Los investigadores necesitan bases de datos bibliográficas «abiertas», según una nueva declaración Las principales plataformas, como Web of Science, ampliamente utilizadas para generar métricas y evaluar a los investigadores, están protegidas por derechos de propiedad intelectual.


Cuando las universidades están decidiendo a quién contratar y promocionar, o cuando las organizaciones de financiamiento están seleccionando proyectos para financiar, es muy probable que estén consultando más que solo los materiales de solicitud. Muchas organizaciones confían en bases de datos que recopilan información sobre publicaciones, incluidos autores, afiliaciones, citas y fuentes de financiamiento, para crear métricas destinadas a cuantificar la productividad de un investigador y la calidad de su trabajo.

Algunas de las bases de datos más conocidas, como Web of Science y Scopus, son propietarias y ofrecen datos y servicios de acceso pago que respaldan estas y otras métricas, incluidos los rankings universitarios y los factores de impacto de las revistas. Pero en una declaración publicada hoy, más de 30 organizaciones de investigación y financiamiento llaman a la comunidad a comprometerse con plataformas que, en cambio, sean gratuitas para todos, más transparentes sobre sus métodos y sin restricciones sobre cómo se puede utilizar los datos.

La Declaración de Barcelona sobre la Información de Investigación Abierta afirma que «en un momento en que la toma de decisiones en ciencia está cada vez más guiada por indicadores y análisis, abordar los problemas de la información de investigación cerrada debe ser una prioridad absoluta». Los firmantes hasta ahora incluyen a financiadores como la Fundación Bill y Melinda Gates y la Agencia Nacional de Investigación de Francia, así como a más de una docena de instituciones académicas.

La Universidad de la Sorbona, que canceló su suscripción a Web of Science el año pasado y cambió a una plataforma más nueva y abierta llamada OpenAlex, dijo en un comunicado que “al firmar la Declaración, queremos demostrar que no solo este movimiento hacia la información de investigación abierta debería ser un objetivo, sino que también se puede lograr”. El cambio puede ayudar a remediar el enfoque de las bases de datos existentes en las revistas en inglés, dicen los defensores. También podría ayudar a mejorar “la circulación del conocimiento científico y local producido en diferentes idiomas, formatos y en diferentes regiones geográficas”, dice otro signatario, el Consejo Latinoamericano de Ciencias Sociales a través del Foro Latinoamericano para la Evaluación Científica.

Jason Portenoy, ingeniero de datos senior en OurResearch, reconoce esta necesidad de aporte de la comunidad, diciendo que es comprensible que las instituciones puedan dudar en volver a hacer el trabajo. “Pero la diferencia es que con OpenAlex, está sucediendo de manera abierta”, dice. Cualquier brecha en la calidad de los datos se está cerrando rápidamente, agrega Jason Priem, CEO de OurResearch. “OpenAlex está evolucionando muy rápidamente, y a menudo los problemas descubiertos por nuestra comunidad se solucionan en unos pocos meses”. Cuando uno de los coordinadores de la declaración, Ludo Waltman, director científico del Centro de Estudios de Ciencia y Tecnología en la Universidad de Leiden, y colegas recientemente usaron OpenAlex para clasificar más de 1400 universidades en todo el mundo, concluyeron que, aunque necesita mejorar, el enfoque produjo “datos de calidad sorprendentemente buenos”.

Daniel Hook, CEO de Digital Science, que opera la base de datos propietaria Dimensions, acoge esta idea. (Dimensions ya ofrece una versión gratuita para uso no comercial, aunque los usuarios deben suscribirse para acceder a todas las funciones). Sin embargo, Hook dice que tal transición llevará tiempo. Las bases de datos propietarias necesitan recuperar los costos de establecer, mejorar y mantener conjuntos de datos tan grandes, un desafío que los equivalentes abiertos como OpenAlex también podrían enfrentar a largo plazo.

La declaración es un «excelente desarrollo», dice Elizabeth Gadd, experta en comunicaciones académicas y jefa de cultura e evaluación de investigación e innovación en la Universidad de Loughborough, que no estuvo involucrada en su preparación. “Muchas organizaciones han hecho compromisos públicos con prácticas de investigación abierta pero continúan utilizando fuentes de datos bibliográficos cerradas y comerciales para análisis de investigación”. El anuncio debería “estimular a una gama más amplia de organizaciones a ‘poner su dinero donde está su boca’”.

Con ese fin, los partidarios de la declaración esperan establecer una Coalición para la Información de Investigación Abierta para planificar los próximos pasos, dice la coordinadora Bianca Kramer, experta en comunicaciones académicas de la consultora Sesame Open Science. “Queremos facilitar que las organizaciones trabajen hacia esa transición, entre otras cosas, beneficiándose de la experiencia de los demás y explorando la acción colectiva”.

COMPROMISOS


1 – Haremos que la apertura sea la norma para la información de investigación que utilizamos y producimos

  • La apertura será la norma para la información sobre investigación que utilizamos, por ejemplo, para evaluar a investigadores e instituciones, apoyar la toma de decisiones estratégicas y encontrar resultados de investigación relevantes.
  • La apertura será la norma para la información de investigación que produzcamos, por ejemplo, la información sobre nuestras actividades y resultados, con excepción de la información cuya apertura sería inapropiada (‘tan abierta como sea posible y tan
    cerrada como sea necesario’


2. – Trabajaremos con servicios y sistemas que apoyen y hagan posible
la información abierta sobre investigación

  • En cuanto a los servicios y plataformas de publicación, requeriremos que la información de investigación generada en los procesos de publicación (por ejemplo, metadatos de artículos de investigación y otros resultados) esté disponible de forma abierta a través de infraestructuras académicas abiertas, utilizando protocolos e identificadores estándar cuando estén disponibles.
  • En el caso de los sistemas y plataformas para la gestión interna de la información de investigación (por ejemplo, los actuales sistemas de información de investigación), requeriremos que toda la información de investigación pertinente pueda exportarse y hacerse abierta, utilizando protocolos e identificadores estándares cuando estén disponibles.


3. Apoyaremos la sostenibilidad de las infraestructuras para la información abierta sobre investigación

  • Asumimos la responsabilidad de apoyar infraestructuras para la información abierta sobre investigación, por ejemplo participando en la creación de comunidades y en la gobernanza de las mismas y aportando contribuciones justas y equitativas a la estabilidad financiera y al desarrollo de estas infraestructuras.
  • Esperamos que las infraestructuras que apoyamos apliquen buenas prácticas
    de gobernanza comunitaria y sostenibilidad (por ejemplo, los Principios de la
    Infraestructura Académica Abierta).


4. Apoyaremos actuaciones colectivas para acelerar la transición hacia la apertura de la información sobre investigación

  • Reconocemos la importancia de compartir experiencias y coordinar acciones para promover en todo el sistema la transición de cerrada a abierta de la información de investigación.
  • Para facilitarlo, apoyamos la creación de una Coalición para la Información
    Abierta sobre Investigación y el refuerzo de la colaboración con otras iniciativas y organizaciones afines.

viernes, 10 de mayo de 2024

¿Cómo cuidar la integridad académica en proyectos prácticos con IA?

 Por Rosa María Morales de EDUBITS de Tec de Monterrey

En mi clase de Econometría que imparto a estudiantes de sexto semestre de economía en la Universidad de Monterrey, incorporé herramientas de Inteligencia Artificial (IA) en la elaboración de proyectos empíricos estudiantiles enfatizando en la integridad académica. Las normas de integridad académica de la institución se describen en el programa de estudios de cada curso y pueden ser resumidas como: no copiar textualmente información de otras publicaciones, acreditar las fuentes de las citas, no copiar el trabajo de otros estudiantes, prescindir de la comunicación entre los equipos para realizar el trabajo propio, y utilizar herramientas de IA solo cuando es autorizado, especificando la forma en la que fue utilizada. En este artículo describo los resultados de una actividad de investigación realizada por los estudiantes con la cual se espera desarrollen competencias para la resolución de problemas prácticos y la comunicación de resultados a través de un proyecto empírico.

Proyectos de modelos predictivos con IA enfatizando en la integridad académica

En economía, un proyecto empírico implica la realización de una investigación con información observable y verificable. Algunos ejemplos de proyectos empíricos pueden ser: 1) La evolución de la contaminación en la ciudad de Monterrey y la Ciudad de México en el periodo 1990-2022; 2) Co-movimientos en el precio del acero y el cobre a través del tiempo; o 3) Predicción del precio de la acción de una empresa en particular, por mencionar algunos. Esta información puede provenir de una base de datos, una encuesta o de un experimento. Dado que el curso implica series temporales, los datos son observaciones de una o más variables a través del tiempo, esta información es de utilidad para estudiar hechos a través del tiempo, hacer predicciones y elaborar políticas públicas a corto, mediano o largo plazo que permitan solucionar un problema en alguna región o país.

El proyecto de la clase consiste en realizar una investigación sobre un tema de economía, finanzas, socio-demografía o cuestiones ambientales en México o en cualquier otro país, que intente responder a una pregunta usando datos reales. La investigación se realiza en tres etapas siguiendo la estructura general descrita por Wooldridge (2015).

  1. Fase 1. Se elige el tema, se define el problema a resolver y se plantea la pregunta de investigación.
  2. Etapa empírica (fases 2 y 3). Las y los estudiantes utilizan un software econométrico para programar y así limpiar las bases de datos, crear variables, hacer estadísticas, así como estimar modelos econométricos o hacer predicciones.
  3. Fase 3. Presentación de resultados.

El trabajo se realiza en equipo usando la metodología de aprendizajes por proyectos. Los estudiantes ponen en práctica conocimientos y técnicas aprendidas durante el semestre, comunicando los avances del proyecto con presentaciones y al cierre del semestre un reporte final de los resultados.

¿Cómo utilizar herramientas de IA en proyectos empíricos de economía?

Dado que el curso involucra aprendizajes para el procesamiento de datos, aplicación de técnicas estadísticas y econométricas, estimación de modelos y predicción de variables, es necesario el uso de programación a través de software econométricos. Durante el curso, se les enseña a los estudiantes a programar en un software específico (Stata). A lo largo del semestre, conocen diferentes códigos de programación que permiten ejecutar tareas como graficar, hacer estadísticas descriptivas, estimar un modelo, predecir variables, entre otros. Sin embargo, en el proceso de investigación los estudiantes se enfrentan a datos reales y encuentran retos que los llevan a necesitar otros códigos. La búsqueda de códigos de programación utilizando buscadores tradicionales podría llevar mucho tiempo y no siempre se encuentra la información requerida.

Quienes han programado en un software econométrico suelen tener dificultades en estas actividades debido a la naturaleza de los datos y la elección del modelo para estimar o predecir variables. Por ello, se pensó que utilizando herramientas de IA generativa podían solventar estas dificultadesIBM Education (2023) muestra los beneficios de usar IA generativa para programar. Observando este potencial y dada la problemática planteada, se sugirieron las siguientes herramientas. Algunas de ellas, proporcionan ventajas en la búsqueda de información, el ahorro de tiempo y la variedad de contenido que ofrecen al momento de editar y generar códigos.

Las herramientas propuestas fueron las siguientes:

  • Elicit: Es una herramienta de IA que sirve para buscar artículos científicos y analizarlos. Se puede usar para hacer revisión sobre estudios pertinentes al tema de estudio.
  • Perplexity: Es un chatbot para responder preguntas. Se utiliza para buscar información respecto a temas específicos, hacer resúmenes y códigos de programación.
  • ChatGPT: Al igual que Perplexity, es una herramienta de IA que sirve para responder preguntas, genera texto y además automatiza ciertas tareas.
  • AIciclopedya: Es un directorio de herramientas de IA que sugiere que herramientas de IA se pueden utilizar de acuerdo con las necesidades del usuario.

También, podrían utilizar otras herramientas de inteligencia artificial adicionales, siempre y cuando me lo hicieran saber.

Con el fin de observar la adopción de IA generativa de los estudiantes haciendo énfasis en la integridad académica, diseñé para mi clase, un formato de seguimiento de uso de herramientas de IA, ver Tabla 1. Si los estudiantes usaban IA generativa debían llenar el formato al entregar el manuscrito final.

Tabla 1. Resumen del formato de Seguimiento de uso de herramientas de Inteligencia Artificial. Fuente: Elaboración propia (2023).

Además del formato de seguimiento, diseñé tres materiales educativos para indicar a los estudiantes qué se esperaba en cada entregable e introducir el uso de herramientas de inteligencia artificial.

En el primer material educativo, les muestro a los estudiantes cómo plantear una pregunta de investigación con y sin las herramientas. También, doy indicaciones de cómo buscar un tema de investigación. Usando Perplexity ai, se le pregunta “¿Qué se puede investigar en México usando técnicas de series temporales?” La herramienta dio una serie de resultados y a partir de allí, los estudiantes fueron orientando su búsqueda de acuerdo con sus intereses.

En el segundo material educativo, les presento a los estudiantes un ejemplo de cómo se escribe la metodología de un proyecto empírico y adicionalmente, para ampliar su comprensión, buscan en ChatGPT o Perplexity AI cómo escribir la metodología de un proyecto empírico relacionado a series de tiempo.

En el tercer material educativo, les muestro cómo buscar y editar códigos de programación en ChatGPT y Perplexity AI. Esto permitió una minimización en los tiempos de búsqueda y una mejora en el tipo de información requerida.

Resultados

De un total de siete grupos, cinco adoptaron distintas herramientas de IA generativas en al menos una fase del proyecto empírico. Una vez adoptadas las herramientas y al final del curso, las y los estudiantes se mostraron con apertura, pero al mismo tiempo con precaución al uso que daban a las mismas. Ciertos equipos mencionaron que, si bien les ayudaban, tenían que mantener un pensamiento crítico en su uso. Algunos equipos manifestaron que se motivaron a buscar información confiable.

Por otro lado, las herramientas de inteligencia artificial sugirieron a los estudiantes algunos artículos para revisión de la literatura que no se encontraban en herramientas de búsqueda tradicionales. Estas sugerencias, los llevó a buscar los artículos en las bases de datos de la biblioteca de la universidad en la que estudian. Podemos observar que las herramientas de IA pueden motivar a las y los estudiantes a mejorar sus búsquedas de información usando fuentes confiables aumentando de esa forma la calidad de la revisión de la literatura y la discusión de los resultados. De igual forma, manifestaron que no pudieron acceder dentro de las mismas herramientas a los artículos sugeridos porque “muchos papers eran privados” y por lo tanto tuvieron que buscarlos en biblioteca. En cuanto a los códigos de programación, indicaron que el uso de la IA les ahorró tiempo y resolvió varias inquietudes que tenían.

A continuación, les comparto un resumen con las respuestas dadas por los equipos en el formato de seguimiento de uso de herramientas de IA:

Usos de las herramientas de IA por estudiantes

“Perplexity se utilizó para buscar papers con temas similares a lo que nosotros queríamos abordar, en algunos casos, solo nos daba los títulos y nosotros complementamos la búsqueda en la Biblioteca”.

“Usamos ChatGPT para la revisión de literatura, le preguntamos qué elementos nos recomendaría abordar, aunque al final nosotros modificamos su sugerencia y la adaptamos a nuestro proyecto”.

“Para saber qué decían los errores que nos aparecían en el software al momento de correr los comandos”.

“Conocer qué es lo que debe de incluir en una buena introducción, una buena revisión de la literatura y una buena conclusión”.

“La utilizamos para saber cómo redactar una metodología para nuestro trabajo. Su respuesta nos sirvió como guía para poder escribir los datos de nuestro trabajo de forma más ordenada, y brindando una descripción de las variables”.

“Realizamos las siguientes preguntas: 1) ¿cómo escribir la metodología de un proyecto empírico? y 2 ¿dónde puedo obtener datos de la producción industrial de Mex y USA?”.

    “La IA nos ayudó a conocer los códigos de programación necesarios para poder elaborar nuestro trabajo en Stata. Por ejemplo, nos indicó cómo crear una variable (Num) que nos permita separar nuestras variables en los dos periodos de tiempo que analizamos”.

    Una vez que leí las respuestas en el formato de seguimiento y revisé los proyectos, pude notar la transparencia de los estudiantes al notificar como habían usado las herramientas e incluso reportar herramientas que no habían sido sugeridas. Esto puede indicar que, si le damos seguimiento al uso de las herramientas de IA generativas en clase, es probable que las faltas a la integridad académica sean disminuidas. En los proyectos entregados, no detecté deshonestidad académica, por tanto, considero que sí es posible que los estudiantes actúen con honradez al usar inteligencia artificial. Por otra parte, noté que los estudiantes refuerzan lo aprendido en clase con las herramientas de IA al no conformarse con los materiales y orientaciones dadas en el aula y aprovechar estas herramientas para perfeccionar lo aprendido, es decir, usan las herramientas como complemento al aprendizaje obtenido en clase.

    En cuanto a la calidad de la información en la presentación del proyecto fue bastante alta. Las y los estudiantes manifestaron encontrar a través de herramientas de IA nuevas formas de presentar gráficamente la información de sus datos impactando la calidad visual del proyecto. De igual forma, se observó que lograron resolver problemas durante el proceso de elaboración del proyecto, adquiriendo esta competencia.

    Lograron solventar sus dudas e inquietudes a través de las herramientas de IA que habrían sido difícil de responder usando herramientas de búsqueda tradicionales. Esto les permitió mejorar la precisión de la información y de las afirmaciones realizadas. En general, más allá de los resultados académicos, es mi percepción que, se disminuyó la ansiedad de las y los estudiantes en la búsqueda de códigos de programación que les permitiese trabajar de forma particular con sus datos. Hubo una disminución en los errores de programación y en los tiempos de búsqueda.

    Reflexión

    Para finalizar, no dejo de pensar que la adopción de herramientas de IA en las aulas nos presenta muchos retos, pasando desde la integridad académica hasta los cuestionamientos de privacidad de los datos y de la veracidad de la información. Su incorporación en algunas asignaturas debe pasar por la reflexión previa del profesorado, ponderando los riesgos y las ganancias en su adopción. Introducir y permitir el uso de herramientas de IA en la realización de los proyectos empíricos estudiantiles de uno de mis cursos no fue una decisión fácil; sin embargo, luego de analizar cómo podía incorporarlas minimizando la probabilidad de las faltas de honestidad académica y basándome en un enfoque formativo de la integridad, tomé la decisión de que los estudiantes las pudiesen adoptar de forma opcional.

    La experiencia narrada tiene por supuesto sus limitaciones, existen oportunidades de mejora en su incorporación y por supuesto riesgos inherentes al uso de las herramientas de IA generativa. Las afirmaciones dadas en este artículo son muy específicas y están referidas a una sola experiencia con el formato y los materiales educativos creados exclusivamente para el proyecto empírico descrito previamente. Considero que debemos seguir investigando sobre las prácticas de aprendizajes con IA y así ponderar retos y beneficios de forma sistemática. La invitación es también a buscar protocolos que permitan afrontar los retos a los que nos enfrentamos cuando se implementa IA generativa en clase.

    Acerca de la autora

    Rosa María Morales Valera (rosa.moralesv@udem.edu) es académica de la Escuela de Negocios de la Universidad de Monterrey (UDEM), PhD en Economía por Claremont Graduate University (California, USA) y miembro del Sistema Nacional de Investigadores (SNI) de México. La autora es integrante del Consejo de Honor de la UDEM.

    Referencias

    Currie, G. M. (2023, May). Academic integrity and artificial intelligence: is ChatGPT hype, hero, or heresy? In Seminars in Nuclear Medicine. WB Saunders. https://doi.org/10.1053/j.semnuclmed.2023.04.00

    IBM Education (2023). AI code-generation software: What it is and how it works. https://www.ibm.com/blog/ai-code-generation/

    Moya, B., Eaton, S. E., Pethrick, H., Hayden, K. A., Brennan, R., Wiens, J., McDermott, B., & Lesage, J. (2023). Academic Integrity and Artificial Intelligence in Higher Education Contexts: A Rapid Scoping Review Protocol. Canadian Perspectives on Academic Integrity, 5(2), 59–75. https://journalhosting.ucalgary.ca/index.php/ai/article/view/75990.

    Ta, R & D. West. (2023) Should schools ban or integrate generative AI in the classroom? The Brooking Institution. https://www.brookings.edu/articles/should-schools-ban-or-integrate-generative-ai-in-the-classroom/

    Wooldridge, J. M. (2015). Introductory Econometrics: A Modern Approach. 6th ed.

    Tomado de EDUBITSdel Tec de Monterrey

    jueves, 9 de mayo de 2024

    Inteligencia Artificial: historia, construcción, modelos y lenguajes.

     Por Marvin Soto

    La historia de la inteligencia artificial (IA) se remonta a la mitad de siglo XX, con mitos y leyendas que hablan de seres artificiales con capacidades humanas.

    No obstante, el verdadero desarrollo de la IA como campo de estudio científico comenzó en la década de 1950, cuando Alan Turing, considerado uno de los padres de la computación, propuso lo que hoy conocemos como la “Prueba de Turing”, una prueba para evaluar la inteligencia de una máquina.

    En los años siguientes, se realizaron avances significativos en el campo de la IA. En la década de 1960, se fundaron los primeros laboratorios de IA en instituciones académicas como el MIT y Stanford, lo que impulsó aún más la investigación en este campo.

    Los hitos más importantes en la historia de la inteligencia artificial incluyen:

    • Fin de la Segunda Guerra Mundial: La guerra reunió a científicos de diversas disciplinas, incluyendo a pioneros de la IA como Alan Turing y Grey Walter, quienes comenzaron a explorar el desarrollo de máquinas inteligentes.
    • Prueba de Turing: En 1950, Alan Turing propuso una prueba para evaluar la inteligencia de una máquina, conocido como la “Prueba de Turing”.
    • Desarrollo de LISP: En 1958, se creó el lenguaje de programación LISP, ampliamente utilizado en la investigación de IA.
    • Fundación de laboratorios de IA: En la década de 1960, se establecieron los primeros laboratorios de IA en instituciones académicas como el MIT y Stanford, impulsando aún más la investigación en este campo.
    • Victoria de Deep Blue sobre Kasparov: En 1997, la computadora Deep Blue de IBM derrotó al campeón mundial de ajedrez Garry Kasparov, marcando un hito importante en el desarrollo de la IA.
    • Desarrollo de redes neuronales: En 2011, se produjeron avances significativos en la creación de redes neuronales, sentando las bases para el posterior desarrollo de sistemas de IA más avanzados.
    • Victoria de AlphaGo sobre Lee Sedol: En 2016, el sistema de IA AlphaGo, desarrollado por DeepMind, derrotó al campeón mundial de Go Lee Sedol, demostrando el potencial de la IA en juegos complejos.

    Estos hitos han sido fundamentales en el desarrollo y evolución de la inteligencia artificial a lo largo de la historia, sentando las bases para los avances actuales y futuros en este campo.

    La IA ha revolucionado la forma en que las empresas gestionan la información y extraen valor de las bases de datos. El uso de bases de datos en IA es fundamental para aprovechar el potencial de los datos en un entorno empresarial cambiante.

    Ahora bien, los procesos involucrados en la construcción de la Inteligencia Artificial incluyen:

    • Recopilación de datos: La IA se basa en datos, por lo que el primer paso es recopilar una gran cantidad de información relevante para el problema que se quiere resolver. Esta información comienza su masiva recolección cuando dejamos de ser consumidores de información en el ciberespacio y pasamos a ser prosumidores, es decir; producimos y consumimos contenidos. De estas masivas boronas digitales, y contenidos publicados en el ciberespacio surge la materia prima que se afinara mediante el procesamiento de datos.
    • Preprocesamiento de datos: Una vez recopilados los datos, son almacenados en pantanos de datos, a partir de los cuales es necesario limpiarlos, normalizarlos, etiquetarlos y prepararlos para su uso en los algoritmos de IA. Esto es, convertirlos en lagos de datos.
    • Selección de algoritmos: Existen diversos algoritmos de IA, como redes neuronales, algoritmos genéticos, máquinas de soporte vectorial, entre otros. Se debe seleccionar el algoritmo más adecuado en acuerdo con el problema específico a resolver.
    • Entrenamiento del modelo: Utilizando los datos recopilados y preprocesados, se entrena el modelo de IA para que pueda aprender patrones y realizar predicciones o tomar decisiones.
    • Evaluación y ajuste: Una vez entrenado el modelo, se evalúa su desempeño utilizando datos de prueba y se ajusta para mejorar su precisión y eficiencia. Además, se maneja un proceso continuo de aprendizaje a fin de depurar y lograr la máxima precisión del algoritmo.
    • Implementación y despliegue: Finalmente, el modelo de IA se implementa en un entorno de producción para que pueda ser utilizado en la resolución de problemas reales. Aquí es cuando ya son consumidos masivamente por usuarios o plataformas.

    La integración de la inteligencia artificial con las bases de datos permite automatizar procesos, mejorar el rendimiento en consultas y análisis de datos, así como fortalecer la seguridad al detectar patrones anómalos. Esta combinación es una tendencia en auge, ya que facilita el acceso a la inteligencia de negocio, brindando a la industria una ventaja competitiva significativa.

    Modelos avanzados de procesamiento de lenguaje natural como ChatGPT, Gemini, Copilot, etc., permiten a los usuarios interactuar con las bases de datos de manera intuitiva, simplificando consultas complejas y abriendo el acceso a más personas sin conocimientos técnicos.

    La evolución de las bases de datos hacia sistemas más flexibles y eficientes, como las bases de datos NoSQL, ha sido clave para manejar grandes volúmenes de datos no estructurados y optimizar la escalabilidad horizontal, lo que es fundamental para aplicaciones modernas que requieren alto rendimiento y flexibilidad en entornos distribuidos.

    Los LLM (Large Language Models) son modelos de aprendizaje automático que pueden comprender y generar texto humano, mientras que el ML (Machine Learning) es un campo más amplio que se enfoca en entrenar sistemas para aprender y hacer predicciones a partir de datos.

    Entendido en un orden, los LLM son una subcategoría específica de modelos de ML que se centran en el procesamiento del lenguaje natural, permitiendo a las máquinas entender y generar texto humano de manera efectiva.

    Los lenguajes de programación más destacados para la Inteligencia Artificial son Python, Java, JavaScript, Prolog, Lisp, Julia, C++, R, y Scala.

    • Python es altamente recomendado por su versatilidad y amplia comunidad de desarrolladores.
    • Java es valorado por su versatilidad y portabilidad.
    • JavaScript es conocido por su interactividad en aplicaciones web.
    • Prolog se centra en la lógica y la toma de decisiones basadas en reglas.
    • es especializado en análisis de datos y estadísticas.
    • C++ destaca por su rendimiento y eficiencia en proyectos de IA que requieren alto rendimiento computacional.
    • Scala combina programación funcional y orientada a objetos para aplicaciones de alto rendimiento en IA

    Así pues, deriva en que la combinación de inteligencia artificial, los modelos de aprendizaje, las bases de datos y los lenguajes de programación son esenciales para potenciar la gestión de datos, automatizar procesos, mejorar el análisis de información y fortalecer la seguridad en un mundo cada vez más digitalizado y competitivo.

    Todos estos procesos son producto del avance desde sus albores de la IA y son fundamentales en la construcción de sistemas efectivos y funcionales, y representan la base de la revolución tecnológica que estamos presenciando en la actualidad.

    Tomado de Marvin G. Soto 

    miércoles, 8 de mayo de 2024

    Sinapsis Algorítmica: Un nuevo enfoque educativo

     Escribe Antonio Delgado

    Imagen generada en Ideogram


    La Inteligencia Artificial Generativa (IAGen) está desafiando los límites convencionales del sistema educativo superior al abrir nuevas rutas de aprendizaje algorítmico. Al rebasar las fronteras educativas tradicionalistas, la IAGen está revolucionando la forma en que los estudiantes acceden al conocimiento y activan sus conexiones mentales con las herramientas generativas. Esta tecnología emergente, no solo facilita el diseño de la instrucción y la realización de tareas, proyectos o exámenes, sino que también plantea desafíos éticos y metodológicos a ser analizados a profundidad. En este contexto dinámico, la IAGen emerge como una fuerza transformadora que promete rediseñar la educación superior y preparar a los estudiantes para un futuro cada vez más digitalizado y complejo.

    Según la firma empresarial Gartner (2024), define a la IA como una tecnología que parece emular el desempeño humano, tradicionalmente aprendiendo, llegando a sus propias conclusiones, pareciendo entender el contenido complejo, participando en diálogos naturales con personas, mejorando el desempeño cognitivo humano o sustituyendo a las personas en la ejecución de tareas no rutinarias. La IA aplica técnicas avanzadas de análisis basadas en la lógica, incluido el aprendizaje automático, para interpretar hechos, apoyar, automatizar decisiones y realizar acciones.

    Una de las principales implicaciones de la IA Generativa es la transformación del modelo de interacción persona-máquina. Se está produciendo la transición desde un paradigma determinista, basado en la ejecución de comandos concretos para obtener resultados únicos, a otro de tipo estocástico. Basado en una conversación con el modelo de lenguaje de larga escala (LLM), los resultados no necesariamente serán siempre idénticos, aunque sí equivalentes. Son el producto de complejos cálculos estadísticos realizados por algoritmos, imposibles de reproducir a posterioridad (Xavier Mas, 2024).

    Los algoritmos se definen como conjuntos de instrucciones o reglas que se utilizan para realizar tareas específicas de forma autónoma por parte del modelo generativo de IA. Estos son diseñados para imitar la forma en que los humanos piensan y toman decisiones, utilizando técnicas como el aprendizaje automático, procesamiento del lenguaje natural y las capacidades de procesamiento de información de los súper-computadores. Suelen basarse en reglas y se construyen mediante procesamientos iterativos para reconocer patrones que permiten hacer predicciones basadas en el entrenamiento de datos. La evolución de tecnologías como la nube y el big data han contribuido a que la IA sea más rápida, económica y accesible a las personas. 

    En el contexto educativo superior, la IAG se integra en diferentes actividades instruccionales. Enumeramos las que se pueden realizar en este momento de desarrollo tecnológico:

    1. Creación de materiales educativos: Diseño y desarrollo de materiales educativos como contenidos textuuales, presentaciones digitales, ejercicios de práctica, audio podcast, video-animaciones y otros recursos de aprendizaje. Estos materiales se pueden personar según las necesidades y preferencias de los estudiantes, adaptándose a su nivel de conocimiento, estilo de aprendizaje y áreas de interés.

    2. Formulación de ejercicios y problemas: Generación de situaciones hipotéticas para la práctica y evaluación, abarcando diferentes niveles de dificultad y áreas del conocimiento. Los estudiantes practican y aplican los conceptos aprendidos de manera interactiva y personalizada.

    3. Tutoría y retroalimentación personalizada: Proporcionan retroalimentación personalizada y apoyo individualizado a los estudiantes. Identificación de áreas a mejorar, ofrecimiento de explicaciones adicionales y sugerencias para acceder recursos complementarios que refuercen los aprendizajes.

    4. Experiencias de Aprendizaje: Diseño de actividades instruccionales, técnicas o estrategias innovadoras, programas de estudio, estructuras curriculares ramificadas, secuencias de aprendizaje activo, actividades complementarias basadas en el análisis predictivo.

    5. Investigación y desarrollo: Análisis de grandes volúmenes de datos para identificar tendencias, patrones de aprendizaje, áreas de mejora en la enseñanza y el aprendizaje.

      Útiles para la investigación y desarrollo de nuevas prácticas docentes y enfoques instruccionales innovadores.
    De igual manera, la IA Generativa plantea nuevos retos y desafíos en la Educación Superior que merecen ser examinados con mayor profundidad:
    1. La posibilidad de generar un texto, resumir un artículo, crear una imagen, analizar un conjunto de datos u obtener una secuencia de código informático con una simple petición verbal, conlleva riesgos. Uno de los más visibles es la pérdida de control por parte de los humanos, tanto de los procesos de trabajo como de la calidad de los resultados. Este riesgo se acentúa especialmente si delegamos en la IA la emulación de habilidades de pensamiento de orden superior, gracias a la capacidad de ésta para ofrecer resultados plausibles y convencionalmente aceptables. Un escenario como éste podría conducir a un abandono progresivo del desempeño de dichas habilidades por parte de los humanos, con el consecuente desentrenamiento y pérdida de capacidades cognitivas superiores (Xavier Mas, 2024).

    2. La dependencia excesiva de las herramientas de IA Generativa para realizar las tareas académicas, en lugar del pensamiento crítico y el esfuerzo mental, pudieran afectar la retención de la memoria, el funcionamiento cognitivo y las capacidades de pensamiento crítico. Así lo demuestra la investigación de Muhammad Abbas, Farooq Ahmed Jam & Tariq Iqbal Khan (2024).

    3. Algunos educadores expresan preocupación por los posibles efectos negativos de la Agencia Estudiantil en términos del desarrollo de capacidades humanas de intervenir en su entorno de manera consciente y autónoma para toma de decisiones informadas y el control sobre los procesos de aprendizaje. Esto implica que los estudiantes sean entes activos en su proceso de crecimiento y desarrollo humano al establecer metas, tomar decisiones sobre qué aprender, cómo aprenderlo y cómo evaluar su propio desempeño. Que sean capaces de identificar sus propias limitaciones para aprender a superarlas por sí mismos sin depender de entes externos que les prescriba los recursos de apoyo necesarios en la construcción activa de su propio conocimiento. La investigación de Ali Darvishi, Hassan Khosravi, Shazia Sadiq , Dragan Gašević y George Siemens (2024) levanta esta bandera y nos invita a seguir investigando sobre este fenómeno educativo emergente.
    4. Una limitación importante es la falta de capacidad de la IA para comprender y hacer inferencias sobre los estados mentales, los procesos de pensamiento y el conocimiento existente de los estudiantes. Sin esta capacidad, los tutores de IA luchan por identificar y abordar los conceptos erróneos de los estudiantes individuales, brindar orientación personalizada y desarrollar las conexiones personales que motivan e involucran a los alumnos a lo largo del tiempo (Cristóbal Cobo, 2024).

    5. Yann LeCunn (2024) expone que la parte generativa del cerebro es lo que convierte las ideas y los planes en acciones, incluidas las palabras habladas y escritas. Pero la parte difícil de la inteligencia es llegar a esas ideas y planes. En el cerebro, las ideas se forman en la corteza prefrontal. Convertirlas en acciones se ejecuta en la corteza motora y el cerebelo. Reducir la inteligencia a la generación es como reducir el software a las instrucciones de imprimir en el papel.

    6. Noam Chumsky (2023) entiende que estos programas están atrapados en una fase pre-humana o no-humana de la evolución cognitiva. Su defecto más profundo es la ausencia de la capacidad más crítica de cualquier inteligencia para describir o predecir algo. “Por muy útiles que puedan ser estos programas en algunos ámbitos concretos (programación informática, o rimas de versos ligeros), sabemos por la ciencia de la lingüística y la filosofía del conocimiento que difieren profundamente de la forma en que los seres humanos razonan y utilizan el lenguaje. Estas diferencias imponen limitaciones significativas a lo que pueden hacer, codificándolos con defectos inerradicables” (Alexis Paiva, 2023)

    Los planteamientos presentados, nos llevan a profundizar sobre la posibilidad de enfrentar una nueva emergencia educativa con la proliferación de herramientas generativas de la IA. Estamos frente a una creación humana en sus primeras etapas de desarrollo que seguirá expandiendo sus capacidades algorítmicas hasta alcanzar altos niveles NeuroTecnológicos. Nos referimos a un campo en rápido crecimiento dirigido a entender el funcionamiento del cerebro humano con la finalidad de crear tecnologías que interactúen con él. Por tanto, el sistema educativo superior enfrenta la dicotomía de los grandes avances de la IA generativa, así como desafíos significativos que requieren respuestas urgentes y efectivas.

    Es por esta razón que decidimos publicar este post con la finalidad de aportar al fenómeno tecno-educativo que está provocando la IAGen en el escenario universitario. Actualmente, estamos experimentando con modelos algorítmicos utilizados principalmente para aumentar las capacidades creativas y automatizar algunas las tareas humanas. Sin embargo, creemos que la integración de la IA Educativa debería dirigirse más hacia las formas de humanizar las generaciones algorítmicas en los procesos de aprendizaje.

    El campo de la neurociencia nos permite estudiar a nivel sináptico cómo funcionan nuestros cerebros. La sinápsis neuronal es un proceso fundamental en el funcionamiento del sistema nervioso que permite la comunicación entre las neuronas. Se trata de una conexión especializada entre dos neuronas, donde se transmite la información en forma de señales electro-químicas. La neurona presináptica es la encargada de enviar la señal, mientras que la neurona postsináptica la recibe. La comunicación entre ambas neuronas se realiza a través de pequeñas estructuras llamadas vesículas sinápticas que contienen neurotransmisores. Estos son sustancias químicas encargadas de transmitir la señal de una neurona a otra.

    Cuando una señal eléctrica llega a la neurona presináptica, se producen cambios en su membrana que desencadenan la liberación de los neurotransmisores en el espacio sináptico. Estos neurotransmisores se unen a receptores específicos en la membrana de la neurona postsináptica, generando una respuesta eléctrica en esta última. De modo que, la sinápsis neuronal es esencial para el procesamiento de la información en el cerebro y juega un papel crucial en funciones cognitivas como el aprendizaje y la memoria. El enfoque educativo de la Sinapsis Algorítmica es una propuesta que hacemos con el objetivo de activar las capacidades humanas en el núcleo de la educación algorítmica (Juan Domingo Farnós), de la misma manera que pretendemos llevar a los estudiantes al centro de su proceso de aprendizaje.

    La Sinapsis Algorítmica (SA) se define como la fusión revolucionaria de la capacidad neuronal del cerebro humano con los procesos algorítmicos de la inteligencia artificial (IA). Mediante esta simbiosis, las conexiones neuronales del cerebro interactúan con los algoritmos de la IA para potenciar los procesos mentales que provocan el aprendizaje. Este enfoque se basa en la analogía entre las sinapsis cerebral y los algoritmos de la IAGen. Al igual que la sinapsis permite la transmisión de señales entre neuronas, los algoritmos en la IA permiten el procesamiento y transmisión de información a través de redes neuronales artificiales. La SA representa una nueva frontera en la investigación y desarrollo de la IA Educativa con el potencial de revolucionar la forma en que los humanos interactuamos con la tecnología y expandimos nuestras capacidades de aprendizaje.

    En la imagen superior, podremos contextualizar la práxis colaborativa ciber-humana. El cerebro encomienda la responsabilidad de ser creativa, proporcionar razonamiento abstracto, intuición y emocionalidad. Mientras que la IA es responsable de la velocidad de procesamiento, la capacidad para dimensionar datos masivos y encontrar patrones difíciles en los grupos de datos utilizados para el entrenamiento de la base de datos. Tal intervención es relevante cuando se trata de usuarios de IAGen en procesos de aprendizaje humano. Los usuarios de la IA interactúan con modelos LLM que generan contenidos en diversos formatos, pero en paralelo, existe una programación algorítmica para aprender y evolucionar en base a la interacción humana. De modo que la SA sirve como un puente entre las funciones electro-químicas de la mente humana y las operaciones algorítmicas ejecutables en los modelos de integración de larga escala.  

    Además, la SA también puede ser vista como una práctica instruccional centrada en ampliar las capacidades cognitivas y creativas del ser humano. Al integrar la IAGen en los procesos de pensamiento y aprendizaje, los usuarios integrarían diferentes de recursos digitales con otras perspectivas transversales, investigaciones científicas y modelos mentales emergentes. Esto podría conducir a avances significativos en los campos de la ciencia, arte, ingeniería, educación y muchos otros, impulsados por una colaboración simbiótica entre la mente humana y la IA Generativa.

    Hablamos de un enfoque tecno-educativo que establece una convergencia revolucionaria entre la inteligencia humana y la generativa, en la cual las capacidades únicas de cada una se complementan y potencian mutuamente para impulsar aprendizajes y la creatividad hacia nueva fronteras del conocimiento. Su objetivo final consiste en activar las zonas neuronales para conectarlas con las capacidades algorítmicas de los modelos generativos. Nuestros cerebros no deberían operar para la simple entrega generativa, sino para la construcción de relaciones sostenibles, pensamientos abstractos, ideas complejas, decisiones informadas, procesos anaíticos y solución de conflictos altamente complicados. Hablamos de cerebros aumentados, no de cerebros memorísticos.

    En el contexto de la transformación digital, la gente y los ordenadores están entrando en una intrigante simbiosis. No es solo que los algoritmos actúen sobre nosotros, sino que nosotros también actuamos sobre los algoritmos. Desde esta perspectiva, lo importante no son solo los efectos de los algoritmos sobre los actores sociales, sino las interrelaciones entre los algoritmos y los actos sociales de adaptación Daniel Innerarity (2024). 

    Cuando utilizamos tecnologías que no opacan o trastornan los que signifca el ser humano, estamos hablando de lo que se conoce como Ingeniería Positiva (IP). Desde el punto de vista educativo, la IP se centra en el diseño, desarrollo e implantación responsable y ética de las herramientas de Tecnología Educativa (EdTech) que amplifican los procesos mentales. Amplificar consiste en visualizar las conexiones mentales de los aprendices en diversidad de aplicaciónes tecnológicas. Lo que busca es mejorar la calidad de vida de los aprendices, así como su bienestar individial y colectivo.

    Un aspecto fundamental de la IP es su compromiso con el empoderamiento humano. Esto implica diseñar tecnologías que promuevan la autonomía, inclusión y el desarrollo personal, en lugar de crear sistemas que subyuguen o excluyan a las personas. Por ejemplo, en el campo de la IA Educativa, esto recaerá en el desarrollo de algoritmos en sistemas transparentes, interpretables y justos, evitando así la creación de sistemas algorítmicos que perpetúen los sesgos y discriminación.

    De modo que:

    1. Saber formular instrucciones claras, completas y sin ambigüedades.
    2. Evaluar de forma crítica los resultados proporcionados por los modelos generativos.
    3. Aplicar el razonamiento lógico a través del dominio del lenguaje. 
    4. Liderar una conversación para llegar a obtener los resultados esperados... 

    ... son algunas recomendaciones necesarias de Xavier Mas (2024) para potenciar las capacidades ciber-humanas. 


    Aunque algunas arquitecturas IA (redes neuronales digitales y sistemas de aprendizaje profundo), están diseñadas para emular la estructura y función de las redes neuronales humanas, están muy lejos de ser equivalentes a un cerebro humano. Un LLM puede describirse como un cerebro sin entradas sensoriales ni agencia. Un cerebro sin mente, conciencia y autoconciencia. Al construir respuestas a preguntas textuales, la IAGen predice palabras una por una sin comprender ni ser consciente de su significado. Como un loro que repite lo que ha oído del humano sin comprender lo que significan esas palabras, los LLM son una
    actuación de exposición sin comprensión ni metacognición.

    No se trata de producir un texto bien estructurado sino de desarrollar la capacidad mental de organizar las propias ideas, conectarlas con las ideas de otros, analizar afirmaciones, sintetizar conocimientos y satisfacer nuestra necesidad fundamental de comunicarnos con los demás y aprender de ellos (Lydia Cao y Chris Dede, 2024).

     


    En última instancia, la Sinapsis Algorítmica aspira a utilizar la IAGen como un recurso tecno-educativo que promueve el progreso humano, enriqueciendo nuestras vidas de manera significativa y sostenible. Al hacerlo, busca garantizar que el avance tecnológico esté alineado con los valores humanos fundamentales, preservando la dignidad, la libertad y el bienestar de las personas en un mundo cada vez más digitalizado.

    Tomado de Edumorfis