sábado, 20 de julio de 2019

Estar informado (semanal 20/7/2019)

CUED: Ranking REDIB-WOS (2018) de Revistas Científicas Iberoamericanas | https://t.co/iqUGzfqVdC

CUED: Dime qué citas y te diré cómo es tu artículo. Algunas reflexiones sobre las referencias en los artículos de investigación educativa

CUED: Hacia un ecosistema español de Inteligencia Artificial: una propuesta

Materiales y recursos Pedagogía Waldorf -Orientacion Andujar | https://t.co/Vq6q6Rra0p

How women created some of the world's biggest education tech companies | Guardian Careers | The Guardian | https://t.co/R8quMb8m4Q

Universitarios: Las mujeres universitarias tienen mejor nota media, tardan menos en completar sus estudios y son más que los hombres | Público | https://t.co/gxYB6n22N9

Standards For Digital Citizenship In Graphic Form | https://t.co/HOIH9JBhic

El papel de la educación en la transformación digital de la sociedad | https://t.co/GhUuQTh0S4

Necesidades laborales y formación universitaria | https://t.co/47DwgHu5h9

Gómez Villamandos: "No existe ningún exceso de universitarios, es el mercado laboral el que no está preparado" - Córdoba | https://t.co/N90jYY4T5W

Origen, desarrollo y adecuación de la idea de competitividad universitaria | https://t.co/RLFhcbz7Ju

Microstransacciones: el enemigo del aprendizaje basado en juegos — | https://t.co/htdWJjQiQv

Flexibility as a key benefit of open – The Ed Techie | https://t.co/gsjFWgEXB8

La publicación de un preprint se asocia con más atención y citas | https://t.co/lpsbYNWSW4

To Improve Education – Focus on Pedagogy Not Technology | https://t.co/2FxH4vLLTT

Motivación e innovación: Aceptación de tecnologías móviles en los maestros en formación | Sánchez-Prieto | https://t.co/DzBgcATSEY

Un modelo basado en el Clasificador Naïve Bayes para la evaluación del desempeño docente | Gutiérrez Esparza | https://t.co/erTqBJykFj

La adicción a la información y su impacto en el aprendizaje — | https://t.co/l7Q3MQDN5p

The Messy Reality of Personalized Learning | https://t.co/3p7uEWH5is

El complejo mundo de enseñar, adquirir y evaluar habilidades blandas — | https://t.co/XLLFHnZo90

Bridging the digital skills gap is everyone’s responsibility | https://t.co/8BDvB5hAHI

¿Por qué es tan distinta la innovación educativa a otros tipos de innovación? – | https://t.co/YxWc7QkgP6

Agenda colaborativa para el aprendizaje de idiomas: del papel al dispositivo móvil | Berns | https://t.co/njFdmIaD9f

Sharing – David Hopkins / Learning Design & Learning Technology | https://t.co/0V33FKWkDM

[PDF] Realising the potential of technology in education: A strategy for education providers and the technology industry | https://t.co/IYKswZs8mA

Histories of technological innovation: a reading list | https://t.co/yHiO0Pp8Vb

Educating Urban Designers using Augmented Reality and Mobile Learning Technologies | Redondo | https://t.co/y58Zyedy86

Presidente de CRUE: Tesis y másteres irregulares "han hecho mucho daño" - Sociedad | https://t.co/pQqmainF3Z

El enfoque flipped learning en estudios de magisterio: percepción de los alumnos | Touron | https://t.co/vht0ZL3yQw


El coste de estudiar en la universidad pública ha subido 12 veces más que los salarios | Kaos en la red | https://t.co/zwm63Gm8jD

miércoles, 17 de julio de 2019

Escribe Ángel Fidalgo
profinnova
Las agencias de calidad se basan principalmente en tres pasos para realizar la acreditación:
  1. Que el proyecto de innovación haya sido concedido a través de una convocatoria institucional.
  2. Que la institución organice jornadas internas de intercambio de buenas prácticas, donde se presente el proyecto concedido.
  3. Que la institución publique la memoria final del proyecto concedido en un repositorio institucional.
¿Qué es lo que quiere conseguir cada paso? ¿Realmente se consigue?
A continuación se presenta una tabla con lo que se pretende conseguir y la problemática real existente para conseguirlo.
¿Qué pretende?¿Cuál es el problema?
Convocatoria de proyectosEstablecer un control de calidad en una convocatoria competitiva y con revisiónCada institución tiene indicadores y criterios de calidad distintos
Jornadas internasIntercambio de información y experiencia entre el profesorado que ha realizado proyectos de innovaciónEscasa interrelación entre el profesorado y dificultad para poner en común las experiencias realizadas.
No suelen existir procesos para validar los resultados.
Repositorio institucionalTransferencia de la innovación tanto a profesorado de la institución como a profesorado externoNo se tiene en cuenta la estructura de divulgación de la buena práctica para que se pueda transferir. Suelen ser repositorios cementerio.
Es evidente que la intención es buena, el plan parece perfecto: control de calidad, intercambio de experiencia entre el profesorado de la institución y transferencia fuera de la misma. El problema es que para que la innovación educativa tenga impacto sobre la renovación metodológica, deben existir indicadores y criterios de calidad reconocidos de forma estándar. Debe existir un proceso más realista donde el profesorado pueda interactuar y transmitir la experiencia y, sobre todo, los repositorios de buenas prácticas institucionales deben estar preparados para transferir el conocimiento al resto del profesorado.
Otro gran problema es que actualmente parece que solo el profesorado que cumple esos procesos es el que hace innovación. Y esto sí que es un grave error ya que el profesorado innovador existe desde mucho antes de que se establecieran esos procesos de control.

Tomado de Innovación educativa con permiso de su autor

martes, 16 de julio de 2019

Dime qué citas y te diré cómo es tu artículo. Algunas reflexiones sobre las referencias en los artículos de investigación educativa

Escriben . Javier Murillo y Cynthia Martínez-Garrido Universidad Autónoma de Madrid


Las referencias que aparecen al final de un artículo de investigación dicen de nuestro texto mucho más de lo que imaginamos. Así, no sería arriesgado afirmar que un buen artículo “se huele” sólo revisando las referencias. O, dicho de otra forma, ¿es posible un excelente artículo con malas referencias? La respuesta es un no o, no seamos tan estrictos, es muy muy difícil.
Pero no solo eso, las referencias nos dan mucha información acerca de la persona o personas que firman el texto: si son expertas en la temática o se están acercando a ella, si están actualizadas en sus lecturas o viven del pasado… tanto que hasta será posible vislumbrar sus ideas políticas. Y, desde luego, unas referencias descuidadas, mal de formato o que no se corresponden a las citas del texto (por exceso o defecto), muestran que quizá el artículo no está tan mimado como debería.
El apartado de referencias es mucho menos “automático” (que surge directamente de la redacción del texto”) de lo que se podría imaginar. Vamos a usar este blog para atrevernos a formular algunas sugerencias para la mejora de las referencias. Y lo hacemos desde nuestra posición de “viejos”, es decir, que hemos escrito y nos han dado revolcones múltiples, pero también desde nuestra mirada de editores y de personas preocupadas por el tema. Aunque muchas ideas proceden de un estudio que publicamos recientemente (Murillo, Martínez-Garrido y Belavi, 2017) donde revisamos 20 artículos de investigación empírica educativa publicados en revistas JCR, 10 anglosajones situadas entre las primeras posiciones y otros 10 publicados en revistas JCR españolas. De esos la mitad cualitativos y la mitad cuantitativos.
Desde luego es del todo recomendable revisar las referencias al acabar el texto y hacerse algunas preguntas clave:
  • ¿Son muchas o son pocas referencias?
  • ¿Están actualizadas?
  • ¿Son de artículos de investigación u otro tipo de textos?
  • ¿Hay un razonable número de textos en inglés?
  • ¿Me faltan autores o autoras clave o textos que necesariamente deberían estar?
Vamos a dar algunos marcos que ayuden a abordar estas cuestiones.
En primer lugar, ¿cuántas referencias es recomendable incluir? La respuesta, en principio, parece sencilla: las que se necesiten pero sin excederse. Pero vamos a mojarnos, incluir muy pocas da mala imagen, y poner excesivas tampoco es lo más adecuado. Revisando esos 20 artículos que antes dijimos sale una cifra razonable de la que partir: 45 referencias. Aunque, curiosamente, encontramos que los artículos que usan metodologías cuantitativas tiene más referencias, de 56, frente a los 33 de los cualitativos. Con esas cifras de partida, que cada persona se haga su composición.
Mucho más claro es analizar la actualidad de las referencias. En los 20 artículos estudiados, prácticamente el 50% de las referencias tienen menos de 5 años de antigüedad respecto a la fecha de envío del artículo a la revista, y el 70% tiene menos de 10 años. Estas cifran son muy muy exigentes. No solo muestran la enorme caducidad de la investigación, nos exigen estar absolutamente al día en la temática abordada. Con ello una sugerencia “fuerte”: mirad las fechas de vuestras referencias e intentar acercados a que la mitad tengan menos de 5 años.
Desde luego, “la mayoría” de las referencias deberían ser artículos de investigación. Claro, la gran mayoría de las referencias proceden de la revisión de literatura, o marco teórico (la “I” del formato IMRyD) y, con ello, debe recoger “lo que se sabe” del problema de investigación. Y ese “lo que se sabe” está mayoritariamente publicado en artículos de investigación empírica, y no en libros. ¿Eso significa que no se pueden poner libros cásicos?, ¿no puedo citar a Freire? Claro que no, significa que con mucha moderación.
Esta necesidad de recoger “lo que se sabe” nos lleva a la sugerencia de incluir textos en inglés. Nos guste o no nos guste o no, la mejor literatura se publica en inglés, si no usamos artículos publicados en ese idioma casi con toda seguridad nos perderemos textos relevantes.
La última pregunta ha antes formulábamos hace referencia a los atores y autores clave. Y, más allá de la honestidad intelectual y la necesidad de citar a los referentes, apuntamos una sugerencia “de viejos” que puede ser útil para lo que no lo son tanto. Esperemos no pisar muchos callos. Las personas que investigamos somos muy vanidosas. Si enviamos nuestro artículo a una revista de prestigio, lo normal es que acabe siendo evaluado por alguna de las personas clave sobre la temática. Y, sin duda, esa persona “mirará” el artículo con mayor simpatía si se encuentra entre las referencias. Creo que se entiende.
Las referencias no son un apartado más, no es algo que se genera automáticamente como cuando utilizamos un gestor bibliográfico. Las referencias dicen mucho de nuestro texto y de nosotros mismos. Si queremos mostrar nuestro mejor perfil y que, finalmente, nuestro artículo sea publicado, mimémoslo. No es optativo.
Referencias bibliográficas:
Murillo, F. J., Martínez-Garrido, C. y Belavi, G. (2017). Sugerencias para escribir un buen artículo científico en educación. REICE. Revista Iberoamericana sobre Calidad, Eficacia y Cambio en Educación, 15(3), 5-34. https://doi.org/10.15366/reice2017.15.3.001
Cómo citar esta entrada:
Murillo, F. J. y Martínez-Garrido, C. (2019). Dime qué citas y te diré cómo es tu artículo. Algunas reflexiones sobre las referencias en los artículos de investigación educativa.Aula Magna 2.0. [Blog]. Recuperado de: http://cuedespyd.hypotheses.org/6349
Tomado de Aula Magna 2.0 con permiso de sus editores 

lunes, 15 de julio de 2019

Hacia un ecosistema español de Inteligencia Artificial: una propuesta

Escribe Editor de Universo Abierto

tecnobienestar-2-1400x600
 Arteaga, Félix ; Ortega, Andrés. Hacia un ecosistema español de Inteligencia Artificial: una propuesta. Madrid: Real Instituto Elcano, 2019
La Inteligencia Artificial (IA) no es una tecnología más o una actividad que afecte sólo al ámbito académico y científico. Es una tecnología crítica para la transformación y la economía digital, por lo que su disponibilidad o carencia afecta al bienestar, prosperidad e igualdad de la sociedad española.
Este informe pretende contribuir a un debate verdaderamente “español”, transversal, con propuestas para la construcción de un ecosistema español de IA en el que participen las administraciones públicas, las empresas, el mundo académico y la sociedad. También, se trata de engarzar ese ecosistema español con el ecosistema europeo y con el resto de los actores o ecosistemas internacionales. No es una estrategia nacional de IA que le corresponda al Gobierno impulsar, en línea con otros países y con lo que pide la Comisión Europea, sino una propuesta para la creación de un entorno que facilite la creación, desarrollo y sostenibilidad de esa estrategia.
Como señala la Comisión Europea, el éxito de la coordinación de la IA descansa sobre  tres pilares: (1) aumentar las inversiones públicas y privadas en IA; (2) prepararse para los cambios socioeconómicos; y (3) garantizar un marco ético y legal adecuado. Ninguno de estos pilares se puede construir con un enfoque exclusivamente gubernamental sino con uno ecosistémico. España dispone de actores y conocimiento especializados en IA, pero le falta un modelo de coordinación, por lo que precisa articular un ecosistema que corrija esa carencia. El Gobierno precisa asociarse con el resto de los actores del ecosistema para maximizar su potencial interno y aprovechar las oportunidades de cooperación en marcos multilaterales (como la UE) o bilaterales (como el acuerdo franco-alemán sobre IA) en Europa y fuera de ella. Siendo interdependientes, el ecosistema debe ser inclusivo y permitir la participación de las administraciones públicas, incluidas las autonómicas y municipales, así como la de los sectores económicos, académicos o sociales implicadas en el desarrollo de la IA.
Para señalar objetivos estratégicos y prioridades de IA es necesario desarrollar una capacidad de inteligencia estratégica en IA que permita analizar el estado, necesidades y opciones de la IA española. El mejor conocimiento posible del estado de la IA es imprescindible para que el análisis estratégico pueda identificar y seleccionar los nichos y cadenas de valor donde aplicar la IA con mayor impacto sobre sus objetivos públicos y privados. La prioridad de esta inteligencia estratégica, recogida y procesada por el ecosistema, consiste en estar pendiente de lo que va a venir en IA y no sólo en sacar partido de lo que ya existe, en conocer qué áreas debe desarrollar y cuáles consumir. Toda estrategia española en IA debe ser coherente con una visión de país y con otros ecosistemas y estrategias tecnológicas elaboradas o en elaboración.
La mayoría de las estrategias conocidas apuestan por concentrar los esfuerzos nacionales de IA en la prestación de servicios públicos preferentes y en la producción de alto valor añadido, en lugar de dispersar los recursos limitados en desarrollos de carácter genérico. Su necesidad es más urgente en los sectores públicos o privados ya digitalizados que disponen de datos suficientes para permitir la aplicación de la IA. El ecosistema ha de ser capaz de integrar capacidades de conocimiento con capacidades industriales y sociales. Sus esfuerzos deberían centrarse en impulsar plataformas industriales que utilicen la IA como elemento competitivo de sus negocios y en la prestación de servicios públicos con un gran impacto social.
Tomado de Universo Abierto

sábado, 13 de julio de 2019

Estar informado (semanal 13/7/2019)

CUED: Tendencias de Internet en 2019: el crecimiento y uso de los datos

CUED: Sobre los investigadores más citados de España: análisis del periodo 2015-2018

CUED: Barreras para el aprendizaje de los estudiantes con libros electrónicos

CUED: Apuntes para reflexionar sobre los másteres oficiales

CUED: El CI tiene mas problemas de lo que piensas

Las competencias docentes en entornos virtuales: un modelo para su evaluación | García | https://t.co/LeI8R07HyE

Vídeo educativo y rendimiento académico en la enseñanza superior a distancia | De la Fuente Sánchez | https://t.co/lfDMMXjPND

Case studies of Australian and Indian quality assured online learning – | https://t.co/NWzgxQFQHx

Análisis de revistas científicas en MIAR | https://t.co/lfoKm3sPRP

What are the drivers and innovations shaping tomorrow’s higher education landscape? | https://t.co/Yj1arEcg9o

Afetividade e motivação na docência online: um estudo de caso | Castro | https://t.co/NaCSWfEHPi

Engaging Learning and the Serious eLearning Manifesto | https://t.co/PZMrZBYuQE

Global quality in online, open, flexible and technology enhanced education: An analysis of strengths, weaknesses, opportunities and threats — | https://t.co/9PyYxQMQw1

E-learning is Taking Over Offline Teaching. Here’s Why | https://t.co/uCZMNsty2y

Renacimiento de las Humanidades: el valor de enseñar para el mañana — | https://t.co/LdsHZqLGcM

Dos métodos de aula invertida: el más utilizado y el más avanzado. En 4 minutos. – | https://t.co/z9GwD0saWW

Profundizando en el conocimiento: la reflexión como herramienta de aprendizaje — | https://t.co/V6ttppKoNP

Educación: Cuando Bill Gates gastó más de 200 millones en revolucionar la educación y fracasó | https://t.co/bvcayZe4fo

How young universities aiming for high rankings are preparing for “Generation Alpha”. | https://t.co/iXH7THjmyo

La revolución de la ciencia de datos | https://t.co/eEE4x5xT3Z

La regulación y la educación son los principales obstáculos para la transformación digital. | @scoopit via @lgaretio lacomparacion.com/la-regulacion-

Nuevas combinaciones de aula inversa con just in time teaching y análisis de respuestas de alumnos | Prieto Martín | https://t.co/VDGbzp3PaR

Blended learning, más allá de la clase presencial | Jesús Salinas | https://t.co/epMywvqUJM

Mobile Learning Trends for 2019 | https://t.co/hdqBnH3JwE

viernes, 12 de julio de 2019

Tendencias de Internet en 2019: el crecimiento y uso de los datos


Escribe Editor de Universo Abierto


Young Asian Girl Using Smartphone in urban city
The Internet Trends report 2019
El informe Tendencias de Internet – el juego de diapositivas favorito de todos – de Bond Capital, creado en 1995 por Mary Meeker ·”La Reina de Internet” subraya las tendencias estadísticas y tecnológicas más importantes de Internet
Lo más destacable para 2019 es la desaceleración del crecimiento de las ventas de comercio electrónico, el aumento del gasto publicitario en Internet, el crecimiento de los datos, así como el aumento de los modelos de negocio de suscripción gratuita, la telemedicina, el uso compartido de fotografías, los juegos interactivos, la economía bajo demanda y mucho más. La “Reina de Internet” hizo referencia a Slack, Stripe, Spotify, Dropbox, Discord, Twitch, Zoom, Stitch Fix, Instagram y la compañía de cartera de bonos Canva
Con 3,8B, el número de usuarios de Internet representa más de la mitad de la población mundial. Si bien el comercio electrónico sigue ganando cuota frente a la venta al por menor física, las tasas de crecimiento están disminuyendo. Mientras el crecimiento de la publicidad en Internet es sólido y la innovación es saludable. Mientras que el crecimiento de los usuarios de Internet se está desacelerando, la innovación y la competencia mundial siguen impulsando el crecimiento de los productos. mejoras, nuevos tipos de uso y monetización – especialmente en áreas de vídeo digital, voz, prendas de vestir, servicios locales y mercados tradicionalmente desatendidos.
Fuera de EE.UU., nos centramos se aprecia un crecimiento e innovación especialmente altos en servicios financieros y de cumplimiento directo basados en datos. Se destacan cambios masivos de uso global relacionados con la evolución de las imágenes y los juegos interactivos como herramientas de comunicación y la amplia aparición de los negocios de freemium a escala. El rápido aumento de los datos digitales recopilados y analizados es a menudo fundamental para el éxito holístico de los que actúan de manera más rápida. empresas en crecimiento y más exitosas de nuestro tiempo en todo el mundo. Los datos ricos en contexto pueden ayudar a las empresas proporcionan a los consumidores productos y servicios cada vez más personalizados que a menudo pueden ser obtenidos a precios más bajos y entregados de manera más eficiente. Esto, a su vez, puede aumentar la satisfacción del cliente.
Unas mejores herramientas basadas en datos pueden mejorar la capacidad de los consumidores para comunicarse directa e indirectamente con empresas y reguladores. Los componentes principales (consumidores / empresas / reguladores) están haciendo uso cada vez más de más de datos, aunque los retos de gestión siguen aumentando para todas las partes interesadas, lo que puede ser el primer paso para impulsar el cambio.
Los consumidores son conscientes de las preocupaciones sobre la sobrecarga del uso de Internet y están tomando medidas para reducir su uso. Las principales plataformas de Internet con sede en EE.UU. han implementado herramientas para ayudar a supervisar el uso y el crecimiento del uso de los medios de comunicación social parece que se está desacelerando tras un período de fuerte crecimiento. Debido a la amplificación de los medios de comunicación social, las revelaciones / acciones / reacciones sobre los eventos pueden precipitarse rápidamente.
Esto ha traído un nuevo enfoque a un viejo desafío para los reguladores de todo el mundo, encontrar las maneras más efectivas de amplificar lo bueno y minimizar lo malo, a menudo resultando en diferentes interpretaciones y estrategias regionales. A medida que los sistemas de Internet se vuelven cada vez más sofisticados, ricos en datos y de misión crítica, también lo es la oportunidad de ataques cibernéticos. Nos encontramos en una nueva era de ciberseguridad en la que las cuestiones tecnológicas se entremezclan cada vez más con la diplomacia y la defensa internacionales, y nos centramos en el impacto de Internet en el trabajo (a través de servicios bajo demanda y opciones remotas), la educación y la sanidad.
Tomado de Universo Abierto

jueves, 11 de julio de 2019

Sobre los investigadores más citados de España: análisis del periodo 2015-2018

Escriben Editores del Blog de Studia XXI

Como señalábamos en una entrada anterior (ver aquí), Clarivate Analytics ha analizado las publicaciones científicas en el período 2006 – 2016 y ha publicado la relación de los investigadores más citados del mundo en 21 ámbitos del conocimiento, integrada por 4.060 investigadores; en esta relación figuran 76 investigadores españoles, 7 son mujeres. Además, esta edición ha incorporado un apartado nuevo, el número 22, con una relación de 2.020 investigadores que, aun teniendo méritos relevantes, no superan el umbral para ser incluidos en la lista de los más citados en su ámbito del conocimiento; esta relación incluye 39 investigadores españoles, 9 son mujeres.
La tabla que es ofrecida a continuación proporciona una perspectiva de la presencia  de investigadores españoles en la lista de los investigadores más citados del mundo, así como el peso de las universidades.
La observación de la tabla permite, entre otras consideraciones, afirmar:
  • El número de investigadores españoles en la lista de Clarivate Analytics aumenta anualmente.
  • De acuerdo con el INE, la crisis en la contabilidad nacional se inició en el año 2008 y finalizó en 2014. En consecuencia, los intervalos temporales utilizados por Clarivate Analytics para analizar las publicaciones científicas, solapan con la crisis económica, seis años en la lista publicada en 2015 y siete en las de 2016, 2017 y 2018.
  • La inversión total (administraciones, empresas e instituciones) en I+D, a partir de 2008 inicia un descenso leve hasta el año 2010, para continuar con un descenso pronunciado hasta el año 2014, que “toca fondo”; a partir de 2014 asciende con ritmos diferentes hasta 2017, año en el que la inversión alcanza, aproximadamente, la cuantía de 2011.
  • Sin embargo, y a pesar de la disminución de la inversión en I+D, de la tabla se infiere que la aportación de los investigadores españoles  a la ciencia de excelencia mundial ha mantenido tendencia ascendente, salvo el año 2017 en el que, aunque aumenta el número de investigadores españoles respecto al año anterior, su peso porcentual disminuye.
  • Se revela, por tanto, una especie de inmunidad de la ciencia española de excelencia –siempre considerando solamente el indicador de Clarivate Analytics– ante la disminución de la inversión nacional e I+D. Sin entrar en el análisis detenido de esta circunstancia, una explicación puede estribar en el origen de la financiación, pues los proyectos desarrollados, o participados, por los investigadores españoles citados por Clarivate Analytics, son financiados principalmente por la UE, por organismos y agencias internacionales, por programas estratégicos, y por tanto con garantía de financiación, de las administraciones, por empresas o por consorcios con participación público-privada.
  • En el caso de investigadores universitarios, el porcentaje de su presencia en las listas de la élite investigadora mundial, aumenta desde el 59,62% en la lista de 2015 hasta el 72.36 % en la de 2018. (El 75,08 % si a la lista de 2018 es incorporado el apartado 22).
  • En el caso de los investigadores pertenecientes al CSIC, el porcentaje de su presencia en la listas de la élite investigadora mundial, salvo el repunte 2016, disminuye desde el 40,38% de 2015 al 31,57% de 2018 (el 25,22% si es incorporado el apartado 22).
Finalmente, un dato adicional:
  • El Banco Mundial, utilizando como fuente el Instituto de Estadística de Naciones Unidas, ha publicado el número de investigadores por millón de habitantes para cada país del mundo, correspondiente al año 2016. En este número incluye los estudiantes de doctorado. España ocupa el puesto 27 del mundo con 2.732 investigadores por millón de habitantes, mientras que la media de la UE es de 3.749 investigadores por millón de habitantes (Dinamarca, 7.515; Corea del Sur, 7.113; Islandia, 6.635; Finlandia, 6.525; Irlanda, 5.563; Japón, 5.210; Alemania, 4.893; Reino Unido, 4.430; Portugal, 3.929). España tiene un déficit respecto a la UE de 1.017 investigadores por millón de habitantes; considerando 45 millones de habitantes en España, resulta que para alcanzar la media de la UE es necesario incorporar 45.765 investigadores y doctorandos.
Tomado del Blog de Studia XXI con permiso de sus editores

miércoles, 10 de julio de 2019

Barreras para el aprendizaje de los estudiantes con libros electrónicos

Escribe Editor de Universo Abierto

teachers-prefer-ebooks-in-classrooms-1200x565
Pierard, Cindy.. [et al.] “Undesirable Difficulties: Investigating Barriers To Students’ Learning With Ebooks In A Semester-Length Course” (Preprint). College & Research Libraries, 2019
Nuestra capacidad para tomar decisiones informadas sobre los libros electrónicos se ve limitada por nuestra limitada comprensión de cómo los estudiantes los perciben y utilizan.
Un equipo de bibliotecarios y un profesor de ciencias del aprendizaje pidieron a los estudiantes graduados que actuaran como informantes sobre la experiencia de los estudiantes con los libros electrónicos. En dos estudios semestrales se analizó el trabajo de los estudiantes, centrándose en las barreras y los precios. En ek primer grupo, los estudiantes que eligieron explorar los libros electrónicos descubrieron los precios. En el segundo grupo, los niveles de comodidad de los estudiantes con formatos PDF aumentaron, mientras que la comodidad con los libros electrónicos disminuyó.
Se discuten estrategias para minimizar los desafíos y aumentar las dificultades deseables para apoyar el uso de los libros electrónicos como herramientas de aprendizaje.

martes, 9 de julio de 2019

Apuntes para reflexionar sobre los másteres oficiales

Escribe Teodoro Luque

El proceso de Bolonia proponía la creación del Espacio Europeo de Educación Superior adoptando un sistema de dos ciclos: grado y posgrado. Este último comprendía el máster (de uno o dos años) y el doctorado. Conviene subrayar que este tipo de máster es al que se denomina máster oficial con validez en ese espacio, diferente de otras denominaciones como los másteres propios universitarios (con reconocimiento limitado al de la universidad que lo imparte) y otros, también denominados másteres, impartidos por entidades privadas de diversa índole.
El Real Decreto 1393/2007, de 29 de octubre, por el que se establece la ordenación de las enseñanzas universitarias oficiales, en su art. 10 señala que la finalidad del máster (oficial) es “la adquisición por el estudiante de una formación avanzada, de carácter especializado o multidisciplinar, orientada a la especialización académica o profesional, o bien a promover la iniciación en tareas investigadoras”.
Se ha desarrollado normativa, procedimientos y directrices para el diseño y seguimiento de un título tan importante como el de máster, pero, cualquiera que conozca un poco la situación, convendrá que no es un asunto resuelto; basta hablar con candidatos al título, estudiantes, egresados, profesores, coordinadores o personal con responsabilidad en la gestión de los mismos.
En los últimos años, la evolución de títulos y de estudiantes ha tenido un crecimiento claro (figura 1). Entre 2011/12 y 2018/19, los estudiantes de máster en universidades públicas han aumentado un 48,2% mientras que en las privadas lo han hecho un 170,4%. Durante todos los años de la serie, la tasa de crecimiento de las privadas ha sido mayor que la de las públicas, lo que ha provocado que el reparto pase de un 76,46% de estudiantes al principio de ese período en las públicas y un 23,54% en las privadas a un 64,04% y un 35,96% (figura 3), respectivamente. Es decir, un trasvase de 12,42 puntos porcentuales.
La evolución del número de egresados de máster (figura 2 y 4) también ha crecido mucho más en las universidades privadas (158,78%) que en las públicas (39,04%). En el curso 2011-12 el 77,33% de los egresados de Máster lo eran en universidades públicas mientras que, en el curso 2016/17, el último disponible, ese porcentaje ha caído en 12,62 puntos en las públicas a favor de las privadas.
Figuras 1 a 4. Estadísticas de Máster en universidades públicas y privadas
Fuente: Ministerio de Educación y Formación Profesional.
Fuente: Ministerio de Educación y Formación Profesional.
Estos datos dan muchas pistas sobre la tendencia existente. Pero el análisis de la oferta de máster debe ir más allá: debe abarcar todo el proceso desde su origen hasta su clausura.  Por supuesto hay gran variedad de situaciones, lo que no impide la necesidad de reflexionar y de plantearse algunas cuestiones generales sobre la oferta de máster.
En primer lugar, es lícito preguntarse hasta qué punto la cartera de titulaciones de máster de una universidad responde a los planteamientos de interés general y de necesidades sociales, o está condicionada en demasía por otros factores que tienen que ver con intereses parciales de departamentos y de su potencial docente, por necesarios y legítimos que sean dichos intereses.
Por el lado de la demanda, habría que ver qué ocurre cuando sistemáticamente la demanda en un máster es reducida, cómo se hace la selección de quienes ingresan (más aún cuando la demanda es muy reducida), si realmente el alumnado que accede tiene la formación necesaria previa para iniciar esa especialización (o incluso si tiene el nivel de idioma en el que se imparte el máster) o, por el contrario, si lo que prima es alcanzar un mínimo. Por otro lado, también cabe preguntarse si la diversa procedencia de formación básica de los alumnos de un máster puede producir egresados con menos conocimientos sobre la materia que los egresados de un grado existente en ese ámbito.
En cuanto a la estructura de los cursos, en el título se usa y posiblemente se abusa de la división de cursos en parcelas pequeñas: la atomización. Es demasiado frecuente que un curso de 2 o 3 créditos esté compartido por varios profesores, y no exactamente por necesidades del proceso de enseñanza-aprendizaje. Esto dificulta la coordinación y la evaluación, además de las molestias e ineficiencias que introducen los cambios tan continuados. Por otro lado, habría que preguntarse si la oferta de créditos de actividades complementarias responde al nivel que una formación especializada requiere.
Otro aspecto fundamental es la coordinación de los másteres. Es una tarea enorme que no está suficientemente  reconocida. La persona encargada de coordinar un máster suele llevar el peso de la selección de alumnos, de la información  y la coordinación tanto de alumnos como profesores (de dentro y de fuera), pero además debe atender a los cada vez más burocráticos controles de calidad y los cada vez más abundantes procesos de todo tipo (alguna vez debería hacerse un análisis sobre lo que esos procesos cuestan en tiempo y recursos y lo que aportan). También debe formar los tribunales de TFM, buscar e impulsar convenios con empresas para hacer prácticas y con otras universidades para intercambios internacionales, por destacar solamente algunas tareas. Realmente, ¿para la coordinación y para la gestión del máster en general, se cuenta con los medios necesarios?
En cuanto a los procesos de evaluación del alumnado en los másteres, llama la atención que las calificaciones de los máster son significativamente más elevadas que las de los grados, por lo que surge la cuestión de si el nivel de exigencia es parecido al de grado. Por otro lado, con frecuencia en los posgrados hay calificaciones iguales o prácticamente iguales para todos los alumnos de un mismo curso, algo poco creíble y seguramente injusto.
Otro asunto pendiente es el servicio post-graduación y de acompañamiento para la inserción laboral de quienes terminan el máster. ¿Se puede hacer más y/o mejor? Con seguridad, sí. Precisamente los estudios de opinión de egresados ponen de manifiesto que lo peor valorado se refiere a la formación práctica y a la preparación para la inserción laboral. Mientras que la experiencia y el aprendizaje durante la realización del TFM se encuentra entre los aspectos mejor valorados.
Finalmente, por la naturaleza del título, la oferta de máster debiera dotarse de flexibilidad para adaptarse a la evolución de los tiempos, del conocimiento y de los nuevos retos y metodologías. Esto incluye la capacidad de reciclar y reestructurar.
En fin, como se indicaba en el título inicial, estos son algunos aspectos (por supuesto sin pretensión de exhaustividad) que se entienden relevantes y sobre los que actuar para mejorar la oferta de este título que, más allá de normativas y de responsables de gestión, nos compromete a toda la comunidad, y de manera muy especial al profesorado (coordinación incluida) y al alumnado. Todo ello para intentar cumplir con lo que se espera de la finalidad del título, situando al estudiante (y a la calidad de su formación) como prioridad.
Tomado del Blog de Studia XXI con permiso de sus editores

lunes, 8 de julio de 2019

El CI tiene mas problemas de lo que piensas

Escribe Javier Tourón



Esta no es una entrada para todos lo públicos, pero me veo impelido a hacerla. Que los mitos son casi indestructibles no tiene duda. Hace escasas fechas a propósito de una noticia sobre altas capacidades en una Comunidad Autónoma la periodista volvía a hablar de "coeficiente" y del 2% de la OMS. Sigue habiendo gente que se empeña en apuntarse al CI, pensando (supongo) que hace algo bueno y valioso para las personas, pero no es así. Y ello por razones diversas, conceptuales unas y técnicas otras. Algunas de las conceptuales las puedes rescatar aquí. Bueno, más que rescatar te animaría a estudiarlas. Las técnicas van a continuación.
Cualquier persona con un poco de formación en psicometría debería ser prudente a la hora de establecer juicios sobre el CI de una persona ligados a una etiqueta, cromosoma de oro o estado del ser. Porque no, no es lo mismo ser una persona dotada que tener un CI alto. No digamos si hablamos de las llamadas "inteligencias fuera de la curva normal".
Pero es que al hecho que ya señalaba Alan Kaufman sobre el CI: “Se trata de una estupidez, de una interpretación errónea muy frecuente. No existe tal cosa como el CI de una persona. Este es un constructo que varía. Cambia el test de CI, y verás cómo cambia el CI. Cambia de examinador, el día de la prueba, el estado de humor de la persona evaluada o el nivel de alerta del examinador, y verás cómo cambia el CI. Evalúa a una misma persona doce veces y obtendrás doce CIs diferentes (Kaufman, 2009, p. 3), me temo que hay otras razones inherentes al problema mismo de la medida. Las que señalo a continuación están en la base misma del asunto que tratamos.
Mientras que en la teoría clásica de los tests (en adelante TCT) el objeto fundamental consiste en evaluar la bondad de los tests elaborados, siendo la fiabilidad y la conceptualización del error los aspectos nucleares, en la teoría de respuesta al ítem, también denominada en el pasado como Teoría del Rasgo Latente (en adelante TRI), el objeto central de análisis lo constituye el ítem, de forma que los índices que describen los tests proceden de los parámetros de los ítems, de modo que la TRI forma un todo coherente y compacto y se basa en unos supuestos comprobables. La TCT, como recordamos, es un tanto incoherente, pues los procedi­mientos de análisis de los ítems son independientes de los procedimientos de análisis del test.
La propia naturaleza de la TCT, por ejemplo, hace que la discriminación de un ítem dependa de las puntuaciones finales del test. Por lo tanto, un mismo ítem puede tener distintos índices de discriminación en función del conjunto de ítems con los que se presente. En la TRI, los parámetros de los ítems no dependen en absoluto de los ítems con los que se presentan. Por el contrario, la puntuación de los tests se hace en función de las respuestas de los sujetos a cada  ítem y de los parámetros de cada ítem.
Sin embargo, como apunta Muñiz (1990) citando a Lord (1980), "la TRI no contradice ni las asunciones ni las conclusiones fundamentales de la TCT, sino que hace asunciones adicionales que permiten responder cuestiones que la TCT no podía". Voy a dedicar los próximos párrafos a ir esbozando los aspectos fundamentales de este nuevo enfoque, sin pretensión de tratamiento monográfico o didácticamente autocontenido, sino que —siguiendo el esquema general lógico que, a nuestro juicio, estas páginas deben tener— me limitaré a un planteamiento conceptual que dé cuenta de la estructura y contenido de este enfoque, para ilustrar los problemas que tiene una medida de CI, o de cualquier otra variable psicológica o educativa basada en la TCT.
1) Los estadísticos de los ítems en la TCT dependen de las características de la distribución del rasgo en la muestra y en la población.
Esto parece bastante obvio. Los dos parámetros principales de los ítems en la TCT son el índice de dificultad y el índice de discriminación. El primero entendido como el porcentaje de aciertos y el segundo como un índice de correlación entre la puntuación total del test y las puntuaciones del ítem. No requiere mayor aclaración, pues es evidente que ambos parámetros dependen de la capacidad de los sujetos que forman parte de los grupos en los que se aplican los tests. Así, si la capacidad es alta, los índices de dificultad (entendidos como porcentaje de aciertos) también lo serán. Si la variabilidad del grupo es grande, los índices de discriminación aumentarán (variabilidad y correlación están intrínsecamente unidas).
2) Los estadísticos del test dependen de la muestra (o población) sobre los que se calculen.
Esto es claro. La fiabilidad, el error de medida, las relaciones de un test con otros dependen, en buena medida, de las características de las muestras, de sus medidas de tendencia central, variabilidad, etc. Basta con recordar cuáles son los términos básicos implicados en las expresiones de cálculo.
3) Las condiciones de paralelismo en las que se apoya la TCT son poco plausibles.
Básicamente en la TCT, el coeficiente de fiabilidad se define como un coeficiente de correlación entre las puntuaciones obtenidas en dos formas paralelas de un test (sobre las condiciones de paralelismo ver la nota al pie 19). Todos los demás coeficientes de fiabilidad propuestos son derivaciones de esta noción básica y ofrecen estimaciones de la verdadera fiabilidad del test, como es el caso del coeficiente a y sus casos particulares, KR20 y otros.
4) La puntuación total de un test en la TCT, a partir de la cual se realizan la mayor parte de las inferencias, depende de los ítems concretos que componen el test.
Dado que las puntuaciones en un test dependen directamente del conjunto de ítems que lo componen, no es posible estimar la aptitud o capacidad de una persona en el rasgo medido, sino en el rasgo a partir del test empleado. Es decir, que la estimación del rasgo depende del conjunto de ítems del test, con lo cual las generalizaciones y comparaciones están limitadas a sujetos que hayan respondido el mismo test.
5) El estimador de la puntuación verdadera depende del grupo de referencia.
Basta recordar que la estimación de la puntuación verdadera en la TCT se realiza a través de la regresión lineal y a partir de la puntuación observada (X). En efecto, como sabemos, la ecuación para el pronóstico de la puntuación verdadera a partir de la observada, si podemos asumir que las medias condicionales para los diferentes valores observados de X se ajustan a una línea recta, es una ecuación de regresión lineal de mínimos cuadrados. Es decir, que la puntuación estimada depende de dos componentes ponderados por la fiabilidad del test: la media del grupo y la puntuación observada.
6) La TCT no proporciona un modelo teórico para las respuestas de los sujetos a los ítems.
Esta limitación no tiene ninguna aclaración posible. Simplemente es así, la TCT no se plantea esta cuestión. Su foco de atención es el test globalmente considerado, no modelizar cómo pueden ser las respuestas de los sujetos a los ítems particulares.
7) Los supuestos sobre el error de medida son poco plausibles.
Es conveniente recordar, como sabemos, que la TCT supone que se cumple el supuesto de homocedasticidad para los errores; es decir, que la varianza de los errores es constante a lo largo de todas las puntuaciones del test. Este es un supuesto que no se cumple con frecuencia, aunque hay modelos que permiten tratar la heterocedasticidad (Cfr. Lord y Novick, 1968).
8) Los tests bajo la TCT no producen medidas ajustadas  a las condiciones particulares de los sujetos.
Los tests clásicos son iguales para todos los sujetos, están concebidos para sujetos de aptitud media, de modo que no son "económicos" ni adecuados para sujetos de características extremas. Es necesario poder emparejar las condiciones de los tests con las aptitudes de los sujetos.
Estas son las principales limitaciones que plantea la TCT, que no son poco importantes, como sabemos, y que la TRI pretende superar con un nuevo enfoque de la medida. Nuevo enfoque que tendrá que lograr, entre otras cosas:
"a) Que las características de los ítems no dependan del grupo en el que se calculen.
b) Que las puntuaciones que describan el comportamiento de los sujetos examinados en el test no dependan de los contenidos particulares de éste ni de su dificultad.
c) Que los modelos estén expresados en función del ítem y no del test completo.
d) Un modelo que no requiera del supuesto de estricto paralelismo u otras formas de equivalencia para establecer la fiabilidad del test.
e) Un modelo que proporcione medidas de precisión para cada nivel de aptitud, eliminando el supuesto de homocedasticidad de la varianza de error.
f) Un modelo que permita relacionar el rasgo o constructo con el rendimiento del sujeto en el ítem" (Martínez Arias, 1995).
Estas son, como parece claro, precisamente, las principales propiedades de la TRI, desarrollada en numerosos trabajos entre los que destacan los de Hambleton (1989); Hambleton y Swaminathan (1985); Hambleton, Swaminathan y Rogers (1991); Lord (1980) y Wright (1979), entre otros.
Las dos características esenciales de los diversos modelos que se agrupan bajo la TRI, se caracterizan porque:
a) Suponen un rasgo o aptitud único subyacente al rendimiento del examinando;
b) la relación entre el rasgo o la aptitud del sujeto y su respuesta a un ítem puede describirse por medio de una función monótona creciente, denominada Curva Característica del Ítem (CCI, en adelante), que establece las probabilidades de respuesta.
Así pues, y a modo de resumen, se puede señalar que, además de las aportaciones de tipo técnico que aportará la TRI a la hora de construir tests, por ejemplo, "su gran contribución se centra en la posibilidad de obtener mediciones invariantes respecto de los instrumentos utilizados y de los sujetos implicados. En la TCT el resultado de la medición de una variable depende del test utilizado (...). En la Teoría Clásica la medición de una variable es inseparable del instrumento utilizado para medirla y ello constituye una seria limitación, pues inevitablemente se acabará definiendo operativamente la variable por el instrumento con que se mide (...). Además, las propiedades del instrumento de medida, esto es, de los ítems y, por tanto, del test, están en función de los sujetos a los que se aplican (...). El acercamiento clásico se encontraba encerrado en esa incongruencia teórica: la medición depende del instrumento utilizado y las propiedades de éstos están en función de los objetos medidos, de los sujetos. El objetivo central de la TRI será solucionar este problema" (Muñiz, 1990).
Me temo que esto justifica la frase del principio: "(...) No existe tal cosa como el CI de una persona. Este es un constructo que varía. Cambia el test de CI, y verás cómo cambia el CI. Cambia de examinador, el día de la prueba, el estado de humor de la persona evaluada o el nivel de alerta del examinador, y verás cómo cambia el CI. Evalúa a una misma persona doce veces y obtendrás doce CIs diferentes".
Seamos prudentes y no etiquetemos a las personas. Evaluemos con prudencia sus resultados no solo en los tests, también en sus porfolios. Lo diré una última vez: no se trata de etiquetar, clasificar o denominar, sino de ayudar a las personas a superar sus limitaciones y a brillar en sus potencialidades. Vamos, ayudarles en su educación, que tiene que ser tan personalizada como cada persona es en sí misma.
Y si todavía te quedan dudas puedes leerte este artículo clásico de Robert Sternberg: Identifying the gifted through IQ: Why a little bit of knowledge is a dangerous thing. Journal Roeper Review  Volume 8, 1986 - Issue 3: The IQ Controversy
Tomado de Javier Tourón con permiso de su autor