jueves, 26 de noviembre de 2020

La sobrecarga de información ayuda a difundir noticias falsas, y las redes sociales lo saben

 Escribe Julio Arevalo

Information Overload Helps Fake News Spread, and Social Media Knows It: Understanding how algorithm manipulators exploit our cognitive vulnerabilities empowers us to fight back
By: Filippo Menczer, Thomas Hills
Scientific American December 1, 2020|

Ver noticia

Una de las primeras consecuencias de la llamada economía de la atención es la pérdida de información de alta calidad. El equipo de OSoMe demostró este resultado con un conjunto de simulaciones simples.

Crear, producir y difundir “memes” a través de blogs, videos, tweets y otras unidades de información es barato y fácil de producir, hasta un punto tal, que el mercado de la información está inundado de estos productos. Ante la imposibilidad de procesar todo esta información dejamos que nuestros sesgos cognitivos decidan a qué debemos prestar atención. Estos atajos mentales influyen en la información que buscamos, comprendemos, recordamos y repetimos de manera perjudicial.

La necesidad de comprender estas vulnerabilidades cognitivas y cómo los algoritmos las usan o manipulan se ha vuelto una urgencia. En la Universidad de Warwick en Inglaterra y en el Observatorio de Redes Sociales de Bloomington de la Universidad de Indiana los equipos están utilizando experimentos cognitivos, simulaciones, minería de datos e inteligencia artificial para comprender las vulnerabilidades cognitivas de los usuarios de las redes sociales. Los conocimientos de los estudios psicológicos sobre la evolución de la información realizados en Warwick analizan los modelos informáticos desarrollados en Indiana y viceversa. También se están desarrollando ayudas analíticas y de aprendizaje automático para combatir la manipulación de las redes sociales. Algunas de estas herramientas ya están siendo utilizadas por periodistas, organizaciones de la sociedad civil e individuos para detectar agentes que implican noticias falsas.

Para empeorar las cosas, los motores de búsqueda y las plataformas de redes sociales brindan recomendaciones personalizadas basadas en la gran cantidad de datos que tienen sobre las preferencias pasadas de los usuarios. Ellos dan prioridad a la información en nuestros feeds con la que es más probable que estemos de acuerdo, sin importar cuán marginal sea, y nos protegen de la información que podría hacernos cambiar de opinión. Esto nos convierte en objetivos fáciles de la polarización.

Las redes sociales siguen una dinámica similar. Confundimos popularidad con calidad y terminamos copiando el comportamiento que observamos. Cuando estamos expuestos repetidamente a una idea, generalmente de muchas fuentes, es más probable adoptarla y compartirla. Este sesgo social se amplifica aún más por lo que los psicólogos llaman el efecto de “mera exposición”: cuando las personas se exponen repetidamente a los mismos estímulos, como ciertas caras, les gustan más esos estímulos que los que han encontrado con menos frecuencia.

Tales sesgos se traducen en un impulso irresistible de prestar atención a la información que se está volviendo viral. De hecho, los programadores que diseñan los algoritmos para clasificar los memes en las redes sociales asumen que la “sabiduría de las multitudes” identificará rápidamente los elementos de alta calidad; utilizan la popularidad como un sustituto de la calidad. 

La mayoría de nosotros no creemos seguir a la manada. Pero nuestro sesgo de confirmación nos lleva a seguir a otros que son como nosotros, una dinámica que a veces se conoce como homofilia, una tendencia de las personas de ideas afines a conectarse entre sí. Las redes sociales amplifican la homofilia al permitir a los usuarios alterar sus estructuras de redes sociales mediante el seguimiento, la eliminación de amigos, etc. El resultado es que las personas se segregan en comunidades grandes, densas y cada vez más mal informadas, comúnmente descritas como cámaras de eco.

De hecho, las cámaras de eco político en Twitter son tan extremas que las inclinaciones políticas de los usuarios individuales se pueden predecir con gran precisión : tienes las mismas opiniones que la mayoría de tus conexiones. 

La calidad de la información se ve aún más afectada por los robots sociales, que pueden explotar todas nuestras lagunas cognitivas. Los bots son fáciles de crear. Las plataformas de redes sociales proporcionan las llamadas interfaces de programación de aplicaciones que hacen que sea bastante trivial para un solo actor configurar y controlar miles de bots. Pero amplificar un mensaje, incluso con solo unos pocos votos a favor de los bots en plataformas de redes sociales como Reddit, puede tener un gran impacto en la popularidad posterior de una publicación.

Comprender nuestros sesgos cognitivos y cómo los algoritmos y bots los explotan nos permite protegernos mejor contra la manipulación. 

Tomado de Universo Abierto 

No hay comentarios: