La lucha contra las fake news: Lecciones del historial en redes sociales
Analizar las publicaciones pasadas de los usuarios en redes sociales puede ayudar a predecir quién es más propenso a compartir noticias falsas y a diseñar intervenciones para frenar su propagación.
Una reciente investigación propone una forma innovadora de identificar a las personas con mayor probabilidad de compartir noticias falsas, y demuestra que el historial de publicaciones de los usuarios en redes sociales puede mejorar la capacidad de predecir quiénes son más propensos a difundir este tipo de contenido.
El estudio, realizado por Verena Schoenmueller (Esade), Simon J. Blanchard (McDonough School of Business, Georgetown University) y Gita Johar (Columbia Business School, Columbia University), ha sido publicado en el Journal of Marketing Research. Sus autores confían en que los métodos desarrollados sirvan de ayuda a profesionales del marketing y expertos en desinformación en la lucha continua contra las noticias falsas.
Fuentes poco fiables
La propagación de bulos, desinformación, teorías conspirativas y afirmaciones falsas es una amenaza constante. De hecho, el Foro Económico Mundial la ha incluido entre los cinco principales riesgos globales para 2025. Los intentos de frenar la difusión de este tipo de contenidos suelen centrarse en identificar su origen, con webs como Hoaxy, Media Bias/Fact Check y NewsGuard que etiquetan a los medios como fiables o no.
Sin embargo, cuando las noticias pueden difundirse por todo el mundo en cuestión de segundos, limitarse a etiquetar la fuente sirve de poco. Son pocos los usuarios que se detienen a comprobar el origen de lo que comparten, y los medios tradicionales también han publicado historias cuya veracidad era cuestionable. Sitios como Snopes y FactCheck.org, especializados en la verificación manual, ofrecen información útil sobre artículos concretos, pero cuando estos ya han llegado al dominio público, el daño está hecho.
Por ello, los investigadores han empezado a centrar su atención en los consumidores —más que en los creadores— de contenido engañoso. Sin embargo, muchos estudios en este campo son limitados: los experimentos controlados con participantes reclutados no siempre representan al público más propenso a compartir noticias falsas, y los estudios de campo no pueden saber qué contenidos han visto los usuarios pero han decidido no compartir.
La importancia del lenguaje
Un aspecto relevante y poco explorado que puede arrojar luz sobre la propagación de noticias falsas es el historial de publicaciones de quienes ya han compartido este tipo de contenido. Comparar el lenguaje que usan con el de otras personas con características demográficas y hábitos online similares permite identificar patrones comunes, lo que a su vez ayuda a predecir comportamientos futuros y a diseñar intervenciones más eficaces.
El historial de publicaciones es una fuente de datos valiosa para diseñar estrategias que combatan la desinformación
Schoenmueller y sus coautores analizaron los historiales de publicaciones de usuarios seleccionados de Twitter a lo largo de una serie de estudios. En el primero, identificaron 66 artículos que la web de verificación Snopes había calificado como desinformación. Se recopilaron los nombres de usuario de Twitter, la ubicación y el género de quienes habían compartido esos artículos.
A partir de ahí, se formaron tres grupos de comparación: uno con usuarios que habían compartido las páginas verificadas de Snopes; otro con una muestra aleatoria de usuarios de Twitter; y un tercero con usuarios cuyas características sociodemográficas coincidían con las del grupo que había compartido noticias falsas. Se recopiló también un segundo conjunto de datos con usuarios que habían compartido al menos un artículo de medios identificados por Hoaxy como propensos a publicar afirmaciones inexactas. Se analizaron las últimas 3.200 publicaciones de cada usuario.
Propagación de la negatividad
Varios hallazgos del estudio coinciden con la literatura existente. Quienes comparten noticias falsas tienden a ser de mayor edad, más activos en redes sociales y con inclinaciones ideológicas conservadoras. También se encontró una relación entre estos usuarios y el uso de un lenguaje emocional, asociado a emociones negativas como la ira y la ansiedad.
Los rasgos de personalidad observados también son coherentes con investigaciones anteriores: los difusores de noticias falsas presentaban mayores niveles de neuroticismo y receptividad, y niveles más bajos de extroversión, amabilidad y responsabilidad. Además, su lenguaje incluía con más frecuencia palabras relacionadas con el poder y la muerte.
Los investigadores desarrollaron un modelo predictivo basado en algoritmos de aprendizaje automático para cuantificar hasta qué punto el historial de publicaciones puede predecir con precisión quién compartirá noticias falsas. Los resultados confirmaron que incorporar indicios textuales tomados del historial mejora significativamente la capacidad de clasificación del modelo.
Evaluando intervenciones
En los dos últimos experimentos exploratorios, los investigadores reclutaron usuarios de Twitter a través de plataformas de investigación para analizar cómo se relacionan los indicios textuales de su historial de publicaciones con la intención futura de compartir contenidos. En el primero, se indujo un estado de ira a 398 participantes pidiéndoles que describieran un artículo que les hubiese provocado mucha rabia. A la mitad se les asignó aleatoriamente una condición de mitigación para inducir calma.
A continuación, se les mostraron varios titulares de noticias y se les pidió que valoraran su disposición a compartir cada artículo, si creían que era veraz y qué importancia otorgaban a aspectos como la veracidad, el interés, la sorpresa, la afinidad política y el humor del contenido. Los resultados sugieren que la ira se asocia con una mayor disposición a compartir tanto noticias falsas como verdaderas. Las intervenciones para reducir la ira no tuvieron ningún efecto.
En el segundo experimento, a 481 usuarios se les mostró un timeline de Twitter que incluía un anuncio de una extensión de navegador para la verificación de noticias. A la mitad se les mostró un mensaje publicitario modificado para reforzar el énfasis en el control y el poder que les podía aportar. Luego se les preguntó si era probable que hicieran clic en el anuncio o descargaran la extensión, y se les pidió que completaran escalas para medir su “deseo de control” y su “sentido personal de poder”.
Datos valiosos
Al comparar los resultados con los indicios textuales recogidos en los historiales de publicaciones, los investigadores observaron que el uso de un lenguaje empoderador aumentaba la probabilidad de hacer clic en el anuncio y descargar la extensión.
Los autores del estudio destacan que el análisis del historial de publicaciones representa una fuente de datos valiosa para diseñar estrategias basadas en evidencia que combatan la desinformación. No obstante, advierten que la API de Twitter empleada para este análisis fue eliminada tras la transición de Twitter a X, lo que dificulta este tipo de investigaciones para quienes no disponen de presupuestos elevados.
En este sentido, el estudio también lanza un recordatorio a los organismos financiadores y a las plataformas sociales sobre la importancia de garantizar un acceso razonable a las APIs.
- Compartir en Twitter
- Compartir en Linked in
- Compartir en Facebook
- Compartir en Whatsapp Compartir en Whatsapp
- Compartir en e-Mail
¿Quieres recibir la newsletter de Do Better?
Suscríbite para recibir nuestro contenido destacado en tu bandeja de entrada..