Construido en el Laboratorio Lincoln del MIT, el programa RIO detecta y analiza automáticamente las cuentas de las redes sociales que difunden desinformación a través de una red.
Las campañas de desinformación no son nuevas: piense en la propaganda de tiempos de guerra utilizada para influir en la opinión pública contra un enemigo. Sin embargo, lo nuevo es el uso de Internet y las redes sociales para difundir estas campañas. La difusión de desinformación a través de las redes sociales tiene el poder de cambiar las elecciones, fortalecer las teorías de la conspiración y sembrar la discordia.
Steven Smith, miembro del personal del Grupo de Algoritmos y Arquitecturas de Software de Inteligencia Artificial del MIT Lincoln Laboratory, es parte de un equipo que se propuso comprender mejor estas campañas al lanzar el programa Reconnaissance of Influence Operations (RIO). Su objetivo era crear un sistema que detectara automáticamente las narrativas de desinformación, así como a las personas que difunden las narrativas dentro de las redes sociales. A principios de este año, el equipo publicó un artículo sobre su trabajo en las Actas de la Academia Nacional de Ciencias y recibieron un premio R&D 100 el otoño pasado.
El proyecto se originó en 2014 cuando Smith y sus colegas estaban estudiando cómo los grupos maliciosos podían explotar las redes sociales. Notaron una actividad aumentada e inusual en los datos de las redes sociales de cuentas que parecían impulsar narrativas prorrusas.
«Nos estábamos rascando la cabeza», dice Smith sobre los datos. Entonces, el equipo solicitó financiamiento interno a través de la Oficina de Tecnología del laboratorio y lanzó el programa para estudiar si se utilizarían técnicas similares en las elecciones francesas de 2017.
En los 30 días previos a las elecciones, el equipo de RIO recopiló datos de las redes sociales en tiempo real para buscar y analizar la difusión de desinformación. En total, recopilaron 28 millones de publicaciones de Twitter de 1 millón de cuentas. Luego, utilizando el sistema RIO, pudieron detectar cuentas de desinformación con un 96 por ciento de precisión.
Lo que hace que el sistema RIO sea único es que combina múltiples técnicas de análisis para crear una visión integral de dónde y cómo se difunden las narrativas de desinformación.
«Si está tratando de responder a la pregunta de quién es influyente en una red social, tradicionalmente, las personas observan los recuentos de actividad», dice Edward Kao, otro miembro del equipo de investigación. En Twitter, por ejemplo, los analistas considerarían la cantidad de tuits y retuits. «Lo que descubrimos es que, en muchos casos, esto no es suficiente. En realidad, no te dice el impacto de las cuentas en la red social».
Como parte del trabajo de doctorado de Kao en el programa Lincoln Scholars del laboratorio, un programa de becas de matrícula, desarrolló un enfoque estadístico, ahora utilizado en RIO, para ayudar a determinar no solo si una cuenta de redes sociales está difundiendo desinformación, sino también cuánto causa la cuenta la red en su conjunto para cambiar y amplificar el mensaje.
Erika Mackin, otro miembro del equipo de investigación, también aplicó un nuevo enfoque de aprendizaje automático que ayuda a RIO a clasificar estas cuentas al analizar datos relacionados con comportamientos, como si la cuenta interactúa con medios extranjeros y qué idiomas usa. Este enfoque permite a RIO detectar cuentas hostiles que están activas en diversas campañas, que van desde las elecciones presidenciales francesas de 2017 hasta la difusión de desinformación sobre el Covid-19.
Otro aspecto único de RIO es que puede detectar y cuantificar el impacto de las cuentas operadas tanto por bots como por humanos, mientras que la mayoría de los sistemas automatizados que se usan en la actualidad solo detectan bots. RIO también tiene la capacidad de ayudar a quienes usan el sistema a pronosticar cómo las diferentes contramedidas podrían detener la propagación de una campaña de desinformación en particular.
El equipo prevé que RIO sea utilizado tanto por el gobierno como por la industria, más allá de las redes sociales y en el ámbito de los medios tradicionales, como los periódicos y la televisión. Actualmente, están trabajando con el estudiante de West Point Joseph Schlessinger, quien también es estudiante de posgrado en el MIT y miembro militar en el Laboratorio Lincoln, para comprender cómo se propagan las narrativas en los medios de comunicación europeos. También está en marcha un nuevo programa de seguimiento para sumergirse en los aspectos cognitivos de las operaciones de influencia y cómo las actitudes y comportamientos individuales se ven afectados por la desinformación.
“Defenderse de la desinformación no es solo una cuestión de seguridad nacional, sino también de proteger la democracia”, dice Kao.