ONU
Las teorías conspiratorias que han permeado las redes sociales durante la pandemia van más allá de la idea de que las señales 5G sean las que transmitan el virus, o que el COVID-19 sea un engaño o que un billonario quiera implantarnos microchips. Grupos terroristas, extremistas, supremacistas blancos y hasta carteles mexicanos están utilizando las redes sociales para difundir su narrativa, aumentar la polarización mundial y la desconfianza los Gobiernos, y así reclutar más adeptos para infundir más terror y odio, y ganar territorio para sus actividades ilegales.
Grupos violentos no estatales, incluidos terroristas, extremistas de derecha y del crimen organizado como los carteles mexicanos, han utilizado las redes sociales maliciosamente para reforzar sus agendas durante la pandemia de COVID-19, revela un nuevo informe del Instituto de Investigación Interregional sobre Crimen y Justicia de las Naciones Unidas.
Según el estudio, estos grupos han diseminado intencionadamente teorías conspirativas sobre el origen del COVID-19 que generalmente atribuyen a los gobiernos, determinadas etnias o religiones, supuestas redes secretas, compañías o empresarios, que, según ellos, tienen objetivos como la aniquilación de la población, el control mundial o enriquecerse mediante la venta de vacunas y tratamientos. En todos estos casos, los grupos afirman tener “el verdadero conocimiento” sobre el origen del COVID-19.
Los objetivos de los grupos violentos
Según el informe, estas teorías están dirigidas a socavar la confianza en los Gobiernos, y al mismo tiempo a reforzar narrativas extremistas como una estrategia de reclutamiento.
Por ejemplo, el grupo supremacista Blanche Europe ha dicho que la solución a la crisis de salud es exterminar a las poblaciones inmigrantes y evitar que las minorías éticas reciban tratamiento médico. Este grupo además culpó al Gobierno de Francia por no actuar rápidamente para prevenir la crisis y no priorizar a las “familias blancas”.
AlShabaab en Somalia también difundió desinformación distorsionando la naturaleza del virus y usándolo como motivación para continuar sus violentos ataques. El portavoz pidió la expulsión de todas las fuerzas extranjeras luego de afirmar que los incrédulos están propagando deliberadamente el COVID-19. En particular, culparon a la Misión de la Unión Africana en Somalia (AMISOM) desde que se reportaron los primeros casos de COVID-19 en la base de Halane.
Un segundo objetivo de los actores no estatales es incrementar el “terrorismo inspirado” o la motivación de los terroristas auto-radicalizados para perpetrar ataques reales. Hay casos en los que grupos de extrema derecha, como CoronaWaffen, pidieron explícitamente a sus seguidores que propagaran el virus tosiendo en su minoría local o asistiendo a lugares específicos donde se reúnen minorías religiosas o raciales.
Otros grupos, como Eco-Fascist Central, abogan por propagar la enfermedad del coronavirus en países con grandes poblaciones o altos niveles de contaminación. Además, CoronaWaffen ha publicado varias encuestas en línea en las redes sociales y aplicaciones de mensajería preguntando a las personas si habían propagado el virus como se les indicó.
Un ejemplo de «terrorismo inspirado» lo representa Timothy Wilson, quien, el 24 de marzo de 2020, recibió un disparo de la Oficina Federal de Investigaciones de los Estados Unidos (FBI) en Kansas City cuando planeaba detonar una bomba en un hospital que atendía a pacientes con coronavirus. Wilson participó activamente en al menos dos canales neonazis de Telegram y mantuvo comunicación con un soldado de infantería del ejército que quería planear un ataque a una importante red de noticias estadounidense y discutió sobre apuntar a un candidato presidencial demócrata. El último comentario en línea de Wilson fue un mensaje antisemita sobre el origen de COVID-19.
La influencia en línea de estos grupos extremistas también se puede observar en una serie de ciberataques perpetrados en abril de 2020, cuando 25.000 emails y contraseñas que supuestamente pertenecían a los Institutos Nacionales de Salud, la Fundación Gates y la Organización Mundial de la Salud, fueron difundidas en la red por grupos de extrema derecha.
Las tácticas en redes sociales
Los actores no estatales violentos se han aprovechado de las características inherentes de las redes sociales y las aplicaciones de mensajería donde los contenidos se pueden subir de forma anónima, instantánea y sin costo alguno.
La táctica más común utilizada especialmente por los grupos de extrema derecha para atraer seguidores es crear contenido simple y muy visual, incluidos los «memes de Internet».
Un meme consiste en una frase, imagen o video que se transmite rápidamente de persona a persona a través de Internet a través de canales de redes sociales y aplicaciones de mensajería. Los memes a menudo pretenden provocar humor para facilitar su difusión.
Los memes se han convertido en un fenómeno social para promover ideas, comportamientos o estilos, y esta es la razón principal por la que los actores violentos no estatales se han sentido atraídos por ellos. Desafortunadamente, los utilizan como método para compartir contenido antisemita, xenófobo y radical con una gran audiencia potencial.
Los agentes no estatales violentos también pueden explotar funciones y servicios proporcionados por las plataformas de los sitios de redes sociales. Por ejemplo, las principales plataformas de redes sociales, como Facebook o Twitter, trabajan con algoritmos que sugieren expandir su propia red y encontrar nuevos contactos («amigos») basados en criterios como amigos mutuos, trabajo y educación.
Como ya lo ha hecho el ISIS en los últimos años, los actores no estatales violentos, en particular los grupos de derecha, se han aprovechado de estos algoritmos durante la pandemia para ponerse en contacto con «amigos sugeridos» y reclutar nuevos miembros. Como resultado, los miembros de los grupos extremistas violentos participan con frecuencia en diferentes foros y grupos en las redes sociales en un intento de radicalizar a las personas y encontrar otros grupos o personas con quienes comparten puntos de vista extremistas similares.
Algunos grupos también están tratando de eludir las medidas de control en las principales plataformas sociales evitando el uso de ciertas palabras o símbolos que pueden identificarse fácilmente como parte del “lenguaje extremista” e incluso tratando de parecer legítimos para una gran audiencia.
Otros han mostrado resiliencia al difundir desinformación incluso después de que sus cuentas hayan sido eliminadas. Una posible táctica es reproducir los mismos contenidos creando nuevas cuentas en plataformas de redes sociales. Otra estrategia es redirigir seguidores y visitantes a canales menos controlados y cifrados (enlaces externos), como Telegram, VK, Gab o sitios web.
Este fue el caso del ‘movimiento boogaloo’ que primero publicó contenidos en Facebook para atraer seguidores, y luego los invitó a unirse a discusiones en redes de aplicaciones de mensajería como los canales de Telegram, donde era posible compartir materiales más extremos.
El uso de canales encriptados y menos controlados comenzó antes de la crisis del COVID-19. Según un informe del Consejo Europeo de Relaciones Exteriores, la suspensión de Twitter de más de 200.000 cuentas de extremistas en agosto de 2016 resultó en un «éxodo en línea hacia servicios de mensajería cifrada de extremo a extremo como Telegram, WhatsApp y Viber».
Extremistas violentos se han sentido atraídos por la gran libertad en términos de contenidos que brindan estos servicios de mensajes que, al mismo tiempo, dificultan a los organismos encargados de hacer cumplir la ley el control de las actividades extremistas. Es probable que esta tendencia se refuerce aún más a medida que avanza la pandemia.
Otro aspecto importante es el uso malintencionado de social bots o chatbots. Se trata de algoritmos informáticos que producen contenido automáticamente, interactúan con humanos en las redes sociales e intentan influir en su opinión y comportamiento.
Los bots (abreviatura de robot) sociales se están convirtiendo cada vez más en una herramienta esencial para campañas de desinformación orquestadas a gran escala en las redes sociales. Un estudio reciente de la Universidad Carnegie Mellon observó que el 45% de las cuentas de Twitter que comparten más de 200 millones de mensajes sobre el coronavirus probablemente sean bots.
Esos relatos han alimentado más de 100 narrativas falsas sobre la pandemia entre enero y mayo de 2020. Varios estudios demuestran que los grupos de extrema derecha y los grupos asociados con el EIIL y Al-Qaida poseen suficientes habilidades y conocimientos para utilizar maliciosamente bots sociales para promover su retórica y radicalizar nuevos afiliados.
La tecnología como herramienta positiva
El informe destaca que la información precisa, responsable y confiable sigue siendo fundamental para intensificar los esfuerzos colectivos para contener la transmisión de COVID-19.
Teniendo en cuenta que las redes sociales se han convertido en una fuente principal de información para millones de personas en todo el mundo, una estrategia anti-COVID eficaz debe incluir el uso de tecnología para prevenir y combatir la desinformación y la desinformación en línea.
El informe destaca cinco herramientas:
La visualización de datos: A través del Big Data (los macrodatos) se pueden visualizar las capas de desinformación, mostrar narrativas interconectadas, detectar sentimientos y cuentas de bots, para tomar decisiones oportunas basadas en conocimientos visuales
Inteligencia artificial: Se trata de sistemas inteligentes que utilizan algoritmos para guiar al público a detectar la desinformación. Una solución que puede escalarse potencialmente y detectar en el menor tiempo las noticias e informaciones falsas
Aplicaciones móviles y bots de mensajería: A través de calificar noticias como “falsas o confiables” pueden ayudar al público a diferenciar entre verdades y mentiras dentro de aplicaciones como Whastapp, Viber y Facebook Messenger
Una extensión para los navegadores: Esta puede monitorear la fiabilidad de los sitios de noticias al navegar y desplazarse dentro de las redes sociales
Educación sobre los medios digitales: Se trata de luchar contra las noticias falsas educando y ayudando a las personas a identificarlas
El estudio indica que la tecnología puede jugar un importante rol en enfrentar los retos complejos impuestos por estos grupos violentos no estatales, pero advierte que por sí sola no puede resolver el problema ni remplazar el juicio humano para contrarrestar estas amenazas.
La tecnología aumenta la velocidad y la escalabilidad para analizar datos, identificar tendencias y detectar noticias sospechosas, pero la capacidad humana para evaluar la veracidad de un texto permanece (por el momento) indiscutible. Por lo tanto, la tecnología, incluida la IA, puede ayudar a los humanos a mejorar su rendimiento, pero no puede reemplazarlos.
Además, las contramedidas basadas en la tecnología ofrecen ventajas, pero al mismo tiempo, pueden traer efectos negativos, incluido el riesgo de que las herramientas tecnológicas infrinjan la libertad de expresión y la privacidad, o que contengan sesgos ocultos que reflejen inequidades sociales.
El estudio recalca que los usuarios son la fuerza de Internet y algunos grupos son particularmente hábiles para crear burbujas sociales y promover comportamientos antisociales y, al mismo tiempo, generar desconfianza hacia los medios tradicionales.
El uso efectivo de la tecnología para detectar y desacreditar las noticias falsas debe tener como objetivo involucrar y empoderar a los usuarios para que puedan comprender el problema y tomar su propia decisión informada sobre lo que es verdad y lo que no, concluye la investigación del Instituto de Investigación Interregional sobre Crimen y Justicia de las Naciones Unidas.