Preocupado por el número de pacientes de COVID-19 no vacunados que acudían a su hospital, el médico francés se conectó a Facebook y subió un vídeo en el que instaba a la gente a vacunarse.
Pronto recibió docenas, luego cientos y después más de 1.000 mensajes de odio de un grupo extremista antivacunas conocido como V_V. El grupo, activo en Francia e Italia, ha acosado a médicos y funcionarios de la sanidad pública, ha destrozado oficinas gubernamentales y ha intentado interrumpir las clínicas de vacunación.
Alarmado por el abuso de su plataforma, Facebook expulsó varias cuentas vinculadas al grupo el pasado diciembre. Pero eso no detuvo a V_V, que sigue utilizando Facebook y otras plataformas y, al igual que muchos grupos antivacunas de todo el mundo, ha ampliado su cartera para incluir el negacionismo del cambio climático y los mensajes antidemocráticos.
“Vamos a por ellos a casa, no tienen que dormir más”, reza un post del grupo. “¡Lucha con nosotros!”, se lee en otro.
La naturaleza en gran medida incontrolada de los ataques a los indiscutibles beneficios para la salud de la vacuna ponen de manifiesto los claros límites de una empresa de medios sociales para frustrar incluso el tipo de desinformación más destructiva, especialmente sin un esfuerzo agresivo sostenido.
Los investigadores de Reset, una organización sin ánimo de lucro con sede en el Reino Unido, identificaron más de 15.000 publicaciones abusivas o cargadas de desinformación en Facebook de V_V, actividad que alcanzó su punto máximo en la primavera de 2022, meses después de que la plataforma anunciara sus acciones contra la organización. En un informe sobre las actividades de V_V, los investigadores de Reset concluyeron que su continua presencia en Facebook plantea “dudas sobre la eficacia y la coherencia de la intervención autodeclarada de Meta.”
Meta, la empresa matriz de Facebook, señaló en su respuesta que sus 2021 acciones nunca tuvieron como objetivo eliminar todo el contenido de V_V, sino retirar las cuentas que se descubriera que participaban en el acoso coordinado. Después de que The Associated Press notificara a Facebook la continuidad de las actividades del grupo en su plataforma, dijo que había eliminado otras 100 cuentas esta semana.
Meta dijo que está tratando de encontrar un equilibrio entre la eliminación de contenidos de grupos como V_V que claramente violan las normas contra el acoso o la desinformación peligrosa, mientras que no silenciar a los usuarios inocentes. Esto puede ser especialmente difícil cuando se trata del polémico tema de las vacunas.
“Este es un espacio altamente adverso y nuestros esfuerzos son continuos: desde nuestra retirada inicial, hemos tomado numerosas acciones contra los intentos de esta red de volver”, dijo un portavoz de Meta a la AP.
V_V también está activo en Twitter, donde los investigadores de Reset encontraron cientos de cuentas y miles de publicaciones del grupo. Muchas de las cuentas se crearon poco después de que Facebook tomara medidas contra el programa el pasado invierno, según descubrió Reset.
En respuesta al informe de Reset, Twitter dijo que había tomado medidas contra varias cuentas vinculadas a V_V, pero no detalló dichas medidas.
V_V ha demostrado ser especialmente resistente a los esfuerzos por detenerlo. Con el nombre de la película “V de Vendetta”, en la que un hombre solitario y enmascarado busca vengarse de un gobierno autoritario, el grupo utiliza cuentas falsas para eludir la detección, y a menudo coordina sus mensajes y actividades en plataformas como Telegram, que carecen de las políticas de moderación más agresivas de Facebook.
Esa adaptabilidad es una de las razones por las que ha sido difícil detener al grupo, según Jack Stubbs, investigador de Graphika, una empresa de análisis de datos que ha seguido las actividades de V_V.
“Entienden cómo funciona Internet”, afirma Stubbs.
Graphika estimó que el grupo contaba con 20.000 miembros a finales de 2021, con un núcleo más pequeño de miembros involucrados en sus esfuerzos de acoso en línea. Además de Italia y Francia, el equipo de Graphika encontró pruebas de que V_V está tratando de crear capítulos en España, el Reino Unido, Irlanda, Brasil y Alemania, donde un movimiento antigubernamental similar conocido como Querdenken está activo.
Los grupos y movimientos como V_V y Querdenken han alarmado cada vez más a las fuerzas del orden y a los investigadores del extremismo, que dicen que hay pruebas de que los grupos de extrema derecha están utilizando el escepticismo sobre el COVID-19 y las vacunas para ampliar su alcance.
Cada vez más, estos grupos están pasando del acoso en línea a la acción en el mundo real.
Por ejemplo, en abril, V_V utilizó Telegram para anunciar sus planes de pagar una recompensa de 10.000 euros a los vándalos que pintaran el símbolo del grupo (dos V rojas en un círculo) en edificios públicos o clínicas de vacunas. A continuación, el grupo utilizó Telegram para difundir fotos del vandalismo.
Un mes antes de que Facebook tomara medidas contra V_V, la policía italiana allanó los domicilios de 17 activistas antivacunas que habían utilizadoTelegrama para amenazar a personalidades del gobierno, de la medicina y de los medios de comunicación por su supuesto apoyo a las restricciones de COVID-19.
Las empresas de redes sociales han tenido problemas para responder a una ola de desinformación sobre las vacunas desde el comienzo de la pandemia de COVID-19. A principios de esta semana, Facebook e Instagram suspendieron a Children’s Health Defense, una influyente organización antivacunas dirigida por Robert Kennedy Jr.
Según Joshua Tucker, de la Universidad de Nueva York, que codirige el Centro de Medios Sociales y Política de la Universidad de Nueva York y es asesor principal de Kroll, una empresa de consultoría tecnológica, gubernamental y económica, uno de los motivos es el difícil equilibrio entre la moderación del contenido perjudicial y la protección de la libertad de expresión.
Lograr el equilibrio adecuado es especialmente importante porque las redes sociales se han convertido en una fuente clave de noticias e información en todo el mundo. Si se deja demasiado contenido malo, los usuarios pueden estar mal informados. Si se retira demasiado, los usuarios empezarán a desconfiar de la plataforma.
“Es peligroso para la sociedad que nos movamos en una dirección en la que nadie sienta que puede confiar en la información”, dijo Tucker.