Facebook no detectó información errónea relacionada con las elecciones en los anuncios previos a las elecciones de 2022 en Brasil, según un nuevo informe de Global Witness, continuando con un patrón de no detectar material que viola sus políticas que el grupo describe como “alarmante.”
Los anuncios contenían información falsa sobre las próximas elecciones del país, como la promoción de una fecha electoral equivocada, métodos de votación incorrectos y el cuestionamiento de la integridad de las elecciones.
Esta es la cuarta vez que la organización sin ánimo de lucro con sede en Londres ha puesto a prueba la capacidad de Meta para detectar violaciones flagrantes de las normas de su plataforma de medios sociales más popular, y la cuarta prueba de este tipo que Facebook ha fallado. En los tres casos anteriores, Global Witness presentó anuncios que contenían discursos de odio violento para ver si los controles de Facebook -ya sea los revisores humanos o la inteligencia artificial- los detectaban. No lo hicieron.
“Facebook ha identificado a Brasil como uno de sus países prioritarios en los que está invirtiendo recursos especiales para hacer frente a la desinformación relacionada con las elecciones”, dijo Jon Lloyd, asesor principal de Global Witness. “Así que queríamos poner a prueba sus sistemas con tiempo suficiente para que pudieran actuar. Y con las elecciones intermedias de Estados Unidos a la vuelta de la esquina, Meta simplemente tiene que hacer esto bien, y ahora mismo”.
Las elecciones nacionales de Brasil se celebrarán el 2 de octubre en medio de fuertes tensiones y de una desinformación que amenaza con desacreditar el proceso electoral. Facebook es la plataforma de medios sociales más popular del país. En un comunicado, Meta dijo que se ha “preparado ampliamente para las elecciones de 2022 en Brasil”.
“Hemos lanzado herramientas que promueven la información fiable y etiquetan las publicaciones relacionadas con las elecciones, hemos establecido un canal directo para que el Tribunal Superior Electoral nos envíe contenido potencialmente dañino para su revisión, y seguimos colaborando estrechamente con las autoridades e investigadores brasileños”, dijo la compañía.
En 2020 Facebook comenzó a exigir a los anunciantes que desean publicar anuncios sobre elecciones o política que completen un proceso de autorización e incluyan avisos de renuncia “Pagado por” en estos anuncios, de forma similar a lo que hace en EE.UU. El aumento de las salvaguardias se produce tras las elecciones presidenciales de 2016 en EE.UU., cuando Rusia utilizó rublos para pagar anuncios políticos diseñados para avivar las divisiones y el malestar entre los estadounidenses.
Global Witness dijo que rompió estas reglas cuando presentó los anuncios de prueba (que fueron aprobados para su publicación, pero nunca se publicaron realmente). El grupo colocó los anuncios desde fuera de Brasil, desde Nairobi y Londres, lo que debería haber hecho saltar las alarmas.
Tampoco se le exigió que pusiera una cláusula de exención de responsabilidad “pagada por” en los anuncios y no utilizó un método de pago brasileño, todas las salvaguardias que Facebook dice haber puesto en marcha para evitar el uso indebido de su plataforma por parte de actores maliciosos que intentan intervenir en las elecciones de todo el mundo.
“Lo que está bastante claro a partir de los resultados de esta investigación y de otras es que sus capacidades de moderación de contenidos y los sistemas de integridad que despliegan para mitigar parte del riesgo durante los períodos electorales, simplemente no están funcionando”, dijo Lloyd.
El grupo utiliza los anuncios como prueba y no las publicaciones regulares porque Meta afirma que los anuncios tienen un estándar “aún más estricto” que las publicaciones regulares no pagadas, según su página del centro de ayuda para los anuncios pagados.
Pero a juzgar por las cuatro investigaciones, Lloyd dijo que eso no está realmente claro.
“Constantemente tenemos que creer en la palabra de Facebook. Y sin una auditoría verificada por un tercero independiente, no podemos responsabilizar a Meta ni a ninguna otra empresa tecnológica de lo que dicen que están haciendo”, dijo.
Global Witness presentó diez anuncios a Meta que obviamente violaban sus políticas sobre publicidad relacionada con las elecciones. Incluían información falsa sobre cuándo y dónde votar, por ejemplo, y ponían en duda la integridad de las máquinas de votación de Brasil, haciéndose eco de la desinformación utilizada por actores maliciosos para desestabilizar las democracias en todo el mundo.
Estas serán las primeras elecciones de Brasil desde que el presidente de extrema derecha Jair Bolsonaro, que busca la reelección, llegó al poder. Bolsonaro ha atacado repetidamente la integridad de los sistemas electorales del país.
“La desinformación tuvo un gran protagonismo en sus elecciones de 2018, y las de este año ya están empañadas por informes de desinformación generalizada, difundida desde lo más alto: Bolsonaro ya está sembrando dudas sobre la legitimidad del resultado de las elecciones, lo que hace temer un intento de golpe de Estado al estilo ‘stop the steal’ inspirado por Estados Unidos el 6 de enero”, dijo Global Witness.
En sus investigaciones anteriores, el grupo descubrió que Facebook hizono captar la incitación al odio en Myanmar, donde los anuncios utilizaban un insulto para referirse a las personas de origen indio oriental o musulmán y pedir su muerte; en Etiopía, donde los anuncios utilizaban una incitación al odio deshumanizado para pedir el asesinato de personas pertenecientes a cada uno de los tres principales grupos étnicos de Etiopía; y en Kenia, donde los anuncios hablaban de decapitaciones, violaciones y derramamiento de sangre.