Español

Facebook censura reunión en línea del IYSSE sobre amenaza del golpe de Trump

Una reunión en línea organizada conjuntamente por los Jóvenes y Estudiantes Internacionales por la Igualdad Social (JEIIS, o IYSSE por sus siglas en inglés) en la Universidad de Michigan y la Universidad Estatal de Wayne no pudo ser publicado como página de eventos por Facebook el lunes.

La reunión virtual, prevista para el jueves 19 de noviembre a partir de las 8 p.m. hasta las 9:30 p.m., se titula "El golpe electoral de Trump y la amenaza de dictadura". Cuando los miembros del IYSSE intentaron programar la reunión como un evento de Facebook, fueron bloqueados y apareció un aviso con el siguiente mensaje: “El evento ha sido eliminado porque va en contra de nuestros Estándares de la Comunidad. Vaya a su Buzón de Entrada de Soporte para obtener más información".

No se proporcionó más explicación de cómo la reunión violó los estándares de la comunidad de Facebook. Tampoco había información adicional en la entrada de soporte de la cuenta de Facebook, como indica en el mensaje.

La censura en Facebook de la página de eventos de IYSSE

Que el bloqueo del evento fue un acto de censura política por parte de Facebook —ya sea por medio de inteligencia artificial o un monitor humano— se demuestra por el hecho de que cuando los organizadores cambiaron el evento por el título genérico de "Reunión de IYSSE", el mensaje de advertencia desapareció y el evento se programó sin problemas.

La censura de Facebook contra el IYSSE es un ejemplo de cómo la supresión sin precedentes del discurso político implementado por las plataformas de redes sociales antes del 3 de noviembre se ha intensificado en las dos semanas desde las elecciones estadounidenses de 2020.

El cierre de cuentas, como la suspensión de Twitter de la cuenta de IYSSE (EE. UU.) el miércoles pasado, la eliminación y "verificación de datos" de las publicaciones y la "desaceleración de la difusión de información errónea" se están intensificando después de las elecciones por parte de los monopolios tecnológicos sobre la base de políticas completamente antidemocráticas y autoritarias.

Twitter dejó en claro el jueves pasado que su régimen de censura de información preelectoral de "etiquetas, advertencias y preliteras" continuará indefinidamente y que algunos "cambios significativos de producto" que impiden que los Tuits sean "amplificados" en la plataforma se han hecho permanentes.

Una publicación de blog de Twitter de Vijaya Gadde, “Legal, Policy and Trust & Safety Lead” de la empresa, y Kayvon Beykpour, cofundador de Twitter, dijeron que “quieren dejar muy claro que no vemos nuestro trabajo como hecho; nuestro trabajo aquí continúa, y nuestros equipos están aprendiendo y mejorando la forma en que abordamos estos desafíos".

Gadde y Beykpour informaron que entre el 27 de octubre y el 11 de noviembre, aproximadamente 300,000 tuits habían sido etiquetados "por contenido que fue disputado y potencialmente engañoso". Agregaron que 456 tuits estaban cubiertos por un mensaje de advertencia y "tenían características de participación limitadas (los Tuits se podían ‘Quote Tweeted’ pero no Retuitado, respondido o dado un me gusta)".

El post del blog dijo que las “pre-bunk” indicaciones de Twitter "antes de la litera", —que postean mensajes en la parte superior de la página de un usuario para desacreditar de manera preventiva la "información errónea"— durante el período de tiempo especificado se vieron 389 millones de veces, aparecieron en las páginas de las personas y en Buscar (Search) y recordar a la gente que es probable que los resultados de las elecciones se retrasen y que votar por correo es seguro y legítimo".

Gadde y Beykpour reconocieron que ahora se están haciendo permanentes las medidas, en un esfuerzo por frenar la difusión de "información engañosa" en Twitter, están reduciendo el intercambio general. Escribieron en el post del blog que uno de los cambios en el producto que se mantuvo en su lugar —dio lugar a los usuarios comentar antes de retuitear el tuit de otro usuario— llegó a una caída del 20 por ciento en todos los posts compartidas en la plataforma.

Además del bloqueo de eventos como se describió anteriormente, Facebook ha seguido colocando etiquetas de verificación de datos en cada post o enlace compartido que menciona las elecciones, las papeletas o los resultados de las elecciones de EE. UU. Las etiquetas de verificación de datos vinculan a los usuarios al “Facebook Voting Information Center”, que presenta contenido del Bipartisan Policy Center (Centro de políticas bipartidistas) y la National Conference on Citizenship (Conferencia Nacional sobre Ciudadanía), dos organizaciones dedicadas a proteger el sistema bipartidista.

Debido a la escala masiva de Facebook (hay 2.700 millones de usuarios en todo el mundo y 4.750 millones de elementos posteados en la plataforma cada día), la empresa depende en gran parte de la tecnología del procesamiento de lenguaje natural y aprendizaje automático para revisar las publicaciones y eliminarlas, etiquetarlas como "desinformación” o estrangular su difusión en la plataforma. Además, Facebook emplea un ejército de 35.000 especialistas para revisión del contenido que trabajan con organizaciones terceras para “comprobación de hechos”.

Cuando la revista Columbia Journalism Review le preguntó sobre el proceso utilizado por la empresa para identificar la "información errónea", un representante de Facebook dijo: "Si uno de nuestros socios independientes de verificación de datos determina que una parte del contenido contiene información errónea, utilizamos la tecnología para identificar versiones idénticas en Facebook e Instagram".

Al explicar su censura postelectoral, Facebook emitió un comunicado en el que decía que estaba tomando medidas adicionales "para evitar que este contenido llegue a más personas". Entre las medidas adoptadas se encuentran "degradaciones de contenido en Facebook e Instagram" que "nuestros sistemas predicen" pueden ser información errónea, "incluyendo afirmaciones desacreditadas sobre las votaciones".

(Artículo publicado originalmente en inglés el 17 de noviembre de 2020)

Loading