Una exmoderadora que tuvo que revisar algunos de los contenidos más odiosos en Facebook dijo que espera que las elecciones presidenciales resulten en violencia.

  • La ex moderadora de contenido de Facebook, Viana Ferguson, dijo durante un panel organizado por la organización sin fines de lucro The Real Facebook Oversight Board que los usuarios se han vuelto más vocales sobre la « violencia que están dispuestos a ejecutar » hacia las personas
  • Ferguson dijo que « definitivamente » habrá llamamientos a la violencia después de las elecciones, independientemente del ganador.
  • El director ejecutivo de Facebook, Mark Zuckerberg, comparecerá ante el Congreso el miércoles para abordar una ley que protege a las empresas de redes sociales de ser consideradas responsables por el contenido de las publicaciones de los usuarios
  • « Hemos aplicado lecciones de elecciones anteriores, hemos contratado expertos y hemos creado nuevos equipos con experiencia en diferentes áreas para prepararnos para diversos escenarios », dijo un portavoz de Facebook a Business Insider
  • ¿Es usted un conocedor con información para compartir? Envíe un correo electrónico a aakhtar @ businessinsider utilizando un dispositivo no laboral
  • Visite la página de inicio de Business Insider para obtener más historias

Una persona que fue responsable de mirar algunos de los contenidos más odiosos en Facebook dijo que está segura de que habrá llamadas a la violencia después de las elecciones de Estados Unidos, independientemente del ganador.

Viana Ferguson, ex moderadora de contenido, se unió a la organización sin fines de lucro The Real Facebook Oversight Board, para discutir el creciente racismo y el discurso de odio en Facebook. Ferguson, quien trabajó como moderador de contenido de Facebook de 2016 a 2019, dijo entre lágrimas que los usuarios se han vuelto más vocales sobre la « violencia que están dispuestos a ejecutar » hacia las personas.
Los moderadores de contenido suelen ser contratistas externos que revisan el contenido marcado en el sitio para determinar si debe eliminarse.

Los moderadores de contenido revisan las publicaciones que pueden ser violentas, pornográficas, racistas y de otra manera odiosas.
« Habrá una ola de discursos de odio. Definitivamente va a ser más violento », dijo Ferguson durante el panel el lunes.

« Va a suceder, no importa quién gane. Facebook necesita estar preparado para eso ».
Lee mas: Cómo la competitividad de Mark Zuckerberg y los intentos de mantener a Facebook políticamente neutral lo convirtieron en un refugio para la desinformación y las teorías de la conspiración que pueden influir en las elecciones
Facebook ha anunciado algunas acciones que ha tomado para frenar los llamados a la violencia el día de las elecciones, incluida la eliminación de « miles » de grupos que podrían incitar disturbios civiles.

Nick Clegg, jefe de asuntos globales de Facebook, se negó a compartir políticas específicas en septiembre, pero dijo que la compañía planea « restringir la circulación de contenido » que podría provocar disturbios civiles.
« Hemos aplicado lecciones de elecciones anteriores, hemos contratado expertos y hemos creado nuevos equipos con experiencia en diferentes áreas para prepararnos para diversos escenarios », dijo un portavoz de Facebook a Business Insider.
El director ejecutivo de Facebook, Mark Zuckerberg, dijo en una entrevista con Axios que la información falsa sobre las elecciones podría difundirse en Facebook y reconoció que podría haber « disturbios civiles » después del día de las elecciones.

« Simplemente creo que tenemos que hacer todo lo posible para reducir las posibilidades de violencia o disturbios civiles a raíz de estas elecciones », dijo Zuckerberg.
Lee mas: Salarios de Facebook revelados: cuánto paga la red social por ingenieros de software, gerentes de producto, redactores publicitarios y más
Otro ex moderador de contenido se unió a Ferguson durante el panel, así como un trabajador actual que habló de forma anónima, para discutir la dificultad de eliminar publicaciones racistas y odiosas debido a las lagunas en las pautas de Facebook.
Facebook ha sido criticado por su trato a los moderadores de contenido.

Los moderadores han vuelto a los espacios de trabajo físicos durante la pandemia de coronavirus, incluso cuando los empleados de Facebook trabajan de forma remota. Según los informes, la compañía acordó pagar $ 52 millones a moderadores de contenido actuales y anteriores que desarrollaron problemas de salud mental en el trabajo.
Zuckerberg comparecerá ante el Congreso el miércoles para abordar la Sección 230, una ley de 1996 que protege a las empresas de redes sociales de ser responsabilizadas por el contenido de las publicaciones de los usuarios, lo que según los legisladores desincentiva a las empresas de moderar el discurso de odio.

¿Es usted un conocedor con información para compartir? Envíe un correo electrónico a aakhtar @ businessinsider utilizando un dispositivo no laboral.