Las reglas secretas de Facebook sobre sexo y violencia
Una reciente filtración en la web sobre las normas internas de Facebook, puso a la luz que los moderadores de la plataforma son instruidos para dejar pasar mensajes con muertes violentas, autolesiones, escenas de abortos y maltrato no sexual a menores.
El diario británico "The Guardian", tuvo acceso a la filtración de cien manuales con los que se instruye a moderadores que controlan los contenidos de Facebook, por lo que el rotativo concluye que estas personas están sobrepasadas, ya que sólo cuentan con 10 segundos para decidir si un post es apto para Facebook o no.
Es por ello que muchos de los moderadores de contenido tienen preocupaciones sobre la inconsistencia y naturaleza peculiar de algunas de las políticas de la firma, sobre todo las relacionadas con el contenido sexual, ya que estas son más complejas y confusas.
En términos de Facebook, existen tres señales de una posible pornovenganza: una imagen subida en privado, que muestra a una persona desnuda o teniendo relaciones sexuales y sin su consentimiento.
Para entender el descontrol de lo que circula por Facebook, basta con conocer que la red social posee mil 940 millones de usuarios en todo el mundo, sin embargo solo dispone de 4 mil 500 empleados para controlar los mares de información que en ella circula, tomando en cuenta que diariamente, se publican 300 millones de fotos.
Es así que los manuales de control filtrados, indican que algunas muertes violentas, abusos no sexuales a niños y autolesiones deben dejarse pasar, debido a que esos contenidos pueden servir de llamada de atención, hacer énfasis en problemas de salud mental y ser una fuente informativa de valor.
En los casos de terrorismo, sí ordenan que se retiren los mensajes, fotos y vídeos que apoyan a líderes y organizaciones terroristas, pero se pueden dejar siempre que estén acompañados de algún comentario crítico. También se ordena que se borren amenazas contra personas concretas.
Ante el desnudo, Facebook se muestra más restrictivo que contra la violencia. Solo se permite si existe una justificación artística. Anteriormente, fue considerada de absurda, la decisión de la plataforma de retirar una fotografía donde se ve a una niña quemada con napalm en Vietnam, ya que según Facebook, aparece semidesnuda.
Las indicaciones también mencionan que, si un perfil, estado o post de Facebook menciona "alguien debería matar a Donald Trump", este debe ser eliminado, ya que como un jefe de Estado pertenece a una categoría protegida. Sin embargo, si alguien comenta "púdrete y muérete", no debe ser tomado como una amenaza creíble.