Filtran documentos internos que muestran cómo Facebook censura los contenidos

Una filtración de al menos 100 documentos y gráficas internas de Facebook revela las crecientes dificultades que está teniendo la red social para controlar los contenidos que se publican en su plataforma.

Los Facebook Files («Papeles de Facebook») sacan a la luz los polémicos y dudosos criterios que tiene Facebook para decidir qué está permitido publicar y qué no.

Dentro de estos manuales internos, que fueron publicados por el diario The Guardian, hay reglas sobre cómo vigilar temas relacionadas a la violencia, manifestaciones de odio, terrorismo, pornografía, canibalismo, racismo, drogas y autolesiónes, entre otras cosas.

Según se desprende de estos documentos, Facebook reconoce que recibe más de 6.5 millones de reclamos y quejas sobre cuentas falsas utilizadas principalmente para la divulgación de las «fake news» (noticias falsas).

Los criterios para moderar los contenidos en la red social resultan al menos inconsistentes. Por ejemplo: si un moderador encuentra la frase «Que alguien le dispare a Trump» debe eliminarla de inmediato, ya que el presidente de Estados Unidos está en una categoría «protegida».

Pero decir «para romper el cuello de un perro asegúrese de aplicar toda la presión en la mitad de su garganta» o «andate a la mierd… y morite» sí pueden ser publicadas porque «no son consideradas amenazas creíbles».

Los vídeos sobre muertes violentas no siempre tienen que ser borrados: según Facebook pueden ayudar a generar conciencia sobre problemas como una enfermedad mental.

Las fotos de abusos a animales se pueden compartir. Si el contenido es realmente perturbador se clasifica como tal pero no siempre se eliminará.

Según los manuales internos de Facebook, se puede compartir arte que muestre desnudez o actividad sexual si «está hecha a mano». Sin embargo, si se trata de arte digital de la misma temática no estará permitido.

Y hay más: algunas imágenes de abuso físico (no sexual) y de intimidación de niños tampoco tienen que ser eliminadas a menos que haya un componente sádico.

«Facebook no puede controlar sus contenidos porque se hizo demasiado grande», reconoció al diario The Guardian un empleado de la compañía.

Mark Zuckerberg contó hace unas semanas que la empresa tiene 4.500 personas que supervisan a diario las «millones» de denuncias que reciben cada semana, y su objetivo es que dentro de un año ese equipo tenga 7.500 empleados.

Desde su lanzamiento, el servicio de vídeo «en vivo» de Facebook (Facebook Live) emitió, tanto accidentalmente como a propósito, actos de violencia que van desde violaciones o suicidios hasta asesinatos.

LA REGION

NACIONALES

INTERNACIONALES

ULTIMAS NOTICIAS

Newsletter

Columnas