Las normas internas de Facebook toleran la difusión de ciertos contenidos violentos

Una filtración desvela que no elimina algunas muertes violentas, intentos de autolesión o imágenes de abusos no sexuales a menores.

El director ejecutivo de Facebook, Mark Zuckerberg, ha afirmado que el discurso de odio no tiene cabida en su plataforma.
Obligan a Facebook a borrar un mensaje de odio contra la líder ecologista
Reuters

Facebook, la mayor de la redes sociales, alimentada por casi 2.000 millones de usuarios de todo el planeta, había confesado en los últimos meses que era víctima de su propio éxito, que estaba desbordada y que tenía serias dificultades para censurar y eliminar con rapidez los contenidos violentos, de odio o incluso delictivos por cuya circulación por sus perfiles y canales durante horas o días estaba recibiendo duras críticas. No obstante, una filtración al diario británico 'The Guardian' desveló que, de hecho, es la propia compañía nortemericana creada por Mark Zuckerberg la que, en los manuales que elabora para guiar el trabajo de sus controladores de contenidos, cuando menos es permisiva con determinados tipos de comentarios e imágenes violentas, que considera que no es preciso suprimir o censurar.

Los extractos que el rotativo británico ha sacado de aproximadamente un centenar de manuales internos señalan que Facebook instruye a sus moderadores para que, en su labor de control del flujo de información de la red, permitan la libre circulación de determinadas imágenes de muertes violentas, de abusos no sexuales a menores, de abortos o de intentos de autolesión, entre otras situaciones delicadas de sexo, violencia o terrorismo.

Las normas internas difundidas por 'The Guardian' les aleccionan de que los vídeos de muertes violentas, aunque sean marcados como contenidos perturbadores, no siempre tienen por qué ser borrados, ya que pueden ayudar a concienciar sobre problemas como las enfermedades mentales. Por razones similares justifican no cortar o eliminar las retransmisiones en vivo de intentos de autolesión. Argumentan que "no quieren censurar o castigar a personas en peligro" porque la publicidad de estas acciones puede ayudar al protagonista a través de la intervención de su familia o amistades o de las autoridades.

La red social, que tampoco ve problema alguno en autorizar la difusión de abusos a animales siempre que se avise de lo escabroso o hiriente del contenido, aplica la misma permisividad con algunas imágenes que muestran abuso físico o intimidación sobre niños siempre que no sea de tipo sexual o tenga un componente sádico o de celebración.

Los manuales sí que reclaman la retirada de cualquier contenido que haga apología del terrorismo -los mensajes que lo critican están permitidos- y de las amenazas directas contra personas concretas. Aquí distingue entre creíbles y no creíbles. Hay que eliminar contenidos como "alguien debe darle un tiro a Trump", pero no otros como "para romper el cuello a un perro asegúrese de aplicar toda la presión en mitad de la garganta".

La desnudez también provoca censura si no es una obra de arte. Se permite mostrar desnudos, e incluso actos sexuales, si la obra de arte "está hecha a mano", pero no si es un trabajo digital. No tienen problema en permitir vídeos de abortos, pero siempre que no muestren desnudos. Otro dato llamativo de la filtración en que la red recibe 6,5 millones de quejas a la semana de posibles cuentas falsas que se usan para difundir noticias igual de falsas.

Los "moderadores" con los que habló 'The Guardian' confirman que el crecimiento acelerado de la red -cada día se publican 300 millones de fotografías- y su escaso número (4.500 hasta ahora) los desborda, más cuando muchas veces tienen que tomar decisiones difíciles sobre normas de publicación en cuestión de segundos.

Fue el propio Zuckenberg quien el 3 de mayo pasado reconoció que estaban superados cuando anunció la contratación de 3.000 nuevos "moderadores", un aumento de golpe de más de 60% de la plantilla, para mejorar el control de contenidos, sobre todo de los violentos, de odio y de tráfico de menores.

Realizó el anuncio después de que, a lo largo de abril pasado, varias tragedias transmitidas en Facebook conmocionaron a los internautas. Hace menos de un mes, un tailandés ahorcó y mató a su hija de 11 meses en directo por Facebook Live antes de suicidarse también ante la cámara. El vídeo, que permaneció muchas horas accesible en la red, levantó olas de críticas contra los medios que difundieron las imágenes. El escándalo ocurrió solo una semana después de que un estadounidense transmitiese en Facebook el asesinato de un anciano elegido al azar en Cleveland y se suicidase, también en directo, después de tres días de persecución policial.

Comentarios
Debes estar registrado para poder visualizar los comentarios Regístrate gratis Iniciar sesión