Facebook restringirá las emisiones en directo a través de Live de contenidos violentos

Para evitar una nueva crisis como tras el atentado de Nueva Zelanda, la intención de la tecnológica es bloquear el acceso a la herramienta durante 30 días a cualquier usuario que haya compartido un post que vaya en contra de su política comunitaria

Brenton Tarrand, autor de la masacre de Nueva Zelanda, durante la emisión en Facebook

Facebook ha anunciado nuevas medidas para evitar la proliferación de contenidos que induzcan a la violencia y al odio, como ocurrió con el vídeo del atentado de Nueva Zelanda, entre ellas la de bloquear la opción de emitir vídeos en directo a usuarios que compartan publicaciones de este tipo.

La intención de la tecnológica es bloquear el acceso a la herramienta Facebook Live durante 30 días, aproximadamente, a cualquier usuario que haya compartido un post que vaya en contra de su política comunitaria, por ejemplo una referencia sin contexto a un enlace de una declaración de un grupo terrorista.

Para ello, la compañía de Mark Zuckerberg destinará una partida de 7,5 millones de dólares en tecnología de análisis de imagen y audio, según ha avanzado en un comunicado. Asimismo, planea trasladar el nuevo modelo de restricción a «otras áreas» en las siguientes semanas. Por ejemplo, evitará que los usuarios que publiquen o compartan contenido prohibido, como la distribución de imágenes de explotación infantil, puedan crear anuncios.


««Entendemos la tensión generada entre el acceso sin restricciones a nuestros servicios que preferirían algunas personas y la necesidad de implantar barreras para mantener a los usuarios seguros», explica la compañía»

Hasta ahora Facebook había optado por suprimir únicamente contenido de la plataforma y eliminar o bloquear de manera temporal páginas y cuentas que fuesen en contra de su normativa de uso. Con la nueva regulación, la plataforma estrecha el cerco de la permisividad pero especialmente en relación con la herramienta Live, que fue utilizada por el atacante de las mezquitas de Christchurch, en Nueva Zelanda, para transmitir en directo el atentado en el que mató a 51 personas y causó medio centenar de heridos.

En ese momento, Facebook trató de frenar la diseminación del vídeo eliminando la cuenta de esta red social y de Instagram del atacante después de que la policía alertarse de la transmisión en directo, pero para entonces ya había sido compartido por miles de usuarios. Facebook ya cuenta con un operativo compuesto por 30.000 efectivos en varios puntos del mundo, dirigido desde Dublín, para detectar e interceptar contenidos que afecten a la seguridad de la plataforma, así como publicaciones que puedan resultar peligrosos para el mundo offline.

Sin embargo, justifica la nueva partida presupuestaria con la necesidad de «investigar de manera más profunda» en nuevas técnicas para identificar imágenes y vídeos editados o manipulados y que pueden ser compartidos en distintos formatos y por varias cuentas diferentes, como en el caso de Christchurch.

«Entendemos la tensión generada entre el acceso sin restricciones a nuestros servicios que preferirían algunas personas y la necesidad de implantar barreras para mantener a los usuarios seguros», explica la compañía. En esta línea, ha establecido un convenio con tres universidades estadounidenses -Maryland, Cornell y California- para que académicos e investigadores elaboren nuevas técnicas de «detección de manipulación» de material multimedia y, sobre todo, capaces de identificar a aquellos usuarios que lo hagan de manera intencionada. «En los próximos meses, estableceremos nuevas colaboraciones para que podamos movernos y avanzar tan rápido como sea posible para innovar frente a esta amenaza», añade la empresa.