¿Por qué Facebook emitió un vídeo en directo de la mezquita de Nueva Zelanda durante 17 minutos? ¿Nadie alertó a la compañía mientras sucedía?

Facebook dice que no. Según su asesor general adjunto, Chris Sonderby, ninguna de las 200 personas que vieron el video en vivo lo señaló a los moderadores. En una entrada del blog del martes, Sonderby dijo que el primer reporte de usuario no llegó hasta 12 minutos después de que la transmisión terminó.

Todo esto plantea preguntas adicionales, entre ellas, una sería por qué tanta gente miraba sin decir nada, y otra si Facebook depende demasiado de extraños y máquinas para informar de los problemas, y otra más si los usuarios y los funcionarios encargados de hacer cumplir la ley saben incluso cómo hacer llegar a Facebook sus preocupaciones sobre lo que muestra el servicio.

Un oficial de policía hace guardia frente a la mezquita Masjid Al Noor en Christchurch, Nueva Zelanda, el domingo 17 de marzo de 2019, donde ocurrió uno de los dos tiroteos en masa. (Foto AP/Vincent Yu)
Un oficial de policía hace guardia frente a la mezquita Masjid Al Noor en Christchurch, Nueva Zelanda, el domingo 17 de marzo de 2019, donde ocurrió uno de los dos tiroteos en masa. (Foto AP/Vincent Yu)

“Cuando vemos las cosas a través de nuestros teléfonos, nos imaginamos que son como un programa de televisión”, dijo Siva Vaidhyanathan, profesor de estudios de medios en la Universidad de Virginia. “Ellos están en la distancia, y nosotros no tenemos poder”.

Facebook dijo que retiró el video “en cuestión de minutos” tras haber sido notificado por la policía de Nueva Zelanda. Pero desde entonces, Facebook y otras compañías de medios sociales han tenido que lidiar con copias publicadas por otros.

El sospechoso del tiroteo modeló cuidadosamente su ataque para la era de Internet, mientras emitía en directo el asesinato de 50 personas en dos mezquitas de Christchurch, Nueva Zelanda.

Tim Cigelske, que enseña sobre los medios sociales en la Universidad de Marquette en Milwaukee, dijo que aunque los espectadores tienen las mismas obligaciones morales de ayudar que un espectador en el mundo físico, la gente no sabe necesariamente qué hacer.

“Es como llamar al 911 en una emergencia”, dijo. “Teníamos que entrenar a la gente y hacérselo fácil. Tienes que entrenar a la gente de una nueva manera si ves que una emergencia ocurre no en persona sino en Internet”.

Para reportar video en vivo, un usuario debe saber que debe hacer clic en un pequeño conjunto de tres puntos grises en el lado derecho del mensaje. Un usuario que hace clic en “reportar vídeo en directo” puede elegir entre varios tipos de contenido censurable, incluyendo violencia, acoso e intimidación. También se les dice a los usuarios que se pongan en contacto con la policía si alguien está en peligro inmediato.

Facebook tampoco parece publicar ninguna información pública que indique a las fuerzas del orden cómo denunciar vídeos peligrosos o delictivos. La compañía tiene una página titulada “información para las autoridades encargadas de hacer cumplir la ley”, pero simplemente describe los procedimientos para realizar solicitudes legales de registros de cuentas de usuarios. Facebook no respondió inmediatamente a una solicitud de comentarios y preguntas sobre sus comunicaciones con la policía.

Facebook utiliza la inteligencia artificial para detectar material objetable, al tiempo que confía en que el público marque el contenido que infringe sus normas. Esos informes se envían a los revisores humanos, dijo la compañía en un video de noviembre.

El video también describe cómo utiliza la “visión por computador” para detectar el 97 por ciento de la violencia gráfica antes de que alguien la denuncie. Sin embargo, no está tan claro cómo se aplican estos sistemas al streaming en directo de Facebook.

Los expertos dicen que el video en vivo plantea desafíos únicos, y que regularmente surgen reclamaciones sobre suicidios, asesinatos y palizas en vivo. Sin embargo, dicen que Facebook no puede desviar la responsabilidad.

“Si no pueden manejar la responsabilidad, entonces es su culpa por seguir prestando ese servicio”, indicó Mary Anne Franks, profesora de derecho en la Universidad de Miami.

Lo llama “increíblemente ofensivo e inapropiado” atribuir la responsabilidad a los usuarios sujetos a videos traumáticos.

En algunos casos, no está claro desde el principio si un vídeo u otro post viola los estándares de Facebook, especialmente en un servicio con una variedad de idiomas y normas culturales. Sin embargo, la indecisión no parece ser el caso aquí. Facebook simplemente no lo supo a tiempo.

Sonderby de Facebook dijo en la entrada del blog del martes que la compañía “designó ambos tiroteos como ataques terroristas, lo que significa que cualquier elogio, apoyo y representación de los eventos” son violaciones.

Vaidhyanathan dijo que la función de video en vivo de Facebook se ha convertido en una bestia a la que Facebook no se puede enfrentar “si no se aprieta el interruptor”. Aunque Facebook ha contratado a más moderadores para complementar sus informes de detección automática y de usuarios, “no se puede contratar a suficientes personas” para vigilar un servicio con 2.300 millones de usuarios.

“La gente siempre encontrará nuevas formas de expresar el odio e instigar la violencia”, argumentó.

La Primera Ministra de Nueva Zelanda, Jacinda Ardern, expresó su frustración por el hecho de que las imágenes permanecieran en línea cuatro días después de la masacre.

Las máquinas pueden detectar cuando los usuarios intentan volver a publicar vídeos prohibidos haciendo coincidir patrones, o huellas digitales, en los archivos. Pero los usuarios decididos a eludir estas comprobaciones pueden hacer pequeñas alteraciones, como ajustar el color o la velocidad del vídeo.

El Foro Mundial de Internet para Combatir el Terrorismo, un grupo de empresas mundiales de Internet liderado por Facebook, YouTube, Microsoft y Twitter, precisó que ha identificado 800 versiones diferentes y las ha agregado a una base de datos compartida que se utiliza para bloquear imágenes y videos de terroristas violentos.

Sonderby dijo que algunas variantes son difíciles de detectar y que Facebook se ha “ampliado a sistemas de detección adicionales, incluyendo el uso de tecnología de audio”.

En una serie de tweets un día después de los tiroteos, el exjefe de seguridad de Facebook, Alex Stamos, presentó el desafío para las empresas de tecnología mientras corrían para mantenerse al día con las nuevas versiones del video.

“Lo que se ve en las plataformas principales es el agua que se filtra alrededor de miles de dedos que se clavan en una presa”, sostuvo.

Stamos estimó que las grandes empresas de tecnología están bloqueando más del 99 por ciento de los vídeos, “lo que no es suficiente para hacer que sea imposible de encontrar”.

By Kelvin Chan | The Associated Press

Ir a la Portada de BLes.com.

¿Conoce nuestro canal de Youtube BLes Mundo? ¡Suscríbase!

Categorías: Tecnología

Video Destacados