ÉSTA ES LA ESTRATEGIA DE FACEBOOK PARA EVITAR LA VIOLENCIA DEL MUNDO REAL

En el último año, casi 700 mil personas de la etnia musulmana Rohingya han huido de Myanmar a Bangladesh tras una persecución militar. El origen del conflicto, según reportes de medios como The New York Times y The Guardian, comenzó con un discurso de odio que se dispersó a través de Facebook.

La presión mediática sobre la red por este caso, que se une a la crisis tras el escándalo de Cambridge Analytica, derivó en una nueva estrategia de Facebook para evitar la desinformación en la plataforma: filtrar y eliminar el contenido que incite a la violencia en el mundo real.

“Hemos identificado que existe cierto tipo de desinformación en algunos países que puede aprovecharse de tensiones y derivar en violencia física en el mundo real”, dijo Tessa Lyons, una directiva del equipo especializado de Facebook. “Tenemos una responsabilidad más amplia, no solo de reducir este tipo de contenido, sino de eliminarlo”.

La crisis Myanmar no es el único ejemplo. En Sri Lanka revivió una guerra civil que había finalizado hace una década entre budistas y musulmanes. En Facebook, se difundió una noticia de que comerciantes musulmanes ponían pastillas para esterilizar en productos vendidos a budistas, lo que derivó en ataques entre ambos grupos. Ese país cerró el acceso a Facebook, WhatsApp e Instagram temporalmente.

La estrategia de eliminación de contenido que incita a la violencia se gestó en Menlo Park, California, pero su ejecución se llevará a cabo en 17 países con ayuda de organizaciones civiles y de inteligencia artificial, esta última como su primer filtro.

“Hay miles de millones de piezas de contenido y no podemos determinar qué es cada cosa individualmente. Tenemos que hacerlo en forma de machine learning”, explicó Henry Silverman, especialista de operaciones de noticias para la red. “El software puede identificar patrones, así que lo entrenas enseñándole ejemplos de contenido falso o nocivo para que le ponga una advertencia de que puede ser susceptible de ser eliminado”.

El análisis no se limita al texto. Las fotos o videos son mapeados por un programa que compara la imagen si es redistribuida, de forma que si fue modificada, advertirá a equipos internos y externos que se trata de un material que puede ser falso.

Según el tipo de “desinformación”, que puede ser una noticia falsa, un discurso de odio, una advertencia terrorista, entre otros, se decide si se elimina o solo se limita su distribución y viralización en la red social.

Instagram y WhatsApp también han generado estrategias propias.

A mediados de esta semana, el fundador de facebook, Mark Zuckerberg, enfrentó críticas luego que en una entrevista defendió los derechos de las personas que niegan el Holocausto a publicar en la red social.

No creo que nuestra plataforma deba eliminar ese contenido porque creo que hay cosas en las que las personas se equivocan. No creo que se estén equivocando intencionalmente”, dijo el miércoles.

Un día después, aclaró a través de un correo que se equivocó y que le parece “profundamente ofensivo” que las personas nieguen ese episodio histórico.

La red, de forma independiente, también se pronunció al respecto.

Reducir la distribución de desinformación en lugar de eliminarla directamente logra el equilibrio correcto entre la libertad de expresión y una comunidad segura y auténtica”, señaló la firma en un comunicado. “Hay ciertas formas de desinformación que han contribuido al daño físico, y estamos haciendo un cambio de política que nos permitirá bajar ese tipo de contenido”.

Share

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio está protegido por reCAPTCHA y se aplican la política de privacidad y los términos de servicio de Google.