¡Cuidado con postear este contenido porque Facebook lo ‘baja’!

Vivimos en un época donde la difusión de noticias falsas y niveles crecientes de contenido negativo que circula en línea, está a la orden del día, casi siempre presente. Facebook, una de las redes sociales de mayor alcance en el mundo, ha estado en el ‘ojo del huracán’ y bajo críticas con la finalidad de que regule mejor lo que permite que se publique en su plataforma.

Pese a que la red social posee distintos estándares en su comunidad y mecanismos para identificar contenido inapropiado, muchos usuarios logran postear imágenes, textos, y videos de carácter explícito. Esta es la razón por la cual se la cuestiona y le pide mayores controles con los posteos de las personas.

Lo que quizás no resulte tan evidente es que Facebook sí filtra el contenido que la gente publica en sus cuentas y viola las reglas y condiciones de la red social. ¿Cuál es el tipo de contenido que monitorea constantemente?

Según el ‘Informe de Cumplimiento de Normas Comunitarias’ de Facebook, publicado en mayo de 2019, el contenido que monitorea activamente en su sitio está compuesto de ocho categorías:

– Violencia gráfica

– Desnudez adulta y actividad sexual

– Propaganda terrorista

– Discurso de odio

– Acoso (Bullying) y hostigamiento

– Desnudez infantil y explotación sexual

– Bienes regulados (drogas y armas de fuego)

– Spam

Este control se realiza por medio de la inteligencia artificial (IA), un sistema con el cual se identifican fácilmente imágenes que incluyan desnudos o violencia gráfica, y las publicaciones de spam (información basura). Sin embargo, no es todo perfección; para la IA es mucho más difícil identificar el discurso de odio, el acoso escolar o el hostigamiento, que suele depender del contexto y la comprensión humana de los matices.

Pese a estos pros y contras, Facebook parece haber tenido los últimos meses bastante trabajo filtrando contenidos prohibidos y dañinos. A continuación el porcentaje de las publicaciones que la red social detecta efectivamente: