Facebook está desarrollando tecnología para facilitar la búsqueda y eliminación de fotos y videos íntimos publicados sin consentimiento del sujeto, lo que se suele llamar “pornografía vengativa».
En la actualidad, los usuarios de Facebook o las víctimas de esta práctica deben denunciar las imágenes para que los contralores de contenido las revisen.
La empresa ha sugerido que los usuarios envíen sus imágenes íntimas a Facebook para que la red pueda identificar las publicaciones no autorizadas.
Pero muchos usuarios rechazan la idea de enviar fotos o videos reveladores a la red social, sobre todo dada su historia de fallas en materia de privacidad.
La nueva herramienta de aprendizaje de la empresa está diseñada para hallar y señalar automáticamente las imágenes y enviarlas a seres humanos para su revisión.
Esta y otras redes sociales han tenido problemas para vigilar y contener las publicaciones impropias de los usuarios, sean amenazas violentas, teorías conspirativas o imágenes íntimas.
Facebook ha recibido duras críticas por permitir que mensajes ofensivos permanezcan demasiado tiempo, por no borrar publicaciones que no cumplen con sus normas y a veces por borrar imágenes de valor artístico o histórico. La empresa espera que su nueva tecnología le ayude a descubrir las publicaciones indebidas.
La tecnología, que se usará en Facebook e Instagram, fue entrenada con fotos que Facebook confirmó previamente eran pornografía vengativa. Está entrenada para reconocer un “casi desnudo» —por ejemplo, en ropa interior— junto con texto despectivo o infamante que indique que alguien publicó la foto para humillar a otra persona.
Al menos 42 estados han sancionado leyes contra la pornografía vengativa, la publicación no consensual de fotos o video. La ley de Nueva York, sancionada en febrero, permite a las víctimas demandar a los autores y declara que es delito.