¿Qué la impide a Facebook limpiar su contenido?

¿Qué la impide a Facebook limpiar su contenido?

SAN FRANCISCO. La pregunta surge a cada rato: Con tanto material extremista, expresiones de intolerancia, interferencia en elecciones e invasiones de privacidad, ¿qué le impide a Facebook limpiar su contenido?

El asunto es complicado y las razones incluyen el tamaño de la empresa, su modelo comercial y limitaciones técnicas, sin mencionar el hecho de que la firma creció por años sin rendirle cuentas a nadie. Y tampoco hay que olvidar el factor humano.

El lío más reciente es la revelación de que Facebook difundió inadvertidamente videos celebratorios de contenido extremista y páginas que se autogeneran para organizaciones como Estado Islámico y Al-Qaida.

La compañía dice que está tomando medidas y que los problemas se están resolviendo. Eso es cierto, pero sus detractores afirman que no se hizo lo suficiente si se transmiten en vivo balaceras masivas y se difunden rumores que generan actos de violencia con consecuencias fatales.

“Son exasperantemente lentos al lidiar con todo esto, desde el abuso sexual de menores al terrorismo, la supremacía blanca, el bullying, la pornografía no consentida” y cosas como propaganda dirigida a categorías como “gente que detesta a los judíos” simplemente porque algunos usuarios catalogan el término como “interesante”, según Hany Farid, experto de la Universidad de California de Berkeley.

A medida que se acumulaban los problemas, Facebook se limitaba a ofrecer disculpas y hacer ajustes. A veces se justifica diciendo que no previó hasta qué punto elementos perniciosos podían darle un uso indebido a la plataforma. Más recientemente, la empresa destaca los avances que ha hecho, tanto en el uso de la inteligencia artificial en la detección de problemas como en la asignación de dinero y personal para hacerles frente.

“Después de hacer fuertes inversiones, estamos detectando y eliminando contenido terrorista con mucha más efectividad que hace dos años”, dijo Facebook esta semana en respuesta a las revelaciones de las páginas que se autogeneran. “No decimos que pillamos todo, y seguimos atentos y vigilantes en nuestros esfuerzos para combatir las agrupaciones terroristas de todo el mundo”.

Ha habido algunos progresos. A fines del 2016, el director ejecutivo Mark Zuckerberg causó revuelo al decir que la noción de que noticias falsas de su servicio podían haber decidido las elecciones de Estados Unidos era algo “bastante loco”. Posteriormente se retractó y desde entonces la firma redujo la cantidad de información falsa que circula en su servicio, de acuerdo con varios estudios.

Publicaciones Relacionadas

Más leídas