"A tiempo y de forma correcta", precisan. Hace unas semanas saltaba a la luz la intención de la compañía californiana de montar un centro operativo en Barcelona desde el que combatir y borrar el contenido nocivo de la red social.
Diferentes medios apuntaron a la Torre Glóries, conocida como Torre Agbar, como el lugar escogido. Facebook ha confirmado su intención de aliarse con empresas externas y "de prestigio" para el tratamiento de sus contenidos, pero de momento no confirman la localización.
"Buscamos a personas con habilidades para los idiomas, con capacidad para aprender rápido y con un background que demuestre que pueden aplicar nuevos criterios de forma eficiente y que pueden trabajar en ese tipo de entornos", explicó por teléfono Richard Allan, vicepresidente de Soluciones de Privacidad de Facebook, el día en el que Facebook presentó por primera vez un informe con las cifras de los contenidos eliminados de la red desde octubre de 2017 hasta marzo de este año.
"Cuando vienen a trabajar a los centros de revisión de Facebook no les decimos que miren los contenidos y tomen las decisiones basándose en sus propias opiniones. Les metemos en un curso intensivo donde aprenden los estándares de nuestra comunidad, los que aparecen en la web", añade Allan.
Impulsar la estrategia de control de los contenidos se convirtió en una prioridad para Facebook tras el escándalo de Cambridge Analytica, que llevó al fundador Mark Zuckerberg ante el Congreso de Estados Unidos tras la filtración masiva de datos de al menos 87 millones de usuarios de la red social.
Zuckerberg ya anunció el mes pasado ante miembros de la cámara de representantes que en la actualidad la compañía tiene 15.000 personas trabajando en seguridad y revisión de contenido y que el objetivo es alcanzar las 20.000 a finales de este año.
"Tenemos un número significativo de personas trabajando en centros de Facebook por todo el mundo que son expertos en el área de seguridad, incluídos especialistas en terrorismo, pero necesitamos escalar rápido y por eso estamos trabajando con empresas reputadas que pueden crear centros de revisión para nosotros. Nuestra filosofía es tener un número reducido de centros de grandes dimensiones, porque intentamos mantener la calidad", añadió Richard Allan.
Aunque son empleados de centros externos, Facebook fija algunas de las condiciones de los contratos, como el obligatorio apoyo psicológico que deben recibir todos los trabajadores que lidian con contenido violento.
"Reconocemos que trabajan con un tipo de contenido que puede resultar perturbador y nos aseguramos de que reciben toda la asistencia psicológica que necesitan", recalca Allan. "Están haciendo una gran función social, gracias a ellos los usuarios no llegan a consumir un contenido no deseado", añade.
En países como Alemania ya están activos ese tipo de centros dedicados a la eliminación de comentarios, fotos o vídeos que violen las políticas de la red social.
Según publicaron medios internacionales el pasado verano, la instalación alemana de Facebook se sitúa en Essen, donde unas 500 personas se dedican a analizar contenido nocivo, mensajes que incitan al odio o que puedan suponer apología al terrorismo.
@elpais