Website Security Test

Facebook censuró 8,7 millones de imágenes de abuso sexual este trimestre

13 - Noviembre - 18

La popular red social está confiando en la inteligencia artificial para identificar contenidos que involucren abusos contra menores de 18 años.

Abuso Sexual

El sistema de moderación de contenidos de la red social Facebook ha eliminado más de 8,7 millones de imágenes de abuso sexual infantil en los últimos tres meses. Según la empresa, mediante un nuevo software de inteligencia artificial puede marcar automáticamente las imágenes que contienen desnudos o niños, para ayudar a que sus revisores las eliminen si infringen las normas.

El jefe de seguridad global de Facebook, Antigone Davis, dijo a la agencia de noticias Reuters que la máquina "ayuda a establecer prioridades y a poner en cola este material de manera más eficiente" para que sea tenido en cuenta por los encargados de fiscalizar el contenido problemático. La red social se ha comprometido a acelerar la eliminación de material extremista e ilícito, por lo que los programas de inteligencia artificial que analizan los miles de millones de piezas de contenido que los usuarios publican cada día son esenciales para su plan.

La compañía está explorando aplicar esta misma tecnología en Instagram.

Cabe señalar que estos sistemas de aprendizaje automático e inteligencia artificial han sido criticados por organizaciones y personas a quienes terminan bloqueándoles contenidos de forma errónea, por ejemplo en fotos de paseos familiares. Sin embargo, el ejecutivo sostiene que estos afectados siempre pueden apelar por lo que prefieren 'equivocarse' por el lado de la precaución con los niños.

Antes del nuevo software, Facebook confiaba en los usuarios o en sus filtros de desnudos adultos para capturar esas imágenes. Un sistema separado bloquea el abuso infantil que previamente se ha informado a las autoridades.

La empresa sostiene que el programa ha aprendido a identificar el material de abuso sexual a través de una enorme galería de fotos de adultos y de niños desnudos y vestidos. Así mismo, evalúa factores como la cantidad de personas que han bloqueado a un usuario en particular y si ese usuario intenta comunicarse rápidamente con muchos niños.

Michelle DeLaune, directora de operaciones del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), dijo al diario británico The Guardian que esperaba recibir alrededor de 16 millones de denuncias de abuso infantil en todo el mundo este año de parte de Facebook y otras compañías de tecnología, en comparación con los 10 millones del año pasado. Con el aumento, NCMEC dijo que estaba trabajando con Facebook para desarrollar software para decidir qué consejos evaluar primero.

Información relacionada