Facebook elimina casi 9 millones de imágenes de niños desnudos en tres meses.

Facebook ha anunciado que sus moderadores han eliminado unos 8,7 millones de imágenes de desnudos infantiles en los últimos tres meses.

La eliminación de las imágenes se vio considerablemente facilitada por el uso de un software de IA no revelado previamente que Facebook ha estado utilizando durante los últimos 12 meses y que marca y elimina dichas imágenes automáticamente.

Gracias al uso de la IA, el 99% de los 8,7 millones de imágenes eliminadas fueron descartadas por Facebook antes de que ningún usuario de Facebook las denunciara.

¿Cómo lo hicieron?

La herramienta de aprendizaje automático de inteligencia artificial funciona identificando imágenes que contienen tanto desnudos como niños, y permite una aplicación mucho más eficaz y eficiente de la prohibición de Facebook de las fotos que muestran a menores en cualquier contexto potencialmente sexualizado.

Hablando con la agencia de noticias de Reuter, la directora global de seguridad de Facebook, Antigone Davis, dijo que Facebook también está considerando implementar sistemas para detectar la desnudez infantil y el aseo personal en Instagram. «Las máquinas nos ayudan a priorizar», dijo Davis, y ayudan a «poner en cola de forma más eficiente» el contenido problemático para los revisores humanos.

Dijo que Facebook también ha eliminado las cuentas que promueven la pornografía infantil y que, en aras de la protección de los niños, también está tomando medidas sobre el contenido no sexual, como las fotos aparentemente inocentes de niños en el baño.

¿Qué otras medidas está tomando Facebook?

«Además de la tecnología de emparejamiento de fotografías, estamos utilizando inteligencia artificial y aprendizaje automático para detectar proactivamente la desnudez infantil y el contenido de explotación infantil anteriormente desconocido cuando se carga», concluyó Davis.

En una entrevista con el diario británico Daily Telegraph, el director de políticas públicas de Facebook en el Reino Unido, Karim Palant, dijo que «el sitio de la red social eliminó 20 millones de imágenes de desnudos de adultos en los primeros tres meses del año, así como tres millones de publicaciones bajo las reglas de la incitación al odio».

Facebook también anunció a principios de este año que estaba aumentando el número de moderadores humanos que revisan el contenido y para finales de 2018 tendrá alrededor de 20.000 personas trabajando directamente en esta área.