Por desgracia, se sigue compartiendo pornografía infantil día a día en Internet y, por ende, las grandes compañías del sector deben hacer frente a tal hecho y centrar sus esfuerzos en eliminarlo. Para ello, lo normal es que un grupo de moderadores comprueben y analicen todo el contenido gráfico subido a distintas webs y servicios en pos de eliminar aquel que incumpla las normas de uso y, en este caso, entre en el terreno de los abusos sexuales a niños y niñas.

A partir de hoy, por suerte, ese duro trabajo comenzará a ser más rápido y, sobre todo, eficiente. Google ha presentado una herramienta que, mediante inteligencia artificial, ayudará a detectar este tipo de contenido restringido y, sobre todo, supondrá un notable paso adelante conforme a los sistemas de detección de CSAM (en inglés, children sexual abuse material) reinantes.

Y es que PhotoDNA, software desarrollado por Microsoft y utilizado por compañías como Facebook o Twitter centra su funcionalidad en detectar todo aquel contenido marcado previamente como ilegal o prohibido y eliminarlo, impidiendo que se comparta en ambas redes sociales. Pero, por contra, esta tecnología es efectiva únicamente al eliminar material que ha sido analizado previamente por moderadores humanos.

La nueva herramienta presentada hoy por Google iría más allá, ayudando en los pasos previos, marcando el material potencialmente controvertido y destacando, de entre todas esas fotos y vídeos, aquel con más posibilidades de considerarse pornografía infantil o CSAM. Con esto se conseguiría acortar el proceso y hacer que, dependiendo siempre de moderadores humanos, estos tengan una labor más cómoda. Uno de los moderadores ha afirmado que la herramienta de inteligencia artificial le ha permitido "clasificar un 700% más de material con abusos sexuales a niños un mismo periodo".

Facebook explica cómo usa la inteligencia artificial para eliminar contenido indebido

Como siempre, eso sí, esta herramienta no podrá sustituir al pormenorizado trabajo humano que requieren problemáticas como esta. Fred Langford, delegado de la Internet Watch Foundation, ha afirmado en conversaciones con The Verge que en un momento en el que "el trabajo lo realizamos humanos yendo a través del contenido y diciendo 'sí', 'no', sí, 'no'", esta herramienta ayudará en el proceso de selección. Ahora bien, Langford también ha declarado que únicamente se debería confiar en estas herramientas en casos del todo evidentes con tal de no dejar escapar material inapropiado.

Pese a que, es evidente, el trabajo humano sigue siendo necesario en las labores de detección y filtrado, Langford declara que "es muy posible que estemos a uno o dos años de poder crear herramientas 100% automatizadas" para este tipo de labores.