A medida que las plataformas mejoran en la detección de videos de abuso infantil, están encontrando más de ellos

Casi 70 millones de imágenes de abuso infantil fueron reportadas al Centro Nacional de Niños Desaparecidos y Explotados en 2019

Más de 41 millones de videos de abuso sexual infantil fueron reportados al Centro Nacional de Niños Desaparecidos y Explotados en 2019, en parte porque los videos se han vuelto más fáciles de detectar para las plataformas tecnológicas como Facebook y Snapchat, informa The New York Times. Hace sólo cinco años, el número de videos denunciados era inferior a 350.000. El año pasado se informó al centro de un total de 70 millones de imágenes y vídeos que batió el récord; muchos de ellos fueron denunciados más de una vez a través de múltiples plataformas a medida que los usuarios compartían el contenido ilegal.

Facebook reportó casi 60 millones de fotos y videos, según el informe del Times, basado en unos 15,9 millones de informes. Facebook le dice a The Verge que no todo ese contenido es considerado «violatorio» y que sólo unos 29,2 millones cumplían con ese criterio.

Google reportó 3.5 millones de videos y fotos totales en cerca de 449,000 reportes, e Imgur reportó 260,000 fotos y videos basados en cerca de 74,000 reportes. Cabe señalar que el número de informes y el número de imágenes reales descubiertas no siempre fueron proporcionales. Por ejemplo, Dropbox sólo hizo unos 5.000 informes en 2019, pero encontró más de 250.000 fotos y vídeos, según el Times. Apple fue aparentemente una de las grandes compañías con menos reportes, con 3.000 imágenes y ningún video. Y Amazon estaba casi completamente ausente de la lista.

Tiene sentido que Facebook tenga el mayor número de reportes; es la mayor plataforma de medios sociales con más de 2.3 mil millones de usuarios. Y en agosto pasado, Facebook abrió los algoritmos que utiliza para identificar la explotación sexual infantil y otros contenidos gráficos en su plataforma, por lo que podría eliminar ese contenido más rápidamente, lo que puede haber jugado un papel en su número mucho mayor. Así que aunque es el número uno en esta lista, eso puede ser porque está haciendo más activamente para encontrar este contenido.

«El tamaño y la experiencia de nuestro equipo, junto con nuestra sofisticada tecnología, nos han convertido en líderes del sector en la detección, eliminación y notificación de estas imágenes, y en impedir que la gente las comparta», dijo Antigone Davis, jefe de seguridad global de Facebook en una declaración enviada por correo electrónico a The Verge, y añadió que la compañía «continuaría desarrollando las mejores soluciones para mantener a más niños seguros».

Pero incluso con una mejor detección del contenido de los videos, todavía no es posible mapear completamente el problema de los videos en línea de abuso sexual infantil. Como el Times señala, algunos servicios de almacenamiento en la nube, incluyendo Amazon, no escanean el contenido ilegal. Y el contenido de la aplicación de mensajería de Apple está encriptado, por lo que Apple no puede escanearlo para encontrar material ilegal.

La privacidad está en el centro de un debate sobre cómo detectar y eliminar este contenido sin introducir fricciones innecesarias para los usuarios. Facebook está considerando avanzar hacia la encriptación, pero está recibiendo muchas críticas por ello. Y un proyecto de ley para crear una Comisión Nacional de Prevención de la Explotación Infantil en Línea reduciría las protecciones legales de los sitios web y establecería reglas para detectar y eliminar el contenido que explota a los niños, incluyendo potencialmente límites en la encriptación.