Sin embargo, alrededor del 29% de estas solicitudes, que suman un total de 270.000 casos, no fueron atendidas. La falta de personal de respuesta suficiente es un problema importante, pero también existe una creciente demanda de regulaciones más estrictas que obliguen a las empresas a cumplir con las solicitudes de expulsión.
Entre 2020 y junio de 2024, el Centro de Apoyo a Víctimas de Delitos Sexuales Digitales recibió 938.651 solicitudes para eliminar contenido ilegal, como deepfakes e imágenes sexualmente abusivas. De estos, 269.917 casos (28,8%) no pudieron eliminarse. El número de casos sin resolver aumentó un 79,7% en dos años, y solo en 2023 quedaron 75.000 casos sin resolver.
El aumento de la creación de deepfakes, impulsado por los avances tecnológicos, ha provocado un aumento significativo de este tipo de delitos. Por ejemplo, el contenido creado por fans del K-pop, como los vídeos de «fancam», ha sido objeto de persecución, y agencias como JYP Entertainment y YG Entertainment han emprendido acciones legales en respuesta a la victimización de sus artistas mediante deepfakes.
Incluso personas comunes han sido víctimas de este tipo de ataques, como en el caso de una profesora cuyas fotos fueron manipuladas y difundidas en grupos de chat en línea. A pesar de la creciente gravedad de estos incidentes, las medidas actuales son insuficientes debido a la falta de poder de ejecución. Los expertos y los legisladores están pidiendo regulaciones más estrictas, incluidas multas y suspensiones de servicios para las plataformas que no eliminen el contenido ilegal.
Fuente: