Un nuevo informe aseguró que hay miles de imágenes de abuso sexual infantil alimentando las bases de datos de populares generadores de imágenes de inteligencia artificial (IA).
PUBLICIDAD
Esas mismas imágenes han facilitado la producción, con los sistemas de inteligencia artificial (IA), de imágenes realistas y explícitas de niños falsos, y también que transformen fotos de redes sociales de adolescentes reales y completamente vestidos en desnudos, lo que ha causado mucha alarma, como es de esperar.
Un grupo de Stanford encontró más de 3000 imágenes de presuntos abusos sexuales infantiles
El Observatorio de Internet de Stanford fue quien encontró más de 3.200 imágenes de presuntos abusos sexuales infantiles en la gigantesca base de datos de inteligencia artificial LAION, un índice de imágenes con pie de foto en línea que se ha utilizado para entrenar a los principales generadores de imágenes de IA, como Stable Diffusion.
El grupo de vigilancia con sede en la Universidad de Stanford trabajó con el Centro Canadiense para la Protección Infantil y otras organizaciones de beneficencia contra el abuso para identificar el material ilegal y reportar los enlaces originales de las fotografías a las autoridades.
Posteriormente, este pasado miércoles, en vísperas de la publicación del informe del Observatorio de Internet de Stanford, LAION anunció a The Associated Press que estaba eliminando temporalmente sus conjuntos de datos.
LAION, siglas en inglés de la organización sin fines de lucro Red Abierta de Inteligencia Artificial a Gran Escala, dijo en un comunicado que “tiene una política de tolerancia cero para el contenido ilegal, y que, por precaución extrema, hemos eliminado los conjuntos de datos de LAION para garantizar que sean seguros antes de volver a publicarlos”.
Aunque estas imágenes ilegales son solo una fracción del índice de LAION, de unas 5.800 millones de imágenes, el grupo de Stanford asegura que probablemente influya en la capacidad de las herramientas de IA para generar resultados dañinos y reforzar el abuso previo de víctimas reales que aparecen múltiples veces.