Microsoft ofrece a las víctimas de pornografía deepfake una herramienta para eliminar imágenes de la búsqueda de Bing

El avance de las herramientas de inteligencia artificial generativa ha creado un nuevo problema para Internet: la proliferación de imágenes sintéticas de desnudos que se asemejan a personas reales. El jueves, Microsoft dio un paso importante al brindar a las víctimas de pornografía vengativa una herramienta para evitar que su motor de búsqueda Bing muestre estas imágenes.

Microsoft anunció una asociación con StopNCII, una organización que permite a las víctimas de pornografía vengativa crear una huella digital de estas imágenes explícitas, reales o no, en su dispositivo. Los socios de StopNCII luego usan esa huella digital, o “hash”, como se le conoce técnicamente, para eliminar la imagen de sus plataformas. Bing de Microsoft se une a Facebook, Instagram, Threads, TikTok, Snapchat, Reddit, PornHub y OnlyFans en la asociación con StopNCII y el uso de sus huellas digitales para detener la propagación de la pornografía vengativa.

En una publicación de blog, Microsoft afirma que ya ha tomado medidas con respecto a las 268.000 imágenes explícitas que se han obtenido a través de la búsqueda de imágenes de Bing en un proyecto piloto que se ha llevado a cabo hasta finales de agosto con la base de datos de StopNCII. Anteriormente, Microsoft ofrecía una herramienta de denuncia directa, pero la empresa afirma que ha demostrado no ser suficiente.

“Hemos escuchado las preocupaciones de las víctimas, los expertos y otras partes interesadas de que los informes de los usuarios por sí solos pueden no ser eficaces ni abordar adecuadamente el riesgo de que se pueda acceder a las imágenes a través de una búsqueda”, dijo Microsoft en su publicación de blog el jueves.

Puedes imaginar cuánto peor sería ese problema con un motor de búsqueda mucho más popular: Google.

Google Search ofrece sus propias herramientas para denunciar y eliminar imágenes explícitas de sus resultados de búsqueda, pero ha recibido críticas de ex empleados y víctimas por no asociarse con StopNCII, según una investigación de Wired. Desde 2020, los usuarios de Google en Corea del Sur han denunciado 170.000 enlaces de búsqueda y YouTube con contenido sexual no deseado, informó Wired.

El problema de los desnudos deepfake con inteligencia artificial ya está muy extendido. Las herramientas de StopNCII solo funcionan para personas mayores de 18 años, pero los sitios de “desnudez” ya están creando problemas para estudiantes de secundaria en todo el país. Desafortunadamente, Estados Unidos no tiene una ley de pornografía deepfake con inteligencia artificial que obligue a nadie a rendir cuentas, por lo que el país depende de un enfoque heterogéneo de leyes estatales y locales para abordar el problema.

En agosto, los fiscales de San Francisco anunciaron una demanda para cerrar 16 de los sitios más “desnudistas”. Según un rastreador de leyes sobre pornografía deepfake creado por Wired, 23 estados estadounidenses han aprobado leyes para abordar las deepfakes no consensuales, mientras que nueve han rechazado propuestas.

Leer más
Back to top button