Esto es lo que es ilegal según las 9 (y contando) nuevas leyes de inteligencia artificial de California

El gobernador de California, Gavin Newsom, está considerando actualmente 38 proyectos de ley relacionados con la inteligencia artificial, incluido el muy polémico SB 1047, que la legislatura del estado envió a su escritorio para su aprobación final. Estos proyectos de ley intentan abordar los problemas más urgentes en materia de inteligencia artificial: desde sistemas de inteligencia artificial futuristas que crean riesgos existenciales, desnudos falsos a partir de generadores de imágenes de inteligencia artificial, hasta estudios de Hollywood que crean clones de artistas muertos con inteligencia artificial.

“California, sede de la mayoría de las empresas de inteligencia artificial más importantes del mundo, está trabajando para aprovechar estas tecnologías transformadoras para ayudar a abordar desafíos urgentes mientras estudia los riesgos que presentan”, dijo la oficina del gobernador Newsom en un comunicado de prensa.

Hasta ahora, el gobernador Newsom ha convertido en ley nueve de ellas, algunas de las cuales son las leyes de inteligencia artificial de mayor alcance de Estados Unidos hasta el momento.

Llamadas automáticas con inteligencia artificial

El viernes, el gobernador Newsom firmó un proyecto de ley que exige que las llamadas automáticas revelen si han utilizado voces generadas por inteligencia artificial. La AB 2905 tiene como objetivo evitar otro caso de una llamada automática deepfake que se asemeja a la voz de Joe Biden y que confundió a muchos votantes de New Hampshire a principios de este año.

Desnudos falsos profundos

Newsom firmó el jueves dos leyes que abordan la creación y difusión de desnudos falsos. La SB 926 criminaliza la ley, haciendo ilegal chantajear a alguien con imágenes de desnudos generadas por inteligencia artificial que se parezcan a él.

La SB 981, que también se convirtió en ley el jueves, exige que las plataformas de redes sociales establezcan canales para que los usuarios denuncien desnudos falsos que se parezcan a ellos. El contenido debe bloquearse temporalmente mientras la plataforma lo investiga y, si se confirma, eliminarse de forma permanente.

Marcas de agua

También el jueves, Newsom firmó un proyecto de ley para ayudar al público a identificar contenido generado por IA. La SB 942 exige que los sistemas de inteligencia artificial generativa ampliamente utilizados revelen que fueron generados por IA en los datos de procedencia de su contenido. Por ejemplo, todas las imágenes creadas por Dall-E de OpenAI ahora necesitan una pequeña etiqueta en sus metadatos que indique que fueron generadas por IA.

Muchas empresas de IA ya hacen esto y existen varias herramientas gratuitas que pueden ayudar a las personas a leer estos datos de procedencia y detectar contenido generado por IA.

Falsificaciones electorales profundas

A principios de esta semana, el gobernador de California firmó tres leyes para acabar con las falsificaciones de inteligencia artificial que podrían influir en las elecciones.

Una de las nuevas leyes de California, la AB 2655, exige que las grandes plataformas en línea, como Facebook y X, eliminen o etiqueten los deepfakes de IA relacionados con las elecciones, así como que creen canales para denunciar ese tipo de contenido. Los candidatos y funcionarios electos pueden solicitar una medida cautelar si una gran plataforma en línea no cumple con la ley.

Otra ley, la AB 2839, apunta a los usuarios de las redes sociales que publican o reenvían falsificaciones de inteligencia artificial que podrían engañar a los votantes sobre las próximas elecciones. La ley entró en vigor de inmediato el martes y Newsom sugirió que Elon Musk podría correr el riesgo de violarla.

La nueva ley de California, AB 2355, exige ahora la divulgación total de los anuncios políticos generados por inteligencia artificial. Eso significa que, en el futuro, Trump podría no poder salirse con la suya publicando deepfakes de Taylor Swift apoyándolo en Truth Social (ella respaldó a Kamala Harris). La FCC ha propuesto un requisito de divulgación similar a nivel nacional y ya ha declarado ilegales las llamadas automáticas que utilizan voces generadas por inteligencia artificial.

Actores e IA

Dos leyes que Newsom firmó el martes —y que SAG-AFTRA, el sindicato de actores de cine y televisión más grande del país, estaba impulsando— crean nuevos estándares para la industria de los medios de comunicación de California. La AB 2602 requiere que los estudios obtengan el permiso de un actor antes de crear una réplica de su voz o imagen generada por IA.

Mientras tanto, la AB 1836 prohíbe a los estudios crear réplicas digitales de artistas fallecidos sin el consentimiento de sus herederos (por ejemplo, se usaron réplicas legalmente autorizadas en las recientes películas “Alien” y “Star Wars”, así como en otras películas).

¿Que queda?

El gobernador Newsom todavía tiene 29 proyectos de ley relacionados con la IA sobre los que decidir antes de finales de septiembre. Durante una charla con el director ejecutivo de Salesforce, Marc Benioff, el martes durante la conferencia Dreamforce 2024, Newsom puede haberse quitado el sombrero ante la SB 1047 y sobre cómo está pensando en regular la industria de la IA de forma más amplia.

“Hay un proyecto de ley que es un poco desmesurado en términos de discurso y conciencia pública; es este SB 1047”, dijo Newsom en el escenario el martes. “¿Cuáles son los riesgos demostrables de la IA y cuáles son los riesgos hipotéticos? No puedo resolver todo. ¿Qué podemos resolver? Y ese es el enfoque que estamos adoptando en todo el espectro de este tema”.

Vuelva a consultar este artículo para obtener actualizaciones sobre qué leyes de inteligencia artificial firma el gobernador de California y cuáles no.

Leer más
Back to top button