Lo que la victoria de Trump podría significar para la regulación de la IA
Un agotador ciclo electoral ha llegado a su fin. Donald Trump será el presidente número 47 de Estados Unidos y, con los republicanos en control del Senado (y posiblemente de la Cámara de Representantes), sus aliados están preparados para llevar un cambio radical a los niveles más altos del gobierno.
Los efectos se sentirán agudamente en la industria de la IA, que en gran medida se ha opuesto a la formulación de políticas federales. Trump ha dicho repetidamente que planea desmantelar el marco de políticas de inteligencia artificial de Biden desde el “primer día” y se ha alineado con los hacedores de reyes que han criticado duramente todas las regulaciones, excepto las más ligeras.
El enfoque de Biden
La política de IA de Biden entró en vigor mediante una orden ejecutiva, la Orden Ejecutiva de IA, aprobada en octubre de 2023. La inacción del Congreso en materia de regulación precipitó la orden ejecutiva, cuyos preceptos son voluntarios, no obligatorios.
La AI EO aborda todo, desde el avance de la IA en la atención médica hasta el desarrollo de directrices diseñadas para mitigar los riesgos de robo de propiedad intelectual. Pero dos de sus disposiciones más trascendentales, que han provocado la ira de algunos republicanos, se refieren a los riesgos de seguridad de la IA y sus impactos en la seguridad en el mundo real.
Una disposición ordena a las empresas que desarrollan potentes modelos de IA que informen al gobierno cómo están entrenando y asegurando estos modelos, y que proporcionen los resultados de las pruebas diseñadas para investigar las vulnerabilidades de los modelos. La otra disposición ordena al Instituto Nacional de Estándares y Tecnología (NIST) del Departamento de Comercio que redacte una guía que ayude a las empresas a identificar (y corregir) fallas en los modelos, incluidos los sesgos.
La AI EO logró mucho. El año pasado, el Departamento de Comercio estableció el Instituto de Seguridad de la IA de EE. UU. (AISI), un organismo para estudiar los riesgos en los sistemas de IA, incluidos los sistemas con aplicaciones de defensa. También lanzó nuevo software para ayudar a mejorar la confiabilidad de la IA y probó importantes modelos nuevos de IA a través de acuerdos con OpenAI y Anthropic.
Los críticos aliados con Trump argumentan que los requisitos de presentación de informes de la EO son onerosos y efectivamente obligan a las empresas a revelar sus secretos comerciales. Durante una audiencia en la Cámara de Representantes en marzo, la representante Nancy Mace (R-SC) dijo que “podrían ahuyentar a los posibles innovadores e impedir más avances del tipo ChatGPT”.
En una audiencia en el Senado en julio, el compañero de fórmula de Trump, JD Vance, expresó su preocupación de que los “intentos preventivos de sobrerregulación” pudieran “afianzar a los titulares tecnológicos que ya tenemos”. Vance también ha apoyado las medidas antimonopolio, incluidos los esfuerzos de la presidenta de la FTC, Lina Khan, quien encabeza las investigaciones sobre las adquisiciones de nuevas empresas de inteligencia artificial por parte de grandes empresas de tecnología.
Varios republicanos han equiparado el trabajo del NIST sobre la IA con la censura del discurso conservador. Acusan a la Administración Biden de intentar dirigir el desarrollo de la IA con nociones liberales sobre desinformación y prejuicios; El senador Ted Cruz (R-TX) criticó recientemente los “estándares de ‘seguridad’ de IA despertados” del NIST como un “plan para controlar el discurso” basado en daños sociales “morfos”.
“Cuando sea reelegido”, dijo Trump en un mitin en Cedar Rapids, Iowa, en diciembre pasado, “cancelaré la orden ejecutiva de inteligencia artificial de Biden y prohibiré el uso de IA para censurar el discurso de los ciudadanos estadounidenses desde el primer día. ”
Reemplazo del AI EO
Entonces, ¿qué podría reemplazar la IA EO de Biden?
Poco se puede deducir de las órdenes ejecutivas sobre IA que Trump firmó durante su último mandato presidencial, que fundaron institutos nacionales de investigación de IA y ordenaron a las agencias federales que priorizaran la I+D en IA. Sus OE exigieron que las agencias “protejan las libertades civiles, la privacidad y los valores estadounidenses” al aplicar la IA, ayuden a los trabajadores a adquirir habilidades relevantes para la IA y promuevan el uso de tecnologías “confiables”.
Durante su campaña, Trump prometió políticas que “apoyarían el desarrollo de la IA basado en la libertad de expresión y el florecimiento humano”, pero se negó a entrar en detalles.
Algunos republicanos han dicho que quieren que el NIST se centre en los riesgos de seguridad física de la IA, incluida su capacidad para ayudar a los adversarios a construir armas biológicas (que también aborda la EO de Biden). Pero también han evitado respaldar nuevas restricciones a la IA, que podrían poner en peligro partes de la orientación del NIST.
De hecho, el destino del AISI, que forma parte del NIST, es turbio. Si bien tiene un presupuesto, un director y asociaciones con institutos de investigación de IA en todo el mundo, el AISI podría liquidarse con una simple derogación de la orden ejecutiva de Biden.
En una carta abierta en octubre, una coalición de empresas, organizaciones sin fines de lucro y universidades pidió al Congreso que promulgara una legislación que codifique el AISI antes de fin de año.
Trump ha reconocido que la IA es “muy peligrosa” y que requerirá enormes cantidades de energía para desarrollarse y funcionar, lo que sugiere una voluntad de abordar los crecientes riesgos de la IA.
Siendo este el caso, Sarah Kreps, politóloga especializada en la política de defensa de Estados Unidos, no espera que la Casa Blanca surja una regulación importante sobre la IA en los próximos cuatro años. “No sé si las opiniones de Trump sobre la regulación de la IA alcanzarán el nivel de antipatía que le lleve a derogar la EO de IA de Biden”, dijo a TechCrunch.
Comercio y reglamentación estatal
Dean Ball, investigador de la Universidad George Mason, está de acuerdo en que la victoria de Trump probablemente augura un régimen regulatorio ligero, que dependerá de la aplicación de la ley existente en lugar de la creación de nuevas leyes. Sin embargo, Ball predice que esto puede animar a los gobiernos estatales, particularmente en los bastiones demócratas como California, a tratar de llenar el vacío.
Los esfuerzos liderados por el Estado están en marcha. En marzo, Tennessee aprobó una ley que protege a los locutores de la clonación de IA. Este verano, Colorado adoptó un enfoque escalonado y basado en riesgos para las implementaciones de IA. Y en septiembre, el gobernador de California, Gavin Newsom, firmó docenas de proyectos de ley de seguridad relacionados con la IA, algunos de los cuales exigen que las empresas publiquen detalles sobre su formación en IA.
Los responsables políticos estatales han introducido cerca de 700 leyes sobre IA sólo este año.
“No está claro cómo responderá el gobierno federal a estos desafíos”, dijo Ball.
Hamid Ekbia, profesor de asuntos públicos de la Universidad de Syracuse, cree que las políticas proteccionistas de Trump podrían tener implicaciones regulatorias para la IA. Espera que la administración Trump imponga controles de exportación más estrictos a China, por ejemplo, incluidos controles sobre las tecnologías necesarias para desarrollar la IA.
La administración Biden ya ha impuesto una serie de prohibiciones a la exportación de chips y modelos de IA. Sin embargo, se informa que algunas empresas chinas están aprovechando lagunas jurídicas para acceder a las herramientas a través de servicios en la nube.
“La regulación global de la IA se verá afectada como consecuencia (de los nuevos controles), a pesar de las circunstancias que exigen una mayor cooperación global”, dijo Ekbia. “Las ramificaciones políticas y geopolíticas de esto pueden ser enormes y permitir usos más autoritarios y opresivos de la IA en todo el mundo”.
Si Trump promulgara aranceles sobre la tecnología necesaria para construir IA, también podría reducir el capital necesario para financiar la investigación y el desarrollo de la IA, dice Matt Mittelsteadt, otro investigador de la Universidad George Mason. Durante su campaña, Trump propuso un arancel del 10% a todas las importaciones estadounidenses y del 60% a los productos fabricados en China.
“Quizás el mayor impacto provendrá de las políticas comerciales”, dijo Mittelsteadt. “Es de esperar que cualquier arancel potencial tenga un impacto económico masivo en el sector de la IA”.
Por supuesto, es temprano. Y si bien Trump en su mayor parte evitó abordar la IA durante la campaña electoral, gran parte de su plataforma (como su plan para restringir las visas H-1B y abrazar el petróleo y el gas) podría tener efectos posteriores en la industria de la IA.
Sandra Wachter, profesora de ética de datos en el Oxford Internet Institute, instó a los reguladores, independientemente de sus afiliaciones políticas, a no perder de vista los peligros de la IA por sus oportunidades.
“Estos riesgos existen independientemente de dónde te encuentres en el espectro político”, dijo. “Estos daños no creen en la geografía y no les importan las líneas partidistas. Sólo me queda esperar que la gobernanza de la IA no se reduzca a una cuestión partidista: es una cuestión que nos afecta a todos, en todas partes. Todos tenemos que trabajar juntos para encontrar buenas soluciones globales”.