a16z VC Martin Casado explica por qué tantas regulaciones de IA están tan equivocadas
El problema con la mayoría de los intentos de regular la IA hasta ahora es que los legisladores se están centrando en algunas experiencias míticas de IA futuras, en lugar de comprender verdaderamente los nuevos riesgos que la IA realmente introduce.
Así lo argumentó el socio general de Andreessen Horowitz, VC Martin Casado, ante una multitud presente en TechCrunch Disrupt 2024 la semana pasada. Casado, que dirige la práctica de infraestructura de 1.250 millones de dólares de a16z, ha invertido en nuevas empresas de inteligencia artificial como World Labs, Cursor, Ideogram y Braintrust.
“Las tecnologías transformadoras y la regulación han sido este discurso constante durante décadas, ¿verdad? Entonces, lo que pasa con todo el discurso sobre la IA es que parece haber surgido de la nada”, dijo a la multitud. “Están tratando de conjurar nuevas regulaciones sin aprovechar esas lecciones”.
Por ejemplo, dijo: “¿Ha visto realmente las definiciones de IA en estas políticas? Ni siquiera podemos definirlo”.
Casado estuvo entre un mar de voces de Silicon Valley que se regocijaron cuando el gobernador de California, Gavin Newsom, vetó el intento estatal de ley de gobernanza de la IA, SB 1047. La ley quería poner un llamado interruptor de apagado en modelos de IA súper grandes, también conocido como algo que apágalos. Quienes se opusieron al proyecto de ley dijeron que estaba tan mal redactado que, en lugar de salvarnos de un futuro monstruo imaginario de IA, simplemente habría confundido y obstaculizado el candente escenario de desarrollo de la IA en California.
“Rutinariamente escucho a los fundadores negarse a mudarse aquí debido a lo que indica sobre la actitud de California hacia la IA: que preferimos una mala legislación basada en preocupaciones de ciencia ficción en lugar de riesgos tangibles”. publicó en X un par de semanas antes de que el proyecto de ley fuera vetado.
Si bien esta ley estatal en particular está muerta, el hecho de que existiera todavía molesta a Casado. Le preocupa que puedan materializarse más proyectos de ley, elaborados de la misma manera, si los políticos deciden complacer los temores de la población general hacia la IA, en lugar de controlar lo que la tecnología realmente está haciendo.
Entiende la tecnología de IA mejor que la mayoría. Antes de unirse a la histórica firma de capital de riesgo, Casado fundó otras dos empresas, incluida una empresa de infraestructura de redes, Nicira, que vendió a VMware por 1.260 millones de dólares hace poco más de una década. Antes de eso, Casado fue experto en seguridad informática en el Laboratorio Nacional Lawrence Livermore.
Dice que muchas de las regulaciones de IA propuestas no provinieron ni fueron apoyadas por muchos de los que mejor entienden la tecnología de IA, incluidos los académicos y el sector comercial que construye productos de IA.
“Hay que tener una noción de riesgo marginal que sea diferente. ¿En qué se diferencia la IA actual de alguien que usa Google? ¿En qué se diferencia la IA actual de alguien que simplemente usa Internet? Si tenemos un modelo que muestra en qué se diferencia, se tiene cierta noción de riesgo marginal y luego se pueden aplicar políticas que aborden ese riesgo marginal”, dijo.
“Creo que es un poco temprano antes de que empecemos a analizar un montón de regulaciones para entender realmente qué vamos a regular”, argumenta.
El contraargumento (y uno que plantearon varias personas en la audiencia) fue que el mundo realmente no veía los tipos de daños que Internet o las redes sociales podían causar antes de que esos daños estuvieran sobre nosotros. Cuando se lanzaron Google y Facebook, nadie sabía que dominarían la publicidad en línea o recopilarían tanta información sobre individuos. Nadie entendía cosas como el ciberacoso o las cámaras de eco cuando las redes sociales eran jóvenes.
Los defensores de la regulación de la IA a menudo señalan estas circunstancias pasadas y dicen que esas tecnologías deberían haber sido reguladas desde el principio.
¿La respuesta de Casado?
“Hoy existe un régimen regulatorio sólido que se ha desarrollado durante 30 años” y está bien equipado para construir nuevas políticas para la IA y otras tecnologías. Es cierto, sólo a nivel federal, los organismos reguladores incluyen desde la Comisión Federal de Comunicaciones hasta el Comité de Ciencia, Espacio y Tecnología de la Cámara de Representantes. Cuando TechCrunch le preguntó a Casado el miércoles después de las elecciones si mantenía esta opinión (que la regulación de la IA debería seguir el camino ya trazado por los organismos reguladores existentes), dijo que sí.
Pero también cree que la IA no debería ser el objetivo debido a problemas con otras tecnologías. En su lugar, se debería atacar las tecnologías que causaron los problemas.
“Si nos equivocamos en las redes sociales, no se puede solucionar poniéndolo en la IA”, afirmó. “La gente que regula la IA dice: ‘Oh, nos equivocamos en las redes sociales, por lo tanto, lo haremos bien en la IA’, lo cual es una afirmación sin sentido. Vamos a solucionarlo en las redes sociales “.