Esta semana en IA: Por qué el o1 de OpenAI cambia el juego de la regulación de la IA

Hola a todos, bienvenidos al boletín periódico sobre inteligencia artificial de TechCrunch. Si quieren recibirlo en su bandeja de entrada todos los miércoles, suscríbase aquí.

Han pasado apenas unos días desde que OpenAI presentó al mundo su último modelo generativo estrella, o1. Comercializado como un modelo de “razonamiento”, o1 básicamente tarda más en “pensar” sobre las preguntas antes de responderlas, descomponiendo los problemas y verificando sus propias respuestas.

Hay muchas cosas que o1 no puede hacer bien, y el propio OpenAI lo admite. Pero en algunas tareas, como la física y las matemáticas, o1 se destaca a pesar de no tener necesariamente más parámetros que el modelo de mejor rendimiento anterior de OpenAI, GPT-4o. (En IA y aprendizaje automático, los “parámetros”, que suelen ser miles de millones, corresponden aproximadamente a las habilidades de resolución de problemas de un modelo).

Y esto tiene implicaciones para la regulación de la IA.

Por ejemplo, el proyecto de ley SB 1047 de California impone requisitos de seguridad a los modelos de IA cuyo desarrollo costó más de 100 millones de dólares o que fueron entrenados utilizando una potencia de cálculo que superaba un cierto umbral. Sin embargo, modelos como el o1 demuestran que aumentar la potencia de entrenamiento no es la única forma de mejorar el rendimiento de un modelo.

En una publicación en X, Jim Fan, director de investigación de Nvidia, postuló que los sistemas de IA futuros pueden depender de “núcleos de razonamiento” pequeños y más fáciles de entrenar, en lugar de las arquitecturas que requieren un entrenamiento intensivo (por ejemplo, Llama 405B de Meta) que han sido la tendencia últimamente. Estudios académicos recientes, señala, han demostrado que los modelos pequeños como o1 pueden superar en gran medida a los modelos grandes si se les da más tiempo para pensar en las preguntas.

¿Fue entonces una falta de visión por parte de los responsables de las políticas vincular las medidas regulatorias de la IA a la informática? Sí, dice Sara Hooker, directora del laboratorio de investigación de la startup de IA Cohere, en una entrevista con TechCrunch:

(o1) de alguna manera señala cuán incompleto es este punto de vista, al utilizar el tamaño del modelo como un indicador de riesgo. No tiene en cuenta todo lo que se puede hacer con la inferencia o la ejecución de un modelo. Para mí, es una combinación de mala ciencia combinada con políticas que ponen el énfasis no en los riesgos actuales que vemos en el mundo ahora, sino en los riesgos futuros.

Ahora bien, ¿eso significa que los legisladores deberían desmantelar los proyectos de ley sobre IA desde sus cimientos y empezar de nuevo? No. Muchos de ellos se redactaron para que pudieran modificarse fácilmente, bajo el supuesto de que la IA evolucionaría mucho más allá de su promulgación. El proyecto de ley de California, por ejemplo, daría a la Agencia de Operaciones Gubernamentales del estado la autoridad para redefinir los umbrales de cómputo que activan los requisitos de seguridad de la ley.

La parte ciertamente complicada será determinar qué métrica Podría ser Un indicador de riesgo mejor que el cómputo de entrenamiento. Como tantos otros aspectos de la regulación de la IA, es algo que se debe reflexionar a medida que se aprueban proyectos de ley en Estados Unidos (y en el mundo).

Noticias

Créditos de la imagen: David Paul Morris/Bloomberg/Getty Images

Primeras reacciones al o1: Max obtuvo impresiones iniciales de investigadores de IA, fundadores de empresas emergentes y capitalistas de riesgo sobre o1, y probó el modelo él mismo.

Altman abandona el comité de seguridad: El director ejecutivo de OpenAI, Sam Altman, renunció al comité de la startup responsable de revisar la seguridad de modelos como o1, probablemente en respuesta a preocupaciones de que no actuaría de manera imparcial.

Slack se convierte en un centro de agentes: En la conferencia anual Dreamforce de su empresa matriz Salesforce, Slack anunció nuevas funciones, incluidos resúmenes de reuniones generados por IA e integraciones con herramientas para la generación de imágenes y búsquedas web impulsadas por IA.

Google comienza a marcar imágenes con IA: Google dice que planea implementar cambios en la Búsqueda de Google para aclarar qué imágenes en los resultados fueron generadas por IA o editadas por herramientas de IA.

Mistral lanza un nivel gratuito: La startup francesa de inteligencia artificial Mistral lanzó un nuevo nivel gratuito para permitir a los desarrolladores ajustar y crear aplicaciones de prueba con los modelos de inteligencia artificial de la startup.

Snap lanza un generador de vídeo: El martes, durante su Snap Partner Summit anual, Snapchat anunció que presentará una nueva herramienta de generación de videos con IA para creadores. La herramienta permitirá a los creadores seleccionados generar videos con IA a partir de indicaciones de texto y, pronto, de indicaciones de imagen.

Intel firma un importante acuerdo de chips: Intel afirma que desarrollará un chip de inteligencia artificial en colaboración con AWS utilizando el proceso de fabricación de chips 18A de Intel. Las empresas describieron el acuerdo como un “marco multianual y multimillonario” que podría implicar diseños de chips adicionales.

Especial de inteligencia artificial de Oprah: Oprah Winfrey transmitió un especial sobre IA con invitados como Sam Altman de OpenAI, Bill Gates de Microsoft, el influencer tecnológico Marques Brownlee y el actual director del FBI, Christopher Wray.

Trabajo de investigación de la semana

Sabemos que la IA puede ser persuasiva, pero ¿puede sacar a alguien de la trampa de una teoría conspirativa? Bueno, no por sí sola. Pero un nuevo modelo de Costello et al. en el MIT y Cornell puede hacer mella en las creencias sobre teorías conspirativas falsas que persistan al menos durante un par de meses.

En el experimento, hicieron que personas que creían en afirmaciones relacionadas con la conspiración (por ejemplo, “el 11 de septiembre fue un trabajo interno”) hablaran con un chatbot que, de manera gentil, paciente e interminable, ofrecía pruebas en contra de sus argumentos. Estas conversaciones llevaron a los humanos involucrados a afirmar una reducción del 20% en la creencia asociada dos meses después, al menos en la medida en que estas cosas se pueden medir. A continuación, se muestra un ejemplo de una de las conversaciones en curso:

Es poco probable que quienes están muy interesados ​​en teorías conspirativas sobre reptiles y estados profundos consulten o crean en una IA como esta, pero el enfoque podría ser más eficaz si se utilizara en un momento crítico, como la primera incursión de una persona en estas teorías. Por ejemplo, si un adolescente busca “¿Puede el combustible para aviones derretir vigas de acero?”, puede experimentar un momento de aprendizaje en lugar de uno trágico.

Modelo de la semana

No es un modelo, pero tiene que ver con modelos: los investigadores de Microsoft publicaron esta semana un punto de referencia de IA llamado Eureka, cuyo objetivo es (en sus palabras) “ampliar las evaluaciones (de modelos)… de manera abierta y transparente”.

Los benchmarks de IA son muy comunes. ¿Qué hace que Eureka sea diferente? Los investigadores dicen que para Eureka (que en realidad es una colección de benchmarks existentes) eligieron tareas que siguen siendo un desafío para “incluso los modelos más capaces”. En concreto, Eureka pone a prueba capacidades que a menudo se pasan por alto en los benchmarks de IA, como las habilidades de navegación visoespacial.

Para demostrar lo difícil que puede resultar Eureka para los modelos, los investigadores probaron sistemas como Claude de Anthropic, GPT-4o de OpenAI y Llama de Meta en el benchmark. Ningún modelo obtuvo buenos resultados en todas las pruebas de Eureka, lo que, según los investigadores, subraya la importancia de la “innovación continua” y las “mejoras específicas” de los modelos.

Bolsa de sorpresas

En una victoria para los actores profesionales, California aprobó dos leyes, AB 2602 y AB 1836, que restringen el uso de réplicas digitales de IA.

La legislación, que fue apoyada por SAG-AFTRA, el sindicato de artistas, exige que las empresas que dependen de la réplica digital de un artista (por ejemplo, la voz o la imagen clonada) proporcionen una descripción “razonablemente específica” del uso previsto de la réplica y negocien con el asesor legal del artista o el sindicato. También exige que los empleadores del entretenimiento obtengan el consentimiento de los herederos de un artista fallecido antes de utilizar una réplica digital de esa persona.

Como señala The Hollywood Reporter en su cobertura, los proyectos de ley codifican conceptos por los que SAG-AFTRA luchó en su huelga de 118 días del año pasado con los estudios y las principales plataformas de streaming. California es el segundo estado después de Tennessee en imponer restricciones al uso de imágenes digitales de actores; SAG-AFTRA también patrocinó la iniciativa de Tennessee.

Leer más
Back to top button