Esta semana en IA: OpenAI se está estirando

Hola amigos, bienvenidos al boletín informativo periódico sobre IA de TechCrunch. Si quieres recibir esto en tu bandeja de entrada todos los miércoles, regístrate aquí.

Después de una breve pausa, volvemos con algunas notas sobre el DevDay de OpenAI.

El discurso de apertura de ayer por la mañana en San Francisco fue notable por su tono moderado, en contraste con el discurso exagerado y exagerado del CEO Sam Altman el año pasado. Este DevDay, Altman no subió al escenario para presentar nuevos y brillantes proyectos. Ni siquiera hizo acto de presencia; jefe de producto de plataforma, Olivier Godement, maestro de ceremonias.

En la agenda de este primero de varios OpenAI DevDays (el próximo se celebrará en Londres este mes, seguido del último en Singapur en noviembre) estaban las mejoras en la calidad de vida. OpenAI lanzó una API de voz en tiempo real, así como un ajuste de visión, que permite a los desarrolladores personalizar su modelo GPT-4o mediante imágenes. Y la compañía lanzó la destilación de modelos, que toma un modelo de IA grande como GPT-4o y lo utiliza para ajustar un modelo más pequeño.

El enfoque limitado del evento no fue inesperado. OpenAI moderó las expectativas este verano, diciendo que DevDay se centraría en educar a los desarrolladores, no en exhibir productos. Sin embargo, lo que se omitió en el discurso de apertura de 60 minutos del martes planteó dudas sobre el progreso (y el estado) de los innumerables esfuerzos de IA de OpenAI.

No escuchamos sobre lo que podría suceder al generador de imágenes de casi un año de OpenAI, DALL-E 3, ni recibimos una actualización sobre la vista previa limitada de Voice Engine, la herramienta de clonación de voz de la compañía. Aún no hay un cronograma de lanzamiento para el generador de video de OpenAI, Sora, y mamá dice sobre Media Manager, la aplicación que la compañía dice que está desarrollando para permitir a los creadores controlar cómo se usa su contenido en el entrenamiento de modelos.

Cuando se le contactó para hacer comentarios, un portavoz de OpenAI le dijo a TechCrunch que OpenAI está “lanzando lentamente la vista previa (de Voice Engine) a socios más confiables” y que Media Manager está “todavía en desarrollo”.

Pero parece claro que OpenAI está al límite, y lo ha estado durante algún tiempo.

Según un informe reciente de The Wall Street Journal, los equipos de la compañía que trabajan en GPT-4o solo tuvieron nueve días para realizar evaluaciones de seguridad. Fortune informa que muchos empleados de OpenAI pensaron que o1, el primer modelo de “razonamiento” de la compañía, no estaba listo para ser presentado.

A medida que avanza hacia una ronda de financiación que podría generar hasta 6.500 millones de dólares, OpenAI tiene sus dedos en muchos pasteles mal horneados. DALL-3 tiene un rendimiento inferior a generadores de imágenes como Flux en muchas pruebas cualitativas; Según se informa, Sora tarda tanto en generar imágenes que OpenAI está renovando el modelo; y OpenAI continúa retrasando el lanzamiento del programa de reparto de ingresos para su mercado de bots, GPT Store, que inicialmente fijó para el primer trimestre de este año.

No me sorprende que OpenAI se encuentre ahora acosado por el agotamiento del personal y la salida de ejecutivos. Cuando intentas ser un experto en todo, terminas siendo un maestro de nada y no agradando a nadie.

Noticias

Proyecto de ley de IA vetado: El gobernador de California, Gavin Newsom, vetó la SB 1047, un proyecto de ley de alto perfil que habría regulado el desarrollo de la IA en el estado. En una declaración, Newsom calificó el proyecto de ley como “bien intencionado” pero “(no) el mejor enfoque” para proteger al público de los peligros de la IA.

Se aprobaron proyectos de ley de IA: Newsom promulgó otras regulaciones sobre IA, incluidos proyectos de ley relacionados con la divulgación de datos de entrenamiento de IA, desnudos ultrafalsos y más.

Y Combinator criticó: La aceleradora de startups Y Combinator está siendo criticada después de que respaldó una empresa de inteligencia artificial, PearAI, cuyos fundadores admitieron que básicamente clonaron un proyecto de código abierto llamado Continuar.

El copiloto se actualiza: El asistente Copilot de Microsoft, impulsado por inteligencia artificial, se renovó el martes. Ahora puede leer tu pantalla, pensar profundamente y hablarte en voz alta, entre otros trucos.

El cofundador de OpenAI se une a Anthropic: Durk Kingma, uno de los cofundadores menos conocidos de OpenAI, anunció esta semana que se unirá a Anthropic. Sin embargo, no está claro en qué estará trabajando.

Entrenamiento de IA en las fotos de los clientes: Los Ray-Ban de Meta con tecnología de inteligencia artificial tienen una cámara en el frente para varias funciones de AR. Pero podría convertirse en un problema de privacidad: la compañía no dirá si planea entrenar modelos con imágenes de los usuarios.

Cámara AI de Raspberry Pi: Raspberry Pi, la empresa que vende computadoras pequeñas y económicas de placa única, lanzó la cámara Raspberry Pi AI, un complemento con procesamiento de inteligencia artificial integrado.

Trabajo de investigación de la semana.

Las plataformas de codificación de IA han atraído a millones de usuarios y han atraído cientos de millones de dólares de los capitalistas de riesgo. Pero, ¿están cumpliendo sus promesas de aumentar la productividad?

Quizás no, según un nuevo análisis de Uplevel, una empresa de análisis de ingeniería. Uplevel comparó datos de alrededor de 800 de sus clientes desarrolladores, algunos de los cuales informaron haber utilizado la herramienta de codificación de inteligencia artificial de GitHub, Copilot, y otros no. Uplevel descubrió que los desarrolladores que confiaban en Copilot introdujeron un 41% más de errores y no eran menos susceptibles al agotamiento que aquellos que no usaron la herramienta.

Los desarrolladores han mostrado entusiasmo por las herramientas de codificación asistida impulsadas por IA a pesar de las preocupaciones relacionadas no solo con la seguridad sino también con la infracción de derechos de autor y la privacidad. La gran mayoría de los desarrolladores que respondieron a la última encuesta de GitHub dijeron que habían adoptado herramientas de inteligencia artificial de alguna forma. Las empresas también son optimistas: Microsoft informó en abril que Copilot tenía más de 50.000 clientes empresariales.

modelo de la semana

Liquid AI, una filial del MIT, anunció esta semana su primera serie de modelos de IA generativa: Liquid Foundation Models, o LFM para abreviar.

“¿Así que lo que?” podrías preguntar. Los modelos son una mercancía: prácticamente todos los días se lanzan nuevos. Bueno, los LFM utilizan una arquitectura de modelo novedosa y obtienen puntuaciones competitivas en una variedad de puntos de referencia de la industria.

La mayoría de los modelos son lo que se conoce como transformador. Propuesto por un equipo de investigadores de Google en 2017, el transformador se ha convertido en la arquitectura del modelo de IA generativa dominante. con mucho. Los transformadores sustentan a Sora y la versión más reciente de Stable Diffusion, así como modelos de generación de texto como Claude de Anthropic y Gemini de Google.

Pero los transformadores tienen limitaciones. En particular, no son muy eficientes a la hora de procesar y analizar grandes cantidades de datos.

Liquid afirma que sus LFM tienen una huella de memoria reducida en comparación con las arquitecturas de transformadores, lo que les permite absorber mayores cantidades de datos en el mismo hardware. “Al comprimir eficientemente las entradas, los LFM pueden procesar secuencias (de datos) más largas”, escribió la compañía en una publicación de blog.

Los LFM de Liquid están disponibles en varias plataformas en la nube y el equipo planea continuar perfeccionando la arquitectura con lanzamientos futuros.

bolsa de agarre

Si parpadeaste, probablemente te lo perdiste: una empresa de inteligencia artificial presentó su solicitud para cotizar en bolsa esta semana.

Llamada Cerebras, la startup con sede en San Francisco desarrolla hardware para ejecutar y entrenar modelos de IA y compite directamente con Nvidia.

Entonces, ¿cómo espera Cerebras competir contra el gigante de los chips, que en julio dominaba entre el 70% y el 95% del segmento de chips de IA? Sobre el rendimiento, dice Cerebras. La compañía afirma que su chip insignia de IA, que vende directamente y ofrece como servicio a través de su nube, puede superar al hardware de Nvidia.

Pero Cerebras aún tiene que traducir esta supuesta ventaja de rendimiento en ganancias. La empresa tuvo una pérdida neta de 66,6 millones de dólares en el primer semestre de 2024, según las presentaciones ante la SEC. Y durante el año pasado, Cerebras informó una pérdida neta de 127,2 millones de dólares sobre unos ingresos de 78,7 millones de dólares.

Cerebras podría intentar recaudar hasta mil millones de dólares a través de la IPO, según Bloomberg. Hasta la fecha, la empresa ha recaudado 715 millones de dólares en capital de riesgo y hace tres años estaba valorada en más de 4 mil millones de dólares.

Leer más
Back to top button