Ni siquiera la ‘madrina de la IA’ tiene idea de qué es AGI

¿Está confundido acerca de la inteligencia artificial general o AGI? Es eso que OpenAI está obsesionado con crear en última instancia de una manera que “beneficie a toda la humanidad”. Es posible que desee tomarlos en serio, ya que acaban de recaudar 6.600 millones de dólares para acercarse a ese objetivo.

Pero si todavía te preguntas qué diablos es el AGI, no estás solo.

En una amplia discusión el jueves en la cumbre de liderazgo responsable de IA de Credo AI, Fei-Fei Li, una investigadora de renombre mundial a menudo llamada la “madrina de la IA”, dijo que ella tampoco sabe qué es AGI. En otros puntos, Li habló sobre su papel en el nacimiento de la IA moderna, cómo la sociedad debería protegerse contra los modelos avanzados de IA y por qué cree que su nueva startup unicornio, World Labs, va a cambiarlo todo.

Pero cuando se le preguntó qué pensaba sobre una “singularidad de IA”, Li estaba tan perdida como el resto de nosotros.

“Vengo de la IA académica y he sido educado en métodos más rigurosos y basados ​​en evidencia, así que no sé realmente qué significan todas estas palabras”, dijo Li en una sala abarrotada en San Francisco, junto a una gran ventana que daba al Puente Golden Gate. “Francamente, ni siquiera sé qué significa AGI. Como dice la gente, lo sabes cuando lo ves, supongo que yo no lo he visto. La verdad es que no paso mucho tiempo pensando en estas palabras porque creo que hay muchas cosas más importantes que hacer…”

Si alguien supiera qué es AGI, probablemente sea Fei-Fei Li. En 2006, creó ImageNet, el primer gran conjunto de datos de evaluación comparativa y capacitación de IA del mundo que fue fundamental para catalizar nuestro actual auge de la IA. De 2017 a 2018, se desempeñó como científica jefa de IA/ML en Google Cloud. Hoy, Li dirige el Instituto de IA Centrado en el Humano (HAI, por sus siglas en inglés) de Stanford y su startup World Labs está construyendo “grandes modelos mundiales”. (Ese término es casi tan confuso como AGI, si me preguntas).

El director ejecutivo de OpenAI, Sam Altman, intentó definir AGI en un perfil con The New Yorker el año pasado. Altman describió a AGI como el “equivalente de un ser humano promedio que podrías contratar como compañero de trabajo”.

Evidentemente, esta definición no era lo suficientemente buena como para que una empresa de 157.000 millones de dólares trabajara en ella. Entonces OpenAI creó los cinco niveles que utiliza internamente para medir su progreso hacia AGI. El primer nivel son los chatbots (como ChatGPT), luego los razonadores (aparentemente, OpenAI o1 era este nivel), los agentes (que supuestamente viene a continuación), los innovadores (IA que puede ayudar a inventar cosas) y el último nivel, organizacional (IA que puede hacer el trabajo de toda una organización).

¿Aún estás confundido? Yo también, y Li también. Además, todo esto parece mucho más de lo que podría hacer un compañero de trabajo humano promedio.

Al principio de la charla, Li dijo que ha estado fascinada por la idea de inteligencia desde que era una niña. Eso la llevó a estudiar la IA mucho antes de que fuera rentable hacerlo. A principios de la década de 2000, Li dice que ella y algunos otros estaban silenciosamente sentando las bases para este campo.

“En 2012, mi ImageNet se combinó con AlexNet y GPU; mucha gente lo llama el nacimiento de la IA moderna. Fue impulsado por tres ingredientes clave: big data, redes neuronales y computación GPU moderna. Y una vez que llegó ese momento, creo que la vida nunca volvió a ser la misma para todo el campo de la IA, así como para nuestro mundo”.

Cuando se le preguntó sobre el controvertido proyecto de ley de IA de California, SB 1047, Li habló con cuidado para no repetir una controversia que el gobernador Newsom acaba de poner fin al vetar el proyecto de ley la semana pasada. (Recientemente hablamos con el autor de la SB 1047, y él estaba más interesado en reabrir su discusión con Li).

“Algunos de ustedes sabrán que he expresado mis preocupaciones sobre este proyecto de ley (SB 1047), que fue vetado, pero ahora estoy pensando profundamente y con mucho entusiasmo para mirar hacia adelante”, dijo Li. “Me sentí muy halagado u honrado de que el gobernador Newsom me invitara a participar en los próximos pasos posteriores a la SB 1047”.

El gobernador de California recientemente recurrió a Li, junto con otros expertos en IA, para formar un grupo de trabajo que ayudara al estado a desarrollar barreras de seguridad para el despliegue de la IA. Li dijo que está utilizando un enfoque basado en evidencia en este puesto y que hará todo lo posible para abogar por la investigación y la financiación académica. Sin embargo, también quiere asegurarse de que California no castigue a los tecnólogos.

“Necesitamos analizar realmente el impacto potencial en los seres humanos y nuestras comunidades en lugar de poner la carga sobre la tecnología en sí… No tendría sentido si penalizamos a un ingeniero de automóviles, digamos Ford o GM, si un automóvil se usa mal de manera intencionada o no. y daña a una persona. Penalizar simplemente al ingeniero de automóviles no hará que los automóviles sean más seguros. Lo que tenemos que hacer es seguir innovando para lograr medidas más seguras, pero también mejorar el marco regulatorio (ya sean cinturones de seguridad o límites de velocidad) y lo mismo ocurre con la IA”.

Ese es uno de los mejores argumentos que he escuchado en contra de la SB 1047, que habría castigado a las empresas de tecnología por modelos peligrosos de IA.

Aunque Li asesora a California sobre la regulación de la IA, también dirige su startup, World Labs, en San Francisco. Es la primera vez que Li funda una startup y es una de las pocas mujeres que dirige un laboratorio de inteligencia artificial de vanguardia.

“Estamos muy lejos de un ecosistema de IA muy diverso”, afirmó Li. “Creo que la inteligencia humana diversa conducirá a una inteligencia artificial diversa y simplemente nos brindará mejor tecnología”.

En los próximos dos años, está entusiasmada por acercar la “inteligencia espacial” a la realidad. Li dice que el lenguaje, en el que se basan los grandes modelos lingüísticos actuales, probablemente tardó un millón de años en desarrollarse, mientras que la visión y la percepción probablemente tardaron 540 millones de años. Eso significa que crear modelos mundiales grandes es una tarea mucho más complicada.

“No se trata sólo de hacer que las computadoras vean, sino también de hacer que las computadoras entiendan todo el mundo 3D, lo que yo llamo inteligencia espacial”, dijo Li. “No solo vemos para nombrar cosas… Realmente vemos para hacer cosas, para navegar por el mundo, para interactuar unos con otros, y cerrar esa brecha entre ver y hacer requiere conocimiento espacial. Como tecnólogo, estoy muy entusiasmado con eso”.

Leer más
Back to top button