OpenAI pierde a otra investigadora principal de seguridad, Lilian Weng
Otra de las principales investigadoras de seguridad de OpenAI, Lilian Weng, anunció el viernes que dejará la startup. Weng se desempeñó como vicepresidente de investigación y seguridad desde agosto y, antes de eso, fue jefe del equipo de sistemas de seguridad de OpenAI.
En una publicación en X, Weng dijo que “después de 7 años en OpenAI, me siento listo para reiniciar y explorar algo nuevo”. Weng dijo que su último día será el 15 de noviembre, pero no especificó adónde irá a continuación.
“Tomé la decisión extremadamente difícil de dejar OpenAI”, dijo Weng en la publicación. “Al observar lo que hemos logrado, estoy muy orgulloso de todos los miembros del equipo de Sistemas de Seguridad y tengo una gran confianza en que el equipo seguirá prosperando”.
La salida de Weng marca la última de una larga serie de investigadores de seguridad de la IA, investigadores de políticas y otros ejecutivos que abandonaron la empresa en el último año, y varios han acusado a OpenAI de priorizar los productos comerciales sobre la seguridad de la IA. Weng se une a Ilya Sutskever y Jan Leike, los líderes del ahora disuelto equipo Superalignment de OpenAI, que intentó desarrollar métodos para dirigir sistemas de IA superinteligentes, quienes también dejaron la startup este año para trabajar en la seguridad de la IA en otros lugares.
Weng se unió a OpenAI por primera vez en 2018, según su LinkedIn, trabajando en el equipo de robótica de la startup que terminó construyendo una mano robótica que podía resolver un cubo de Rubik, una tarea que tardó dos años en lograrse, según su publicación.
A medida que OpenAI comenzó a centrarse más en el paradigma GPT, Weng también lo hizo. El investigador hizo la transición para ayudar a construir el equipo de investigación de IA aplicada de la startup en 2021. Tras el lanzamiento de GPT-4, a Weng se le asignó la tarea de crear un equipo dedicado para construir sistemas de seguridad para la startup en 2023. Hoy en día, la unidad de sistemas de seguridad de OpenAI tiene más de 80 científicos, investigadores y expertos en políticas, según la publicación de Weng.
Son muchas personas sobre seguridad de la IA, pero muchos han expresado su preocupación sobre el enfoque de OpenAI en la seguridad mientras intenta construir sistemas de IA cada vez más potentes. Miles Brundage, investigador de políticas desde hace mucho tiempo, dejó la startup en octubre y anunció que OpenAI estaba disolviendo su equipo de preparación de AGI, al que había asesorado. El mismo día, el New York Times describió a un ex investigador de OpenAI, Suchir Balaji, quien dijo que dejó OpenAI porque pensó que la tecnología de la startup traería más daño que beneficio a la sociedad.
OpenAI le dice a TechCrunch que los ejecutivos y los investigadores de seguridad están trabajando en una transición para reemplazar a Weng.
“Apreciamos profundamente las contribuciones de Lilian a la investigación innovadora en seguridad y a la creación de salvaguardias técnicas rigurosas”, dijo un portavoz de OpenAI en un comunicado enviado por correo electrónico. “Confiamos en que el equipo de Sistemas de seguridad seguirá desempeñando un papel clave para garantizar que nuestros sistemas sean seguros y confiables, y sirvan a cientos de millones de personas en todo el mundo”.
Otros ejecutivos que dejaron OpenAI en los últimos meses incluyen a la CTO Mira Murati, el director de investigación Bob McGrew y el vicepresidente de investigación Barret Zoph. En agosto, el destacado investigador Andrej Karpathy y el cofundador John Schulman también anunciaron que dejarían la startup. Algunas de estas personas, incluidas Leike y Schulman, se fueron para unirse a un competidor de OpenAI, Anthropic, mientras que otras comenzaron sus propias empresas.