Matt Garman, director ejecutivo de AWS, sobre IA generativa, código abierto y servicios de cierre

Fue una gran sorpresa cuando Adam Selipsky renunció como director ejecutivo de la unidad de computación en la nube AWS de Amazon. Lo que tal vez fue una gran sorpresa fue que Matt Garman lo sucedió. Garman se unió a Amazon como pasante en 2005 y se convirtió en empleado de tiempo completo en 2006, trabajando en los primeros productos de AWS. Pocas personas conocen el negocio mejor que Garman, cuyo último puesto antes de convertirse en director ejecutivo fue el de vicepresidente senior de ventas, marketing y servicios globales de AWS.

Garman me dijo en una entrevista la semana pasada que todavía no ha realizado ningún cambio importante en la organización. “No ha cambiado mucho en la organización. El negocio va bastante bien, por lo que no hay necesidad de hacer un cambio masivo en nada en lo que estamos enfocados”, afirmó. Sin embargo, señaló algunas áreas en las que cree que la empresa debe centrarse y en las que ve oportunidades para AWS.

Volver a enfatizar las startups y la innovación rápida

Matt Garman, director ejecutivo de AWSCréditos de imagen:AWS

Una de ellas, algo sorprendente, son las startups. “Creo que hemos evolucionado como organización. … Al principio de la vida de AWS, nos concentramos mucho en cómo atraer realmente a los desarrolladores y las nuevas empresas, y obtuvimos mucha tracción allí”, explicó. “Y luego empezamos a analizar cómo apelamos a las empresas más grandes, cómo apelamos a los gobiernos, cómo apelamos a los sectores regulados de todo el mundo. Y creo que una de las cosas que acabo de enfatizar es que no es realmente un cambio, pero también enfatizo que no podemos perder ese enfoque en las nuevas empresas y los desarrolladores. Tenemos que hacer todas esas cosas”.

La otra área en la que quiere que se centre el equipo es en mantenerse al día con la vorágine de cambios que se vive actualmente en la industria.

“He estado realmente enfatizando con el equipo lo importante que es para nosotros continuar sin depender del liderazgo que tenemos con respecto al conjunto de servicios, capacidades, características y funciones que tenemos hoy, y continuar inclinándonos hacia adelante. y construir esa hoja de ruta de innovación real”, dijo. “Creo que la razón por la que los clientes utilizan AWS hoy en día es porque tenemos el mejor y más amplio conjunto de servicios. La razón por la que la gente confía en nosotros hoy en día es porque seguimos teniendo, con diferencia, el mejor rendimiento operativo y de seguridad de la industria, y les ayudamos a innovar y moverse más rápido. Y tenemos que seguir impulsando esa hoja de ruta de cosas por hacer. No es realmente un cambio per se, pero es lo que probablemente más he enfatizado: lo importante que es para nosotros mantener ese nivel de innovación y la velocidad con la que estamos entregando”.

Cuando le pregunté si pensaba que tal vez la empresa no había innovado lo suficientemente rápido en el pasado, respondió que no lo creía. “Creo que el ritmo de la innovación no hará más que acelerarse, por lo que es simplemente un énfasis en que también tenemos que acelerar nuestro ritmo de innovación. No es que estemos perdiendo el control; es simplemente ese énfasis en cuánto tenemos que seguir acelerando con el ritmo de la tecnología que existe”.

IA generativa en AWS

Con la llegada de la IA generativa y lo rápido que están cambiando las tecnologías ahora, AWS también tiene que estar “a la vanguardia de cada una de ellas”, dijo.

Poco después del lanzamiento de ChatGPT, muchos expertos se preguntaron si AWS había sido demasiado lento para lanzar herramientas de IA generativa y había dejado una oportunidad para sus competidores como Google Cloud y Microsoft Azure. Pero Garman cree que esto fue más una percepción que una realidad. Señaló que AWS había ofrecido durante mucho tiempo servicios exitosos de aprendizaje automático como SageMaker, incluso antes de que la IA generativa se convirtiera en una palabra de moda. También señaló que la empresa adoptó un enfoque más deliberado hacia la IA generativa que quizás algunos de sus competidores.

“Habíamos estado analizando la IA generativa antes de que se convirtiera en algo ampliamente aceptado, pero diré que cuando salió ChatGPT, hubo una especie de descubrimiento de una nueva área, de formas en que se podría aplicar esta tecnología. Y creo que todo el mundo estaba emocionado y lleno de energía, ¿verdad? … Creo que un grupo de personas, nuestros competidores, se apresuraron a poner los chatbots por encima de todo y demostrar que estaban a la cabeza de la IA generativa”, dijo.

Creo que un grupo de personas (nuestros competidores) se apresuraron a poner los chatbots por encima de todo y demostrar que estaban a la cabeza de la IA generativa.

En cambio, dijo Garman, el equipo de AWS quería dar un paso atrás y observar cómo sus clientes, ya sean nuevas empresas o empresas, podrían integrar mejor esta tecnología en sus aplicaciones y utilizar sus propios datos diferenciados para hacerlo. “Querrán una plataforma sobre la que realmente puedan tener la flexibilidad de construir y pensar en ella como una plataforma de construcción en lugar de una aplicación que van a adaptar. Y por eso nos tomamos el tiempo para construir esa plataforma”, dijo.

Para AWS, esa plataforma es Bedrock, donde ofrece acceso a una amplia variedad de modelos abiertos y propietarios. Simplemente hacer eso, y permitir a los usuarios encadenar diferentes modelos, fue un poco controvertido en ese momento, dijo. “Pero para nosotros, pensábamos que probablemente el mundo iba hacia allí, y ahora es una conclusión inevitable que ese es el lugar hacia donde va el mundo”, dijo. Dijo que cree que todos querrán modelos personalizados y traerles sus propios datos.

Bedrock, dijo Garman, está “creciendo como una mala hierba en este momento”.

Sin embargo, un problema relacionado con la IA generativa que todavía quiere resolver es el precio. “Mucho de eso es duplicar nuestro silicio personalizado y algunos otros cambios de modelo para poder inferir que vas a incorporar en tus aplicaciones (algo) mucho más asequible”.

La próxima generación de chips Trainium personalizados de AWS, que la compañía presentó en su conferencia re:Invent a finales de 2023, se lanzará a finales de este año, dijo Garman. “Estoy muy emocionado de que realmente podamos cambiar esa curva de costos y comenzar a ofrecer valor real a los clientes”.

Un área en la que AWS ni siquiera necesariamente ha intentado competir con algunos de los otros gigantes tecnológicos es en la construcción de sus propios grandes modelos de lenguaje. Cuando le pregunté a Garman sobre eso, señaló que todavía es algo en lo que la empresa está “muy centrada”. Él cree que es importante para AWS tener modelos propios, y al mismo tiempo continuar apoyándose en modelos de terceros. Pero también quiere asegurarse de que los propios modelos de AWS puedan agregar valor único y diferenciarse, ya sea mediante el uso de sus propios datos o “a través de otras áreas donde vemos oportunidades”.

Entre esas áreas de oportunidad se encuentran los costos, pero también los agentes, algo sobre lo que todos en la industria parecen ser optimistas en este momento. “Tener modelos confiables, con un nivel muy alto de corrección, salir y llamar a otras API y hacer cosas, esa es un área donde creo que se puede hacer algo de innovación”, dijo Garman. Los agentes, afirma, obtendrán mucha más utilidad de la IA generativa al automatizar procesos en nombre de sus usuarios.

Q, un chatbot impulsado por IA

En su última conferencia re:Invent, AWS también lanzó Q, su asistente generativo impulsado por IA. En este momento, existen esencialmente dos versiones de esto: Q Developer y Q Business.

Q Developer se integra con muchos de los entornos de desarrollo más populares y, entre otras cosas, ofrece finalización de código y herramientas para modernizar aplicaciones Java heredadas.

“Realmente pensamos en Q Developer como un sentido más amplio de ayudar realmente a lo largo del ciclo de vida del desarrollador”, dijo Garman. “Creo que muchas de las primeras herramientas para desarrolladores se han centrado mucho en la codificación, y pensamos más en cómo podemos ayudar en todo lo que es doloroso y laborioso para los desarrolladores”.

En Amazon, los equipos utilizaron Q Developer para actualizar 30.000 aplicaciones Java, ahorrando 260 millones de dólares y 4.500 años de desarrollo en el proceso, dijo Garman.

Q Business utiliza tecnologías similares internamente, pero su enfoque está en agregar datos internos de la empresa de una amplia variedad de fuentes y hacer que se puedan buscar a través de un servicio de preguntas y respuestas similar a ChatGPT. La compañía está “viendo una verdadera tracción allí”, dijo Garman.

Cerrar servicios

Si bien Garman señaló que no ha cambiado mucho bajo su liderazgo, una cosa que sucedió recientemente en AWS es que la compañía anunció planes para cerrar algunos de sus servicios. Eso no es algo que AWS haya hecho tradicionalmente con tanta frecuencia, pero este verano anunció planes para cerrar servicios como su IDE Cloud9 basado en la web, su competidor CodeCommit GitHub, CloudSearch y otros.

“Es una especie de limpieza en la que analizamos un montón de estos servicios, donde, francamente, lanzamos un servicio mejor al que la gente debería migrar, o lanzamos uno que simplemente no teníamos. hacerlo bien”, explicó. “Y, por cierto, hay algunos de estos que simplemente no hacemos bien y su tracción fue bastante ligera. Lo miramos y dijimos: ‘¿Sabes qué? El ecosistema de socios en realidad tiene una mejor solución y simplemente nos apoyaremos en ella”. No se puede invertir en todo. No se puede construir todo. No nos gusta hacer eso. Nos tomamos en serio si las empresas van a apostar su negocio a que nosotros apoyemos las cosas a largo plazo. Y por eso tenemos mucho cuidado con eso”.

AWS y el ecosistema de código abierto

Una relación que durante mucho tiempo ha sido difícil para AWS (o al menos se ha percibido como difícil) es con el ecosistema de código abierto. Eso está cambiando y hace apenas unas semanas, AWS llevó su código OpenSearch a la Fundación Linux y a la recién formada Fundación OpenSearch.

Nos encanta el código abierto. Nos apoyamos en el código abierto. Creo que intentamos aprovechar la comunidad de código abierto. y Sea un gran contribuyente a la comunidad de código abierto.

“Creo que nuestra visión es bastante sencilla”, dijo Garman cuando le pregunté qué piensa de la relación entre AWS y el código abierto en el futuro. “Nos encanta el código abierto. Nos apoyamos en el código abierto. Creo que intentamos aprovechar la comunidad de código abierto. y Sea un gran contribuyente a la comunidad de código abierto. Creo que ese es el objetivo del código abierto: beneficiarse de la comunidad, y eso es lo que nos tomamos en serio”.

Señaló que AWS ha realizado inversiones clave en código abierto y ha abierto muchos de sus propios proyectos.

“La mayor parte de la fricción ha provenido de empresas que originalmente comenzaron proyectos de código abierto y luego decidieron dejar de abrirlos, lo cual supongo que tienen derecho a hacer. Pero ya sabes, ese no es realmente el espíritu del código abierto. Y así, cada vez que vemos a la gente hacer eso, tomemos a Elastic como ejemplo, y OpenSearch (la bifurcación ElasticSearch de AWS) ha sido bastante popular. … Si hay un proyecto Linux (Fundación) o un proyecto Apache o cualquier cosa en la que podamos apoyarnos, queremos apoyarnos en ello; nosotros contribuimos a ellos. Creo que hemos evolucionado y aprendido como organización cómo ser un buen administrador en esa comunidad y espero que otros lo hayan notado”.

Leer más
Back to top button