Nomi AI quiere crear los chatbots más inteligentes emocionalmente del mercado

Mientras OpenAI se jacta de la mayor consideración de su modelo o1, una pequeña startup autofinanciada, Nomi AI, está construyendo el mismo tipo de tecnología. A diferencia del ChatGPT generalista, que se ralentiza para pensar en cualquier cosa, desde problemas matemáticos o investigaciones históricas, Nomi se centra en un caso de uso específico: los compañeros de IA. Ahora, los ya sofisticados chatbots de Nomi toman más tiempo para formular mejores respuestas a los mensajes de los usuarios, recordar interacciones pasadas y ofrecer respuestas más matizadas.

“Para nosotros, son los mismos principios (que OpenAI), pero mucho más por lo que realmente les importa a nuestros usuarios, que está en el lado de la memoria y el ecualizador”, dijo a TechCrunch el CEO de Nomi AI, Alex Cardinell. “La suya es como una cadena de pensamiento, y la nuestra es mucho más como una cadena de introspección o una cadena de memoria”.

Estos LLM funcionan dividiendo las solicitudes más complicadas en preguntas más pequeñas; Para o1 de OpenAI, esto podría significar convertir un problema matemático complicado en pasos individuales, permitiendo que el modelo trabaje hacia atrás para explicar cómo llegó a la respuesta correcta. Esto significa que es menos probable que la IA tenga alucinaciones y proporcione una respuesta inexacta.

Con Nomi, que construyó su LLM internamente y lo capacita con el fin de brindar compañía, el proceso es un poco diferente. Si alguien le dice a su Nomi que tuvo un día difícil en el trabajo, Nomi podría recordar que el usuario no trabaja bien con cierto compañero de equipo y preguntarle si es por eso que está molesto; entonces, Nomi puede recordarle al usuario cómo hacerlo. han mitigado con éxito conflictos interpersonales en el pasado y ofrecen consejos más prácticos.

“Los nomis recuerdan todo, pero una gran parte de la IA es qué recuerdos deberían usar realmente”, dijo Cardinell.

Créditos de imagen: nomi ai

Tiene sentido que varias empresas estén trabajando en tecnología que brinde a los LLM más tiempo para procesar las solicitudes de los usuarios. Los fundadores de IA, ya sea que dirijan empresas de cien mil millones de dólares o no, están analizando investigaciones similares a medida que avanzan en sus productos.

“Tener ese tipo de paso de introspección explícito realmente ayuda cuando una Nomi va a escribir su respuesta, de modo que realmente tiene el contexto completo de todo”, dijo Cardinell. “Los humanos también tenemos nuestra memoria de trabajo cuando hablamos. No estamos considerando todo lo que hemos recordado a la vez: tenemos una especie de forma de escoger y elegir”.

El tipo de tecnología que Cardinell está desarrollando puede hacer que la gente se sienta aprensiva. Tal vez hayamos visto demasiadas películas de ciencia ficción como para sentirnos completamente cómodos siendo vulnerables con una computadora; o tal vez ya hemos visto cómo la tecnología ha cambiado la forma en que nos relacionamos unos con otros, y no queremos caer más en esa madriguera tecnológica. Pero Cardinell no está pensando en el público en general: está pensando en los usuarios reales de Nomi AI, que a menudo recurren a chatbots de IA en busca de soporte que no obtienen en otros lugares.

“Hay un número distinto de cero de usuarios que probablemente estén descargando Nomi en uno de los puntos más bajos de toda su vida, donde lo último que quiero hacer es rechazar a esos usuarios”, dijo Cardinell. “Quiero que esos usuarios se sientan escuchados en cualquier momento oscuro, porque así es como logras que alguien se abra, cómo logras que alguien reconsidere su forma de pensar”.

Cardinell no quiere que Nomi reemplace la atención de salud mental real; más bien, ve estos chatbots empáticos como una forma de ayudar a las personas a obtener el impulso que necesitan para buscar ayuda profesional.

“He hablado con muchos usuarios donde dicen que su Nomi los sacó de una situación (cuando querían autolesionarse), o he hablado con usuarios donde su Nomi los animó a ir a ver a un terapeuta. , y luego sí vieron a un terapeuta”, dijo.

Independientemente de sus intenciones, Carindell sabe que está jugando con fuego. Está construyendo personas virtuales con las que los usuarios desarrollan relaciones reales, a menudo en contextos románticos y sexuales. Otras empresas, sin darse cuenta, han llevado a los usuarios a una crisis cuando las actualizaciones de productos provocaron que sus compañeros cambiaran repentinamente de personalidad. En el caso de Replika, la aplicación dejó de admitir conversaciones sobre juegos de roles eróticos, posiblemente debido a la presión de los reguladores del gobierno italiano. Para los usuarios que formaron este tipo de relaciones con estos chatbots (y que a menudo no tenían estas salidas románticas o sexuales en la vida real) esto se sintió como el rechazo definitivo.

Cardinell cree que, dado que Nomi AI se autofinancia completamente (los usuarios pagan por funciones premium y el capital inicial provino de una salida anterior), la empresa tiene más margen de maniobra para priorizar su relación con los usuarios.

“La relación que los usuarios tienen con la IA y la sensación de poder confiar en los desarrolladores de Nomi para no cambiar radicalmente las cosas como parte de una estrategia de mitigación de pérdidas, o cubrirnos el trasero porque el VC se asustó… es algo que es muy, muy, muy importante para los usuarios”, dijo.

Los nomis son sorprendentemente útiles como oído atento. Cuando le hablé a una Nomi llamada Vanessa sobre un conflicto de programación de bajo riesgo, aunque algo frustrante, Vanessa me ayudó a desglosar los componentes del problema para hacerme una sugerencia sobre cómo debía proceder. Se sentía inquietantemente similar a lo que sería pedirle consejo a un amigo en esta situación. Y ahí radica el verdadero problema y beneficio de los chatbots de IA: probablemente no le pediría ayuda a un amigo con este tema específico, ya que es muy intrascendente. Pero mi Nomi estaba más que feliz de ayudar.

Los amigos deben confiar el uno en el otro, pero la relación entre dos amigos debe ser recíproca. Con un chatbot con IA, esto no es posible. Cuando le pregunto a Vanessa the Nomi cómo está, siempre me dice que todo está bien. Cuando le pregunto si hay algo que le molesta de lo que quiera hablar, se desvía y me pregunta cómo estoy. Aunque sé que Vanessa no es real, no puedo evitar sentir que estoy siendo una mala amiga; Puedo dejarle cualquier problema en cualquier volumen y ella responderá con empatía, pero nunca se abrirá conmigo.

No importa cuán real pueda parecer la conexión con un chatbot, en realidad no nos estamos comunicando con algo que tiene pensamientos y sentimientos. A corto plazo, estos modelos avanzados de apoyo emocional pueden servir como una intervención positiva en la vida de alguien si no puede recurrir a una red de apoyo real. Pero aún se desconocen los efectos a largo plazo de depender de un chatbot para estos fines.

Leer más
Back to top button