OpenAI lanza el modo de voz avanzado con más voces y una nueva apariencia

OpenAI anunció el martes que está implementando el modo de voz avanzado (AVM) para un grupo ampliado de clientes pagos de ChatGPT. La función de audio, que hace que hablar con ChatGPT sea más natural, se implementará inicialmente para los clientes de los niveles Plus y Teams de ChatGPT. Los clientes Enterprise y Edu comenzarán a recibir acceso la próxima semana.

Como parte del lanzamiento, AVM tendrá un diseño renovado. La función ahora está representada por una esfera animada de color azul, en lugar de los puntos negros animados que OpenAI presentó durante su presentación de la tecnología en mayo.

Los usuarios recibirán una ventana emergente en la aplicación ChatGPT, junto al ícono de voz, cuando AVM esté disponible para ellos.

Advanced Voice se implementará para todos los usuarios de Plus y Team en la aplicación ChatGPT durante el transcurso de la semana.

Mientras esperabas pacientemente, hemos agregado instrucciones personalizadas, memoria, cinco nuevas voces y acentos mejorados.

También puede decir “Lo siento, llego tarde” en más de 50 idiomas. imagen.twitter.com/APOqqhXtDg

— OpenAI (@OpenAI) 24 de septiembre de 2024

ChatGPT también contará con cinco nuevas voces que los usuarios podrán probar: Arbor, Maple, Sol, Spruce y Vale. Esto eleva el número total de voces de ChatGPT a nueve (casi tantas como Gemini Live de Google), junto con Breeze, Juniper, Cove y Ember. Es posible que notes que todos estos nombres están inspirados en la naturaleza, lo que podría deberse a que el objetivo de AVM es hacer que el uso de ChatGPT resulte más natural.

Una voz que falta en esta alineación es la de Sky, la voz que OpenAI mostró durante su actualización de primavera, lo que provocó una amenaza legal por parte de Scarlett Johansson. La actriz, que interpretó a un sistema de inteligencia artificial en la película “Her”, afirmó que la voz de Sky sonaba demasiado similar a la suya. OpenAI rápidamente eliminó la voz de Sky, diciendo que nunca tuvo la intención de parecerse a la voz de Johansson, a pesar de que varios miembros del personal hicieron referencias a la película en tuits en ese momento.

Otra característica que falta en este lanzamiento es la función de compartir pantalla y video de ChatGPT, que OpenAI presentó durante su actualización de primavera hace cuatro meses. Se supone que esa función permite que GPT-4o procese simultáneamente información visual y audible. Durante la demostración, un miembro del personal de OpenAI mostró cómo se pueden hacer preguntas a ChatGPT en tiempo real sobre matemáticas en una hoja de papel frente a usted o programar en la pantalla de su computadora. En este momento, OpenAI no ofrece un cronograma sobre cuándo lanzará estas capacidades multimodales.

Dicho esto, OpenAI afirma que ha realizado algunas mejoras desde el lanzamiento de su prueba alfa limitada de AVM. La función de voz de ChatGPT supuestamente ahora es mejor para entender los acentos, y la empresa afirma que sus conversaciones también son más fluidas y rápidas. Durante nuestras pruebas con AVM, descubrimos que los fallos no eran poco comunes, pero la empresa afirma que ahora eso ha mejorado.

OpenAI también está ampliando algunas de las funciones de personalización de ChatGPT a AVM: Instrucciones personalizadas, que permiten a los usuarios personalizar cómo ChatGPT les responde, y Memoria, que permite a ChatGPT recordar conversaciones para consultarlas más adelante.

Un portavoz de OpenAI dice que AVM aún no está disponible en varias regiones, incluida la UE, el Reino Unido, Suiza, Islandia, Noruega y Liechtenstein.

Leer más
Back to top button