Meta actualiza las gafas inteligentes Ray-Ban con video con inteligencia artificial en tiempo real, recordatorios y escaneo de códigos QR

El director ejecutivo de Meta, Mark Zuckerberg, anunció el miércoles en Meta Connect 2024 actualizaciones de los anteojos inteligentes Ray-Ban Meta de la compañía. Meta siguió defendiendo que los anteojos inteligentes pueden ser el próximo gran dispositivo de consumo, y anunció algunas nuevas capacidades de inteligencia artificial y características conocidas de los teléfonos inteligentes que llegarán a Ray-Ban Meta a finales de este año.

Algunas de las nuevas funciones de Meta incluyen procesamiento de video con IA en tiempo real y traducción de idiomas en vivo. Otros anuncios, como el escaneo de códigos QR, recordatorios e integraciones con iHeart Radio y Audible, parecen brindarles a los usuarios de Ray-Ban Meta las funciones de sus teléfonos inteligentes que ya conocen y adoran.

Meta afirma que sus gafas inteligentes pronto tendrán capacidades de video con inteligencia artificial en tiempo real, lo que significa que puedes hacerle preguntas a las gafas Ray Ban Meta sobre lo que ves frente a ti y Meta AI te responderá verbalmente en tiempo real. Actualmente, las gafas Ray-Ban Meta solo pueden tomar una foto y describirla o responder preguntas al respecto, pero la actualización de video debería hacer que la experiencia sea más natural, al menos en teoría. Estas funciones multimodales están programadas para llegar a finales de este año.

En una demostración, los usuarios podían hacerle preguntas a Ray-Ban Meta sobre una comida que estaban cocinando o sobre escenas de la ciudad que se desarrollaban frente a ellos. Las capacidades de video en tiempo real significan que la IA de Meta debería poder procesar la acción en vivo y responder de manera audible.

Sin embargo, es más fácil decirlo que hacerlo, y tendremos que ver qué tan rápida y fluida es la función en la práctica. Hemos visto demostraciones de estas capacidades de video con IA en tiempo real de parte de Google y OpenAI, pero Meta sería el primero en lanzar tales funciones en un producto de consumo.

Zuckerberg también anunció la traducción de idiomas en vivo para Ray-Ban Meta. Los usuarios que hablan inglés podrán hablar con alguien que hable francés, italiano o español, y sus gafas Ray-Ban Meta deberían poder traducir lo que la otra persona está diciendo al idioma que elijan. Meta dice que esta función llegará a finales de este año y que incluirá más idiomas más adelante.

Las gafas Ray-Ban Meta recibirán recordatorios, lo que permitirá a los usuarios pedirle a Meta AI que les recuerde lo que están mirando a través de las gafas inteligentes. En una demostración, un usuario pidió a sus gafas Ray-Ban Meta que recordaran una chaqueta que estaban mirando para poder compartir la imagen con un amigo más tarde.

Meta anunció que las integraciones con Amazon Music, Audible y iHeart llegarán a sus gafas inteligentes. Esto debería facilitar a las personas escuchar música en su servicio de streaming preferido usando los altavoces integrados de las gafas.

Las gafas Ray-Ban Meta también tendrán la capacidad de escanear códigos QR o números de teléfono desde las gafas. Los usuarios pueden pedirles a las gafas que escaneen algo y el código QR se abrirá inmediatamente en el teléfono de la persona sin necesidad de realizar ninguna acción adicional.

Las gafas inteligentes también estarán disponibles en una gama de nuevas lentes Transitions, que responden a la luz ultravioleta para adaptarse al brillo de la habitación en la que se encuentra.

Leer más
Back to top button