Meta activa Live AI en sus gafas inteligentes Ray-Ban al estilo de Project Astra

Meta activa Live AI en sus gafas inteligentes Ray-Ban al estilo de Project Astra

Meta ha lanzado una actualización para sus gafas inteligentes Ray-Ban, introduciendo un abanico de nuevas funcionalidades, destacando la capacidad de “Live AI”. Esta función permite a las gafas utilizar un flujo de vídeo continuo para recopilar información contextual, alineándose con los avances tecnológicos que está demostrando Google con su Proyecto Astra.

La última versión del software, v11, incluye varias mejoras, como la integración con Shazam. Los usuarios ahora pueden preguntar a las gafas: “Hey Meta, ¿cuál es esta canción?”, y recibir una respuesta audible con el título de la misma. Actualmente, esta funcionalidad se está implementando en Estados Unidos y Canadá, lo que promete facilitar la vida musical de los usuarios.

Novedades en la actualización de Meta

Uno de los aspectos más destacables de esta actualización es el nuevo “Live AI”, que permite a las gafas Ray-Ban Meta grabar vídeo en tiempo real. Con ello, la inteligencia artificial puede asistir a los usuarios de forma manos libres en diversas tareas. Según Meta, esta integración tiene como objetivo facilitar conversaciones e interacciones naturales, mejorando la experiencia del usuario durante actividades cotidianas como cocinar, jardinería y navegar en zonas desconocidas. Los usuarios pueden interactuar con la IA sin interrupciones, promoviendo un diálogo fluido que podría ofrecer sugerencias proactivas.

Además, la actualización incluye una función de “Live Translation”, capaz de traducir lenguaje hablado en tiempo real. Mientras los usuarios conversan, las gafas mostrarán la traducción en inglés y proporcionarán una transcripción en el dispositivo móvil del usuario. En este primer despliegue, la función soportará español, francés e italiano, lo que abre nuevas posibilidades para la comunicación multilingüe.

Por ahora, el acceso a estas avanzadas funcionalidades está limitado a una lista de espera en Estados Unidos y Canadá. La llegada de “Live AI” por parte de Meta se produce mientras Google está desarrollando una tecnología similar en el marco de su Proyecto Astra, que fue presentado en Google I/O 2024. La próxima actualización de Google busca mejorar las capacidades de diálogo multilingüe, expandir la retención de memoria y reducir la latencia en las respuestas.

A medida que la competencia se intensifica entre Meta y Google en el sector de las gafas inteligentes, la evolución de estas funcionalidades de inteligencia artificial podría cambiar de manera significativa la forma en que los usuarios interactúan con la tecnología wearable en un futuro cercano.

Fuente

La entrada Meta activa Live AI en sus gafas inteligentes Ray-Ban al estilo de Project Astra se publicó primero en Domótica en Casa.

Eduardo Ruiz

Informático de vocación, apasionado de la tecnología y blogger desde hace mucho tiempo, escribo de lo que me entretiene y disfruto con ello. Si deseas seguirme, usa el rss del blog o en mi perfil de .