A Meta apresentou novos recursos para os óculos Ray-Ban inteligentes, que agora permitem interações em tempo real com a inteligência artificial (IA). Disponível para membros do programa de acesso antecipado, a IA ao vivo é capaz de analisar o ambiente ao redor do usuário e conversar sobre os elementos identificados, ampliando as possibilidades de uso do dispositivo.
Além disso, os óculos ganharam um recurso de tradução automática. Em situações de diálogo em outro idioma, o dispositivo traduz as falas em tempo real, exibindo-as no celular ou reproduzindo o áudio por seus alto-falantes integrados. Esse avanço reforça o objetivo da Meta de criar experiências imersivas e práticas para seus usuários.
Outra atualização foi a integração com o Shazam1, permitindo identificar músicas próximas. Inicialmente, esse recurso está disponível apenas nos EUA e no Canadá. A Meta promete mais funcionalidades para os óculos Ray-Ban em 2025, reforçando seu compromisso com inovação e acessibilidade tecnológica.
- App para descobrir a música que está tocando. ↩︎