Óculos Ray-Ban da Meta ganham interações com IA em tempo real

A Meta anunciou que os óculos Ray-Ban inteligentes agora interagem com o ambiente ao redor e traduzem conversas em tempo real. Novos recursos incluem integração com o Shazam e IA ao vivo. Atualizações adicionais estão previstas para 2025.
20 de dezembro, 2024
Foto: reprodução X @AppleX4

A Meta apresentou novos recursos para os óculos Ray-Ban inteligentes, que agora permitem interações em tempo real com a inteligência artificial (IA). Disponível para membros do programa de acesso antecipado, a IA ao vivo é capaz de analisar o ambiente ao redor do usuário e conversar sobre os elementos identificados, ampliando as possibilidades de uso do dispositivo.
Além disso, os óculos ganharam um recurso de tradução automática. Em situações de diálogo em outro idioma, o dispositivo traduz as falas em tempo real, exibindo-as no celular ou reproduzindo o áudio por seus alto-falantes integrados. Esse avanço reforça o objetivo da Meta de criar experiências imersivas e práticas para seus usuários.
Outra atualização foi a integração com o Shazam1, permitindo identificar músicas próximas. Inicialmente, esse recurso está disponível apenas nos EUA e no Canadá. A Meta promete mais funcionalidades para os óculos Ray-Ban em 2025, reforçando seu compromisso com inovação e acessibilidade tecnológica.

  1. App para descobrir a música que está tocando. ↩︎