Óculos Ray-Ban da Meta agora contam com Shazam, traduções e IA ao vivo
A Meta anunciou recentemente a chegada de três novos recursos para seus óculos inteligentes Ray-Ban: IA ao vivo, traduções em tempo real e o suporte ao Shazam. As funcionalidades de IA ao vivo e traduções estão inicialmente disponíveis para membros do Programa de Acesso Antecipado da Meta, enquanto o Shazam está liberado para todos os usuários nos Estados Unidos e no Canadá.
Essas atualizações trazem novos recursos que ampliam as possibilidades de uso dos óculos inteligentes da Meta, com destaque para a integração de assistentes de IA e tecnologias de tradução instantânea. As funções de IA ao vivo e traduções foram apresentadas pela Meta no Meta Connect 2024, como parte de uma estratégia mais ampla para colocar a inteligência artificial no centro da experiência do usuário.
A atualização mais recente adiciona vídeo ao assistente de IA da Meta, permitindo aos óculos inteligentes Ray-Ban processar o que o usuário vê e responder às perguntas em tempo real.
Os óculos inteligentes também poderão agora traduzir a fala em tempo real entre inglês e espanhol, francês ou italiano.
“Quando estiver conversando com alguém que fale um desses três idiomas, você vai ouvir o que a pessoa diz em inglês pelos alto-falantes dos óculos ou visualizar como transcrições em seu telefone, e vice-versa”, disse a Meta em uma publicação.
A Meta também adicionou o Shazam, um aplicativo que permite aos usuários identificar músicas, aos óculos inteligentes, que estarão disponíveis nos Estados Unidos e no Canadá.
Em setembro, a Meta disse que estava atualizando os óculos inteligentes Ray-Ban com vários novos recursos de IA, incluindo ferramentas para definir lembretes e a capacidade de digitalizar códigos QR e números de telefone usando comandos de voz.
コメントはまだありません。