Os óculos Ray-Ban Meta são a primeira história de sucesso real de wearable de inteligência artificial. Na verdade, eles são realmente muito bons. Eles têm aquele estilo chique da Ray-Ban, o que significa que não parecem tão ridículos quanto alguns dos mais volumosos, tentativas mais pesadas em computadores de realidade mista. O agente de IA a bordo pode responder perguntas e até mesmo identificar o que você está olhando usando as câmeras incorporadas. As pessoas também adoram usar comandos de voz para capturar fotos e vídeos de qualquer coisa que esteja bem na frente delas sem sacar o telefone.
Em breve, os óculos inteligentes da Meta receberão mais alguns desses recursos de voz com tecnologia de IA. O CEO da Meta, Mark Zuckerberg, anunciou as atualizações mais recentes do software dos óculos inteligentes no evento Meta Connect de sua empresa hoje.
“A realidade é que na maioria das vezes você não está usando funcionalidade inteligente, então as pessoas querem ter algo no rosto de que se orgulhem e que tenha uma boa aparência e que seja, você sabe, projetado de uma forma realmente legal”, disse Zuckerberg na Connect. “Então, são ótimos óculos. Continuamos atualizando o software e construindo o ecossistema e eles continuam ficando mais inteligentes e capazes de mais coisas.”
A empresa também usou o Connect para anunciar seu novo Meta Quest 3Suma versão mais econômica de seus headsets de realidade mista. Ela também revelou uma série de outros recursos de IA em suas várias plataformas, com novos recursos sendo adicionados aos seus modelos de linguagem grande Meta AI e Llama.
No que diz respeito aos Ray-Bans, a Meta não está fazendo muito para mexer com uma coisa boa. Os óculos inteligentes receberam uma infusão de tecnologia de IA no início deste anoe agora Meta é adicionando mais recursos à pilhaembora as melhorias aqui sejam bem mínimas. Você já pode fazer uma pergunta ao Meta AI e ouvir suas respostas diretamente dos alto-falantes embutidos nas peças do templo das armações. Agora há algumas coisas novas que você pode pedir ou comandar para ele fazer.
Provavelmente o mais impressionante é a capacidade de definir lembretes. Você pode olhar para algo enquanto usa os óculos e dizer: “Ei, me lembre de comprar este livro na semana que vem”, e os óculos entenderão qual é o livro e, então, definirão um lembrete. Em uma semana, a Meta AI dirá que é hora de comprar aquele livro.
Meta diz que serviços de transcrição ao vivo chegarão aos óculos em breve, o que significa que pessoas falando em línguas diferentes poderão ver a fala transcrita no momento — ou pelo menos de forma um tanto oportuna. Não está claro exatamente o quão bem isso funcionará, dado que os óculos Meta anteriores as habilidades de tradução provaram ser imprevisíveis.
Novas cores de armação e lentes estão sendo adicionadas, e os clientes agora têm a opção de adicionar lentes de transição que aumentam ou diminuem o sombreamento dependendo do nível atual de luz solar.
A Meta não disse exatamente quando esses recursos adicionais de IA chegarão aos seus Ray-Bans, exceto que eles chegarão em algum momento deste ano. Com apenas três meses de 2024 restantes, isso significa muito em breve.