Meta está lançando integração ao vivo de IA e Shazam em seus óculos inteligentes


O já funcionou bem como uma câmera montada na cabeça e um par de fones de ouvido abertos, mas agora o Meta está com acesso à IA ao vivo sem a necessidade de wake word, tradução ao vivo entre vários idiomas diferentes e acesso ao Shazam para identificação de música.

Meta a maioria desses recursos em setembro. Live AI permite iniciar uma “sessão ao vivo” com Meta AI que dá ao assistente acesso a tudo o que você está vendo e permite fazer perguntas sem ter que dizer “Ei Meta”. Se você precisa do viva-voz para cozinhar ou consertar algo, o Live AI deve manter seus óculos inteligentes úteis, mesmo se você precisar se concentrar no que quer que esteja fazendo.

A tradução ao vivo permite que seus óculos inteligentes traduzam entre inglês e francês, italiano ou espanhol. Se a tradução ao vivo estiver habilitada e alguém falar com você em um dos idiomas selecionados, você ouvirá o que eles estão dizendo em inglês através dos alto-falantes dos óculos inteligentes ou como uma transcrição digitada no aplicativo Meta View. Você terá que baixar modelos específicos para traduzir entre cada idioma, e a tradução ao vivo precisa ser habilitada antes de realmente atuar como intérprete, mas parece mais natural do que segurar o telefone para traduzir algo.

Com a integração do Shazam, seus óculos inteligentes Meta também serão capazes de identificar qualquer música que você ouça tocando ao seu redor. Um simples “Meta, que música é essa” fará com que os microfones dos óculos inteligentes descubram o que você está ouvindo, assim como usar o Shazam no seu smartphone.

Todas as três atualizações dão um passo de bebê no wearable em direção ao objetivo final do Meta de um verdadeiro par de óculos de realidade aumentada que pode substituir seu smartphone, uma ideia da qual é uma prévia da vida real. Combinar IA com VR e AR parece ser uma ideia que vários gigantes da tecnologia também estão circulando. A mais nova plataforma XR do Google, , é construída em torno da ideia de que uma IA generativa como a Gemini poderia ser a cola que torna a VR ou AR atraente. Ainda estamos a anos de qualquer empresa estar disposta a realmente alterar seu campo de visão com imagens holográficas, mas enquanto isso, os óculos inteligentes parecem um paliativo moderadamente útil.

Todos os proprietários de óculos inteligentes Ray-Ban Meta poderão aproveitar a integração do Shazam como parte da atualização v11 do Meta. Para tradução ao vivo e IA ao vivo, você precisará fazer parte do Programa de Acesso Antecipado da Meta, ao qual você pode ingressar agora mesmo .



Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here