No último ano, a Meta tornou seu assistente de IA tão onipresente em seus aplicativos que é quase difícil acreditar que a Meta AI tem apenas um ano de idade. Mas, um ano após seu lançamento no último Connect, a empresa está infundindo a Meta AI com uma carga de novas funcionalidades na esperança de que mais pessoas achem seu assistente útil.
Uma das maiores mudanças é que os usuários poderão ter chats de voz com o Meta AI. Até agora, a única maneira de falar com o Meta AI era por meio dos óculos inteligentes Ray-Ban Meta. E, assim como no lançamento do Meta AI do ano passado, a empresa escolheu um grupo de celebridades para a mudança.
A Meta AI poderá assumir as vozes de Awkwafina, Dame Judi Dench, John Cena, Keegan Michael Key e Kristen Bell, além de um punhado de vozes mais genéricas. Embora a empresa esteja esperando que as celebridades vendam aos usuários as novas habilidades da Meta AI, vale a pena notar que a empresa silenciosamente eliminou suas personas de chatbot de celebridades que foram lançadas no Connect do ano passado.
Além do suporte para chat de voz, a Meta AI também está recebendo novos recursos de imagem. A Meta AI poderá responder a solicitações para alterar e editar fotos de chats de texto no Instagram, Messenger e WhatsApp. A empresa diz que os usuários podem pedir à IA para adicionar ou remover objetos ou alterar elementos de uma imagem, como trocar um fundo ou item de roupa.
As novas habilidades chegam junto com o mais recente modelo Llama 3.2 da empresa. A nova iteração, que chega apenas dois meses após o lançamento do Llama 3.1, é a primeira a ter recursos de visão e pode “preencher a lacuna entre visão e linguagem extraindo detalhes de uma imagem, entendendo a cena e, em seguida, elaborando uma ou duas frases que podem ser usadas como legenda de imagem para ajudar a contar a história”. O Llama 3.2 é “competitivo” em “reconhecimento de imagem e uma variedade de tarefas de compreensão visual” em comparação com ofertas semelhantes do ChatGPT e Claude, diz Meta.
A rede social está testando outras maneiras, potencialmente controversas, de trazer IA para os principais recursos de seus principais aplicativos. A empresa testará recursos de tradução gerados por IA para Reels com “dublagem automática e sincronização labial”. De acordo com a Meta, isso “simulará a voz do falante em outro idioma e sincronizará seus lábios para corresponder”. Chegará primeiro aos “vídeos de alguns criadores” em inglês e espanhol nos EUA e na América Latina, embora a empresa não tenha compartilhado detalhes sobre o cronograma de lançamento.
A Meta também planeja experimentar conteúdo gerado por IA diretamente nos feeds principais do Facebook e Instagram. Com o teste, a Meta AI exibirá imagens geradas por IA que devem ser personalizadas de acordo com os interesses e atividades passadas de cada usuário. Por exemplo, a Meta AI pode exibir uma imagem “imaginada para você” que mostre seu rosto.
Fique por dentro de todas as novidades de Meta Connect 2024!