Gemini AI ganha um impulso no Pixel 9 e Pixel Buds Pro 2


O modelo Gemini AI do Google estava diretamente sob os holofotes na terça-feira no evento Made by Google da empresa, onde a gigante da tecnologia também apresentou uma linha de novos telefones Pixel 9, junto com um smartwatch e fones de ouvido. Os executivos que subiram ao palco mencionaram Gemini 115 vezes ao longo da apresentação de 80 minutos.

Isso incluiu menções ao próprio chatbot, bem como aos seguintes produtos Gemini:

  • Gemini Advanced, o serviço de assinatura de US$ 20 por mês que fornece acesso ao mais recente modelo de IA do Google, Gemini 1.5 Pro
  • Gemini Assistant, o assistente de IA em dispositivos Pixel
  • Gemini Live, a interface de conversação para Gemini
  • Gemini Nano, o modelo de IA para smartphones

Também houve referências repetidas à “era de Gêmeos”.

Um caso em questão:

“Estamos totalmente na era Gemini, com IA infundida em quase tudo o que fazemos no Google, em toda a nossa pilha de tecnologia”, disse Rick Osterloh, vice-presidente sênior de plataformas e dispositivos do Google, no evento em Mountain View, Califórnia. “É tudo para trazer a você a IA mais útil.”

Etiqueta de distintivo de arte do Atlas AI

Os executivos do Google também falaram sobre o tema da IA ​​útil, pois destacaram como eles acham que a IA mudará a maneira como usamos nossos dispositivos. Isso ocorre porque concorrentes como o fabricante do ChatGPT, OpenAI, também tentam nos convencer a falar com chatbots e deixar a IA fazer mais do trabalho pesado na pesquisa e outras atividades diárias, como verificar datas em um calendário ou enviar mensagens a um amigo. No caso do Google, dispositivos mais poderosos significam que podemos fazer mais com IA generativa além de nossos laptops e tablets. Mas, como o acidente do anúncio Dear Sydney do Google durante as Olimpíadas de Paris demonstrou, ainda há uma lacuna entre o que estamos dispostos a fazer com a IA e o que as empresas de tecnologia acham que queremos da IA.

Embora tenhamos tido uma prévia da maioria das novidades do Gemini na terça-feira, no evento para desenvolvedores I/O do Google em maio, houve duas novas atualizações específicas de hardware que valem a pena destacar:

Processamento mais rápido para abastecer Gemini no Pixel

A IA generativa pode produzir resultados impressionantes na criação de imagens e na elaboração de e-mails, ensaios e outros escritos, mas requer muito poder. Um recente estudar descobriu que gerar uma única imagem com um modelo de IA usa tanta energia quanto carregar totalmente seu telefone. Normalmente, esse é o tipo de energia que você encontra em centros de dados.

Mas quando os dispositivos Pixel 8 foram lançados em outubro, o Google apresentou seu primeiro processador específico para IA. Este poderoso chip de silício ajuda a tornar possível a IA generativa no dispositivo — “no dispositivo” significa que o processamento acontece no seu telefone, não em um data center distante e caro. O processador Tensor G3 foi o primeiro. Agora temos o Tensor G4, que foi desenvolvido com o laboratório de pesquisa de IA do Google, DeepMind, para ajudar o Gemini a rodar em dispositivos Pixel 9 e alimentar atividades cotidianas como filmar e transmitir vídeos com menos impacto na bateria.

Google chamadas Tensor G4 “nosso chip mais rápido e poderoso até agora.” De acordo com Shenaz Zack, diretor sênior de gerenciamento de produtos Pixel, isso significa navegação na web 20% mais rápida e inicialização de aplicativos 17% mais rápida do que com o Tensor G3.

Ela observou que os TPUs no Tensor G4 podem gerar uma saída móvel de 45 tokens por segundo. Aqui está o que isso significa:

TPU são unidades de processamento tensorial. Elas ajudar a acelerar IA generativa.

Tokens são pedaços de palavras. Modelos de IA são como leitores que precisam de ajuda, então eles quebram o texto em pedaços menores — tokens — para que possam entender melhor cada parte e então o significado geral.

Um token é o equivalente a cerca de quatro caracteres em inglês. Isso significa que o Tensor G4 pode gerar aproximadamente três frases por segundo.

O Tensor G4 é o primeiro processador para executar o Gemini Nano com o modelo Multimodality, o modelo de IA no dispositivo que ajuda seu telefone Pixel 9 a entender melhor as entradas de texto, imagem e áudio que você faz.

O Google também atualizou a memória em seus dispositivos Pixel 9 — até 12 a 16 gigabytes — para que a IA generativa funcione rapidamente e o telefone consiga acompanhar os avanços futuros. Pelo menos até que a próxima grande novidade apareça.

14 maneiras pelas quais o Android 15 mudará seu telefone (e nem todas são IA)

Ver todas as fotos

Acesso sem necessidade de olhar para Gemini

Assim como a família Pixel 9, os novos fones de ouvido Pixel Buds Pro 2 vêm com um processador chamado chip Tensor A1, que também alimenta a funcionalidade de IA.

Você pode pensar nos fones de ouvido como outra interface de áudio para Gemini — mas é uma sem tela. Você pode pedir informações do seu e-mail, bem como direções, lembretes e recomendações de músicas, mas não poderá tirar fotos e fazer perguntas.

Aviso de inscrição para o boletim informativo AI Atlas Aviso de inscrição para o boletim informativo AI Atlas

Para ter uma conversa com o Gemini Live enquanto usa o Pixel Buds Pro 2, primeiro diga: “Ok, Google, vamos conversar ao vivo”.

Há uma ressalva: você precisará de uma assinatura Google One AI Premium primeiro. Este plano de US$ 20 por mês fornece acesso aos modelos de IA mais recentes do Google, bem como ao Gemini em propriedades do Google, como Gmail e Docs, junto com 2 TB de armazenamento.

O Google está oferecendo uma assinatura gratuita de 12 meses do plano Google One AI Premium para qualquer pessoa que comprar o Pixel 9 Pro, 9 Pro XL ou 9 Pro Fold agora.

“Eu me vi fazendo a Gemini diferentes tipos de perguntas do que faço com meu telefone na minha frente. Minhas perguntas são muito mais abertas”, disse Sandeep Waraich, líder de gerenciamento de produtos do Google Wearables, sobre o uso do Gemini Live no Pixel Buds Pro 2. “Há mais caminhadas e conversas, sessões mais longas que são muito mais contemplativas do que não.”

Isso pode ser verdade, mas, como meu colega da CNET, David Carnoy, apontou, parece que você está usando balas Mentos nas orelhas enquanto faz essas perguntas diferentes.





Source link