Por mais “inteligentes” que nossos telefones devam ser, eles não são muito bons em fazer as coisas em nosso nome. Mas isso está prestes a mudar, segundo a Qualcomm.
Durante seu Snapdragon Summit anual, a fabricante de chips móveis mostrou como seu novo processador Snapdragon 8 Elite será capaz de alimentar assistentes virtuais mais avançados que podem usar a câmera do seu dispositivo para “ver” o mundo ao seu redor.
A Qualcomm não é a primeira a ter essa ideia; a demonstração alinhada com o conceito do Projeto Astra do Google mostrado no início deste ano e o ChatGPT multimodal da OpenAI. A apresentação da Qualcomm foi apenas mais uma indicação de que os assistentes virtuais estão evoluindo para muito mais do que as versões centradas em comandos de Alexa, Siri e Google Assistant que usamos na última década. E isso é um grande negócio, porque os ajudantes digitais de hoje são usados para pouco mais do que verificar o tempo, definir temporizadores e gerir eletrodomésticos inteligentes.
Mas tudo depende se os fabricantes de dispositivos implementam tal funcionalidade; A demonstração da Qualcomm pretendia apenas mostrar que seu chip é capaz de suportá-lo. Ainda assim, é notável porque o silício da Qualcomm alimenta telefones de alguns dos maiores fabricantes de telefones Android, incluindo Samsung, OnePlus e Motorola, o que significa que os novos recursos do chip podem fornecer uma visão dos novos recursos que veremos nos telefones Android em 2025 e além.
Leia mais: ‘Uma explosão cambriana’: a remodelação radical do seu telefone pela IA, em breve
Se a visão delineada na palestra da Qualcomm se concretizar, os assistentes virtuais estão prestes a receber uma grande atualização. A empresa prevê um futuro em que você poderá apontar a câmera do seu telefone para a conta de um restaurante e simplesmente pedir ao ajudante virtual para dividir a conta em três partes e adicionar uma gorjeta de 20%. Para ir ainda mais longe, a demonstração mostrou como o assistente virtual seria capaz de se comunicar com um aplicativo de finanças pessoais para monitorar seus gastos.
Não é novidade que a Qualcomm também vê essa capacidade indo além dos telefones. No mesmo vídeo de demonstração, uma mulher usando um par de óculos inteligentes fez uma pergunta sobre as flores do colar havaiano que seu colega usava.
É uma ambição que a Qualcomm partilha com empresas como Google, OpenAI e Apple, que estão a desenvolver tecnologias que podem aproveitar as câmaras dos nossos gadgets para nos ajudar a fazer as coisas de forma mais eficiente.
Veja o Projeto Astra do Google como exemplo. Durante a conferência de desenvolvedores de I/O da empresa em maio, foi demonstrado como uma versão protótipo do assistente seria capaz de identificar objetos ao redor de um usuário e responder perguntas sobre eles em tempo real.
Depois, há o ChatGPT da OpenAI, que ficou melhor na interpretação de fala e imagens para fazer coisas como ajudar os usuários a resolver problemas matemáticos quase instantaneamente.
O Siri da Apple também está recebendo uma grande atualização que permitirá ao assistente digital aproveitar seu contexto pessoal para responder a perguntas e agir em aplicativos. Isso deve fazer com que você possa simplesmente pedir ao Siri uma receita que um amigo lhe enviou, mesmo que você não se lembre se ela foi compartilhada por mensagem de texto ou e-mail, e depois enviar um e-mail apenas perguntando verbalmente.
A Apple também está lançando um novo recurso chamado inteligência visual que permitirá que você use a câmera do iPhone para escanear o mundo ao seu redor e realizar determinadas ações – como fazer uma reserva em um restaurante por onde acabou de passar – com um toque no iPhone. Botão de controle da câmera do 16.
Todos esses exemplos representariam um grande avanço para os assistentes virtuais. Embora os ajudantes habilitados por voz de hoje possam automatizar tarefas, gerenciar dispositivos domésticos e responder perguntas, eles não podem realizar tarefas complexas para nós.
Os gigantes da tecnologia veem claramente um mundo em que isso mudará num futuro próximo. Mas a questão é quando – e se estas tecnologias cumprirão as suas promessas. A tecnologia do Projeto Astra do Google ainda não chegou, embora Sissie Hsiao, vice-presidente do Google e gerente geral de experiências Gemini, tenha dito que eventualmente seria incorporada ao Gemini. A Apple também ainda não lançou as atualizações do Siri mencionadas acima, que fazem parte de seu esforço da Apple Intelligence para infundir o iPhone com mais inteligência de IA.
E a tecnologia da Qualcomm depende de como os fabricantes de telefones a adotam, embora seja importante notar que alguns recursos mostrados durante o Snapdragon Summit do ano passado – como a capacidade de apagar objetos em fotos e preencher o fundo para expandir uma imagem – chegaram em 2024 telefones como a série Galaxy S24.
Sem dúvida, há uma ênfase em assistentes de voz no momento, mas isso não significa que ainda estamos prontos para um mundo que prioriza a voz. Novos gadgets que dependem principalmente de interações de voz, como o Rabbit R1 e o Humane AI Pin, foram criticados pelos críticos no lançamento por não corresponderem às expectativas (embora ambos os dispositivos tenham sido atualizados significativamente desde então). Independentemente disso, é também uma prova da noção de que o smartphone já funciona bem como está e pode não haver necessidade de consertar o que não está quebrado.
Mas se uma coisa é certa, é que os assistentes de voz certamente mudarão – e rápido.
Dentro do museu somente com hora marcada da sede da Qualcomm, repleto de telefones retrô
Ver todas as fotos