Recentemente, em um dia de semana, fiquei sem ideias sobre o que fazer para o jantar. Então abri minha geladeira, segurei o botão de controle da câmera no meu iPhone 16, tirei uma foto e carreguei a imagem no ChatGPT e no Google.
Ambos os assistentes virtuais me surpreenderam com suas recomendações; O Google sugeriu que eu fizesse uma salada com uvas e vegetais, enquanto o ChatGPT notou os picles na prateleira de cima e aconselhou que eu os adicionasse a um wrap ou sanduíche.
Usar a câmera do seu telefone para encontrar receitas pode ser apenas o começo. Se acreditarmos nos gigantes da tecnologia, as câmeras de nossos telefones desempenharão um papel muito maior nas tarefas diárias. E logo.
Em vez de apenas dizer ao seu telefone o que deseja, você poderá mostrar seu telefone o mundo ao seu redor. Empresas como Apple, Google, OpenAI, Qualcomm e Meta parecem estar avançando nessa trajetória, considerando que todas introduziram novos recursos ou conceitos de IA baseados em câmeras para smartphones e óculos inteligentes em 2024.
Em vez de apenas permitir que você tire fotos e preserve memórias, as empresas de tecnologia estão explorando a ideia de transformar a câmera em uma espécie de mecanismo de busca visual. Aponte a câmera do seu dispositivo para um restaurante e ele exibirá detalhes importantes, como horário de funcionamento e fotos da comida, por exemplo. Em um dos maiores testemunhos de um futuro com câmeras em primeiro lugar, Google, Samsung e Qualcomm lançaram o Android XR em dezembro. Esta nova versão do Android foi projetada para funcionar em fones de ouvido e óculos inteligentes e usa a câmera e o assistente Gemini do Google para responder perguntas sobre o que está ao seu redor em tempo real.
É certamente uma mudança nos métodos centrados no toque que usamos para operar nossos telefones hoje. E embora possa levar algum tempo para se acostumar – se os consumidores aceitarem isso – analistas e empresas de tecnologia acreditam que isso poderá representar o futuro da forma como usamos nossos dispositivos móveis.
“A câmera e o feedback visual, seja enviando uma foto de algo ou fornecendo a imagem da câmera, serão muito importantes daqui para frente”, disse Seang Chau, vice-presidente e gerente geral da plataforma Android do Google, em uma entrevista anterior.
Leia mais: Os maiores telefones esperados em 2025: iPhone 17, Galaxy S25 e mais
A câmera do seu telefone está evoluindo com IA
A câmera do Pixel 9
Os chatbots generativos de IA tiveram um avanço em 2023 graças ao ChatGPT da OpenAI. Em 2024, as empresas de tecnologia prepararam o terreno para a próxima fase de ajudantes de IA: agentes multimodais de IA. Em linguagem simples, isso se refere a assistentes virtuais com tecnologia de IA que podem compreender vários tipos de entrada (ou seja, texto, fala e imagens) e realizar tarefas em seu nome.
Imagine escanear a conta de um restaurante com a câmera do seu telefone e pedir a um ajudante virtual para dividir o custo entre a festa e adicionar uma gorjeta. Essa tecnologia ainda não chegou lá, mas a fabricante de chips móveis Qualcomm apontou-a como um exemplo de cenário que poderia ser possível em um futuro próximo, à medida que os agentes de IA avançassem.
Em 2024, os alicerces desses assistentes mais futuristas começaram a se encaixar. Tanto a OpenAI quanto o Google fizeram melhorias na forma como seus modelos e sistemas processam vários tipos de entradas. Em dezembro, a OpenAI atualizou o modo de voz avançado do ChatGPT com a capacidade de compartilhar o feed de vídeo ou a tela do seu telefone com o assistente digital para que você pudesse fazer perguntas sem precisar fazer upload de fotos. O Android XR e o Projeto Astra do Google dão um passo adiante, colocando câmeras mais próximas da sua linha de visão – em fones de ouvido e óculos – para que o assistente do Google possa fazer coisas como informar sobre o ponto de referência que você está visualizando no Google Maps ou fornecer uma sinopse do livro que você está folheando em uma livraria.
Essa representação da aparência do Maps em óculos foi semelhante à que experimentei em protótipos de tela dupla, mas em um espaço de demonstração contido.
Em mais um sinal de que os fabricantes de telefones estão cada vez mais pensando na câmera como uma ferramenta de descoberta, a Apple lançou um novo recurso chamado Visual Intelligence em dezembro. Disponível apenas na série iPhone 16, a Inteligência Visual permite aprender sobre o mundo ao seu redor pressionando o novo botão de controle da câmera.
Toque no botão para iniciar a câmera e aponte-a para um ponto de interesse para obter mais informações sobre ele. Você também pode tirar uma foto neste modo e enviá-la ao ChatGPT ou ao Google para resolver problemas de matemática ou pesquisar produtos.
“Imagine quantas etapas isso nos salva”, disse Nabila Popal, diretora sênior da equipe de dados e análise da International Data Corporation, em referência aos recursos de IA acionados por câmeras. “Ser capaz de pesquisar algo, ou encontrar informações sobre algo, ou adicionar um evento [to] um calendário sem ter que realizar essas etapas adicionais.”
Com a Inteligência Visual, você pode aproximar o iPhone 16 de um café ou restaurante e ver informações como horários e fotos.
Mas a questão é se as pessoas realmente vão querer usar esses recursos. Uma pesquisa da CNET em colaboração com YouGov descobriu que 25% dos proprietários de smartphones não consideram os recursos de IA úteis. Embora as empresas de tecnologia estejam se apoiando na IA para gerar interesse em novos telefones, ela não parece estar incentivando os usuários a atualizarem. Embora se espere que o mercado global de smartphones tenha crescido 6,2% ano a ano em 2024, de acordo com o CDIespera-se que o crescimento desacelere em 2025 e além. E a IA não é considerada a força motriz por trás do aumento nas remessas em 2024, afirma o relatório do IDC.
Em parte, isso ocorre porque os consumidores não estão familiarizados com a tecnologia. Mas muitos desses recursos de IA ainda são novos e ainda não parecem essenciais para nossos telefones. O iPhone 16, que a Apple posicionou como os primeiros telefones “construídos para a Apple Intelligence”, foi lançado sem o recurso marcante da Apple em setembro. Algumas das adições mais significativas da Apple Intelligence, como a integração ChatGPT, só chegaram em dezembro.
Também não se sabe quão forte tem sido a demanda pelo iPhone 16 desde seu lançamento. O analista da TF International Securities, Ming-Chi Kuo, conhecido por fazer previsões sobre os produtos da Apple, relatado em outubro, a Apple reduziu os pedidos do iPhone 16 em cerca de 10 milhões de unidades. Uma pesquisa do Morgan Stanley também indica que os prazos de entrega do iPhone 16 foram menores do que os dos iPhones anteriores nos últimos cinco anos, de acordo com Apple Insider.
Esses dois dados podem ser considerados um sinal potencial de que a demanda do iPhone 16 foi menor do que a Apple esperava, mas também podem significar que a produção da Apple estava alinhada com a demanda do consumidor. Nos lucros do quarto trimestre fiscal, a Apple informou que a receita geral do iPhone cresceu 6%embora não esteja claro quanto disso veio do iPhone 16, já que a Apple não divulga dados de vendas para modelos específicos.
A forma como o iPhone 16 foi recebido pelos consumidores é uma questão crucial, pois pode determinar o sucesso da Apple Intelligence, visto que os aparelhos iPhone 16 estão entre os únicos telefones que suportam a tecnologia.
Gerrit Schneemann, analista sênior que cobre smartphones da Counterpoint Research, aponta a linha Galaxy S24 da Samsung como outro exemplo de que a IA ainda não é um ponto de venda para telefones.
“Muitos upgrades, por exemplo, para o S24 Ultra [were] vindo de dispositivos Ultra mais antigos”, disse ele. “Então, para nós, isso significava que eles estavam atualizando porque é hora de atualizar, não necessariamente porque [has] IA da galáxia.”
Mas talvez a câmera possa desempenhar um papel na mudança disso, potencialmente transformando a IA de enigmática em prática.
Óculos inteligentes estão chegando
Como seria receber mensagens através de óculos inteligentes, com base no vídeo do Google.
Embora faça sentido que as câmeras de nossos telefones sejam o primeiro passo em direção a um assistente de IA que tudo vê, essas atualizações também estão abrindo caminho para óculos inteligentes.
Os óculos inteligentes não conseguiram ganhar força junto ao público consumidor há cerca de uma década, na era do Google Glass. Naquela época, os óculos de alta tecnologia do gigante das buscas fracassaram por alguns motivos importantes: suscitaram preocupações com a privacidade, não tinham casos de uso atraentes o suficiente para justificar o alto preço e sofriam de limitações técnicas, como bateria de curta duração e campo de visão estreito.
Mas a IA generativa colocou os óculos equipados com câmeras novamente no centro das atenções. Sameer Samat, presidente do ecossistema Android do Google, diz que os avanços na IA tornaram este o momento certo para reexaminar a viabilidade dos óculos inteligentes. A empresa lançará em breve protótipos de óculos inteligentes com sua tecnologia Project Astra para testadores coletarem feedback, um sinal de que os óculos inteligentes podem retornar em 2025.
“Estávamos brincando com o que esses modelos podem fazer usando o telefone e as câmeras do telefone como forma de interagir com o mundo, e isso realmente nos surpreendeu, o que era possível”, disse Samat.
Os óculos Ray-Ban da Meta já possuem recursos de IA.
Os mais recentes óculos Ray-Ban da Meta já podem usar IA para analisar o que você está vendo e fornecer respostas em tempo real, e a gigante da tecnologia acaba de começar a lançar assistência de IA sempre ativa para aqueles que fazem parte do programa de acesso antecipado da Meta. Isso significa que o auxiliar de IA do Meta será capaz de ouvir continuamente para que você não precise ficar solicitando cada vez que quiser fazer uma pergunta. Os protótipos de óculos inteligentes do Google funcionam de forma semelhante; ele ouvirá passivamente a entrada assim que você ativar o Gemini até pausá-lo.
Ao testar o protótipo do Google em dezembro, Scott Stein, da CNET, andou por uma sala de demonstração nos escritórios do Google perguntando sobre vários elementos – desde livros em uma prateleira até uma máquina de café Nespresso – sem ter que invocar constantemente o assistente.
Na minha própria experiência experimentando os óculos, fiz perguntas como se a planta que estava olhando era ideal para ambientes internos e recebi uma resposta quase que instantaneamente. Hoje, a maioria das pessoas provavelmente tomaria medidas extras para tirar uma foto da planta, enviá-la para Gemini ou ChatGPT e depois fazer a pergunta.
“Nem sempre é o mais natural [thing] segurar seu telefone diante de tudo”, disse Samat ao falar sobre a inspiração por trás do Android XR. “Isso não seria perfeito para um par de óculos? Isso nos leva a pensar em óculos.”
Enquanto isso, o CEO da OpenAI, Sam Altman, e o ex-chefe de design da Apple, Jony Ive, estão colaborando em um dispositivo de computação alimentado por IA que é “menos perturbador socialmente do que o iPhone”, de acordo com O jornal New York Times. Embora pouco se saiba sobre o produto, o projeto é outro sinal de que uma onda de novos dispositivos de IA provavelmente chegará em breve.
Isso acontece depois que dispositivos como o Humane AI Pin e o Rabbit R1, ambos executados em software alimentado por IA e aproveitam a câmera para responder a perguntas sobre o ambiente, tiveram um início difícil em 2024. Esses dispositivos foram amplamente criticados por não viverem. correspondeu às expectativas, apresentou mau funcionamento no lançamento e geralmente não foi tão intuitivo ou útil quanto um smartphone, embora ambos tenham sido atualizados significativamente nos últimos meses.
Não está claro exatamente como serão os dispositivos do futuro, e o que é ainda menos certo é se algum produto tecnológico de consumo será tão impactante e útil quanto os dispositivos que já carregamos em nossos bolsos. Mas se você quiser dar uma olhada no rumo que as coisas estão tomando, há uma boa chance de tudo começar com a câmera do telefone que você possui hoje.
Eventualmente, os recursos generativos de IA – quer utilizem a câmera ou não – parecerão tão essenciais para os dispositivos móveis que os telefones sem a tecnologia poderão parecer arcaicos ou irrelevantes, de acordo com Popal. Ela compara isso à chegada da internet e das lojas de aplicativos em nossos telefones.
“O smartphone antigo”, diz ela, “vai parecer nada inteligente”.
As imagens estranhas e maravilhosas que obtivemos do Pixel Studio do Google
Ver todas as fotos