Todos os suspeitos usuais da Big Tech estão envolvidos em uma corrida armamentista não tão secreta a ser a primeira a desenvolver óculos de realidade aumentada no mercado de massa. Já sabemos Conferência TED2025e já podemos dizer a ele o tipo de XR – a “realidade estendida” – que pode levar nos ajude a escapar da tirania dos fones de ouvido VR sobrecarregados.
Shahram Izadi, vice-presidente e gerente geral do XR no Google, apareceu no palco de Ted, usando o que inicialmente parecia ser um típico-embora seja excessivamente grande-pares de óculos (pense em óculos enormes e também não lançados de Meta). Mas eles eram os óculos XR do Google, e Izadi alegou que eles estavam exibindo suas notas de fala enquanto ele falava.
Os óculos tinham um microfone, câmera e alto -falantes para coletar o máximo de informações. O primeiro dispositivo XR do Google, já que o Google Glass possui uma “exibição na lente”, que Izadi segurou a câmera por poucos segundos, observando “É muito, muito pequeno”. Isso pode apontar para a idéia que o Google está experimentando com exibições de óculos do tipo guia de ondas, apresentadas em dispositivos como os mais recentes óculos Rayneo. Os próprios óculos usam o Android XR, o sistema operacional caseiro do Google para dispositivos de realidade estendida.
O gerente de produtos do Google, Nishtha Bhatia, mostrou à multidão o que as câmeras de óculos poderiam exibir através da câmera embutida. Ela bateu em um braço dos óculos, que lançou o típico logotipo da Blue Star Gemini na parte inferior de sua exibição e, depois de meio segundo, o chatbot de votação da AI-i-i-i-i-i-i-i-i-i-i-i-Voited pareceu pronto para oferecer um haiku digno da Eyeroll sobre a audiência reunida com seus “rostos todos os Aglow”. Gêmeos pode traduzir o texto que vê em diferentes idiomas, embora Izadi sugerisse que o recurso pode produzir resultados mistos. Essa mesma câmera também pode analisar o texto e os gráficos e transformá-lo em britamentos de som mais digeríveis.
Izadi e Bhatia também exibiram o recurso “Memória” que deixou a IA lembrar coisas que viu através da câmera no passado recente. É semelhante ao que o Google Deepmind demonstrou com o Project Astra no ano passado. O Google tem adicionado lentamente recursos da Astra, incluindo reconhecimento de fotos e vídeos, à interface Gemini Live Chatbot, e parece que a empresa está procurando integrar recursos semelhantes em um próximo par de óculos AR.
Os óculos devem ter mais recursos para se conectar com seu smartphone e “acessar todos os seus aplicativos de telefone”. No entanto, o verdadeiro recurso assassino é a conexão com seus outros aplicativos do Google. Bhatia pediu aos óculos que olhassem para um recorde do rapper Teddy Swims e tocasse uma faixa. Os óculos abriram a música do YouTube e tocaram a música solicitada. Já gostamos dos meta-óculos Ray-Ban o suficiente para seus alto-falantes sólidos sem precisar de um par de fones de ouvido, então este é um acéfalo do Google. O que era ainda mais selvagem era que a tela dentro dos óculos podia funcionar com o Google Maps, oferecendo uma imagem semi-holográfica do Google Streetview para navegação.
O Google trabalha nos bastidores nos óculos AR há vários anos, mesmo após o desaparecimento do Google Glass. Curiosamente, o par mostrado no TED não pode ser vendido sob o próprio banner do Google. O gigante da pesquisa está trabalhando de mãos dadas com a Samsung em seu projeto Moohan Smart Glasses, permitindo o dispositivo com o Android XR. O Google exibiu o fone de ouvido do protótipo da Samsung no estágio TED2025. Pelo que vimos de Moohan, que pode ser um dispositivo de preço premium, o fone de ouvido agirá como o Apple Vision Pro de hoje, mas com mais recursos habilitados para Gemini.
A Samsung também sugeriu fortemente que está trabalhando em um par separado de óculos inteligentes, mas duvidamos do que o Google mostrou nesta semana é o que há de chegar ainda este ano. Publicação coreana EtNews (Leia com a tradução da máquina) relatou no mês passado o próximo dispositivo pode não ter uma tela ou botões. Em vez disso, confiaria em um microfone para a fala e uma câmera para controles de gestos.
Enquanto isso, a Meta também pode estar trabalhando em um par de óculos caros com uma tela minúscula dedicada a uma prateleira de aplicativo na parte inferior da lente direita. A tela é o que realmente diferenciará os óculos “realidade aumentada” dos óculos focados em áudio que vemos até agora. Para se destacar, o Google precisará descobrir como usar uma tela maior, equilibrando a duração da bateria e o peso dos óculos. Mas, se isso acontecer, finalmente podemos entrar em ação sem precisar enfiar um fone de ouvido pesado sobre nossos olhos.