Aqui está o que eu achei dos novos Spectacles de realidade aumentada do Snap


O CTO da Snap, Bobby Murphy, descreveu o resultado pretendido para Revisão de Tecnologia do MIT como “computação sobreposta ao mundo que aprimora nossa experiência das pessoas nos lugares que estão ao nosso redor, em vez de nos isolar ou nos tirar dessa experiência”.

Na minha demonstração, eu consegui empilhar peças de Lego em uma mesa, bater uma bola de golfe de RA em um buraco do outro lado da sala (pelo menos um triplo bogey), pintar flores e trepadeiras nos tetos e paredes usando minhas mãos, e fazer perguntas sobre os objetos que eu estava olhando e receber respostas do chatbot de IA digital do Snap. Havia até uma pequena criatura digital roxa parecida com um cachorro da Niantic, uma peridotoque me seguiu pela sala e saiu para uma sacada.

Mas olhe para cima da mesa e você verá uma sala regular. A bola de golfe está no chão, não um campo de golfe digital. O Peridot está empoleirado em um corrimão de sacada actual. Crucialmente, isso significa que você pode manter contato — incluindo contato visible — com as pessoas ao seu redor na sala.

Para realizar tudo isso, a Snap colocou muita tecnologia nas armações. Há dois processadores embutidos, então toda a computação acontece nos próprios óculos. Câmaras de resfriamento nas laterais fizeram um trabalho eficaz de dissipar o calor na minha demonstração. Quatro câmeras capturam o mundo ao seu redor, bem como o movimento de suas mãos para rastreamento de gestos. As imagens são exibidas por meio de microprojetores, semelhantes aos encontrados em picoprojetores, que fazem um bom trabalho de apresentar essas imagens tridimensionais bem na frente dos seus olhos sem exigir muita configuração inicial. Ele cria um campo de visão alto e profundo — a Snap afirma que é semelhante a uma tela de 100 polegadas a ten pés — em um dispositivo relativamente pequeno e leve (226 gramas). Além disso, eles escurecem automaticamente quando você sai de casa, então funcionam bem não apenas em sua casa, mas também no mundo.

Você controla tudo isso com uma combinação de voz e gestos com as mãos, a maioria dos quais veio bem naturalmente para mim. Você pode pinçar para selecionar objetos e arrastá-los, por exemplo. O chatbot de IA pode responder a perguntas feitas em linguagem pure (“O que é aquela nave que vejo à distância?”). Algumas das interações exigem um telefone, mas, na maior parte, os Spectacles são um dispositivo autônomo.

Não sai barato. A Snap não está vendendo os óculos diretamente aos consumidores, mas exige que você concorde com pelo menos um ano pagando US$ 99 por mês por uma conta do Spectacles Developer Program que lhe dá acesso a eles. Fui assegurado de que a empresa tem uma definição muito aberta de quem pode desenvolver para a plataforma. A Snap também anunciou uma nova parceria com a OpenAI que aproveita suas capacidades multimodais, que, segundo ela, ajudarão os desenvolvedores a criar experiências com contexto do mundo actual sobre as coisas que as pessoas veem ou ouvem (ou dizem).

Aqui está o que eu achei dos novos Spectacles de realidade aumentada do Snap
Sou eu.

Dito isso, tudo funcionou muito bem. Os objetos tridimensionais mantiveram uma sensação de permanência nos espaços onde você os colocou — o que significa que você pode se mover e eles ficam no lugar. O assistente de IA identificou corretamente tudo o que eu pedi. Houve algumas falhas aqui e ali — tijolos de Lego desabando uns nos outros, por exemplo — mas, na maior parte, este period um pequeno dispositivo sólido.

Não é, no entanto, um discreto. Ninguém vai confundi-los com um par regular de óculos ou óculos de sol. Um colega os descreveu como óculos 3D reforçados, o que parece correto. Eles não são o computador mais bobo que já coloquei no meu rosto, mas também não me fizeram sentir exatamente como um cara authorized. Aqui está uma foto minha experimentando-os. Tire suas próprias conclusões.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *