A rejeição de uma tela em cima do seu campo de visão só o leva até agora. Para aplicações de realidade aumentada (AR) para realmente afetar nossa vida cotidiana, eles também precisarão tornar os objetos no mundo actual mais interativos. Se essa interatividade assume a forma de nos fornecer informações contextuais adicionais sobre elas ou a capacidade de controlá -las de novas maneiras, o primeiro passo no processo é identificar tudo o que está próximo.
No momento, essa não é uma tarefa fácil. Alguns fones de ouvido atingem esse objetivo através do uso de algoritmos de visão computacional. Enquanto trabalham razoavelmente bem, eles exigem poder de computação substancial e consome uma grande quantidade de energia. Isso não é compatível com uma plataforma portátil, especialmente uma com um pequeno fator de forma como um par de óculos inteligentes. Como compromisso, alguns sistemas identificam objetos por meio de marcadores passivos, como códigos QR e tags RFID. Essas opções reduzem a computação e a energia, mas são estáticas, para que não possam fornecer informações atualizadas ou variáveis.
Uma placa de circuito marcador e um fone de ouvido equipado com uma câmera (📷: X. Yang et al.)
Uma nova opção acabou de surgir como resultado de uma colaboração entre os pesquisadores da Universidade da UCLA e do Texas A&M. Eles desenvolveram o que chamam Luxactuma maneira simples e barata de identificar objetos diários. Ao usar LEDs piscantes e auto-alimentados, o Luxact também pode fornecer um contexto importante aos sistemas de AR com os quais interage.
O objetivo do Luxact é transformar objetos comuns em comunicadores digitais. Em vez de usar eletrônicos caros ou sensores sempre ativados, cada objeto habilitado para Luxact usa um pequeno gerador piezoelétrico que produz eletricidade quando é deformado. Quando um usuário toca, pressiona ou aperta o objeto, o movimento produz energia suficiente para alimentar um pequeno LED multicolorido. Essa luz pisca em um padrão específico com código de cores que pode ser lido pelas câmeras de ponto de vista já incorporadas na maioria dos fones de ouvido de AR ou óculos inteligentes.
Um toque leve em uma superfície pode piscar uma sequência de cores, enquanto torce um botão ou arrancando uma guia flexível pode gerar outra. As explosões resultantes de luz vermelha, verde e azul codificam informações como o ID do objeto, seu estado atual ou mesmo dados ambientais, como temperatura ou pressão. Como esses flashes ocorrem apenas durante a interação, eles economizam energia e também sinalizam que o usuário está se envolvendo ativamente com o objeto.
Protótipos construídos com o sistema (📷: X. Yang et al.)
O design da Luxact também elimina a necessidade de componentes digitais, como microcontroladores. Em vez disso, depende inteiramente da física do movimento piezoelétrico e das mudanças de resistência em circuitos simples. Essa abordagem minimalista o torna ultra-baixo, leve e fácil de incorporar em praticamente qualquer coisa-a partir de contêineres de remédios que flashes de dose de regar mangueiras que relatam condições de fluxo.
Os pesquisadores demonstraram vários protótipos diferentes, incluindo sensores de ponta dos dedos, botões de controle interativo e recipientes de lixo que comunicam o espaço vazio restante quando abertos. Cada protótipo mostra como o Luxact pode preencher a lacuna entre os mundos físicos e digitais, sem a quantity e a complexidade dos sistemas tradicionais.
Ainda em um estágio experimental, o Luxact abre um caminho para interatividade escalável e sem bateria para ambientes de AR. Os itens do dia a dia poderiam se identificar e compartilhar o contexto em breve usando nada mais que luz e um pouco de movimento. Ainda existem desafios a serem resolvidos, como melhorar a detecção sob iluminação brilhante ou durante movimentos rápidos, mas a fundação parece ser sólida.