Pular para o conteúdo

IA permite toques realistas em realidade aumentada

novo sensor baseado em IA

Pesquisadores da Universidade Carnegie Mellon desenvolveram uma ferramenta chamada EgoTouch, que utiliza inteligência artificial (IA) para controlar interfaces de realidade aumentada (AR) e realidade virtual (VR) através do toque na pele com um dedo. Essa nova tecnologia é descrita em um artigo publicado na “Proceedings of the 37th Annual ACM Symposium on User Interface Software and Technology” e foi criada no Instituto de Interação Humano-Computador da universidade. O objetivo do EgoTouch é possibilitar o controle de interfaces AR/VR sem a necessidade de dispositivos adicionais, utilizando apenas sensores presentes em headsets comuns dessas tecnologias.

novo sensor baseado em IA
Pesquisadores usaram um sensor de toque personalizado que corria ao longo da parte inferior do dedo indicador e da palma para coletar dados sobre diferentes tipos de toque em diferentes forças, permanecendo invisível para a câmera. Crédito: Carnegie Mellon University

 

A inspiração para o desenvolvimento do EgoTouch veio do OmniTouch, uma tecnologia anterior criada por Chris Harrison, professor associado do Instituto de Interação Humano-Computador e diretor do Future Interfaces Group. Embora o OmniTouch fosse promissor, ele necessitava de uma câmera de profundidade especial e volumosa. Já o EgoTouch utiliza uma abordagem inovadora: um algoritmo de aprendizado de máquina de IA que permite a câmeras comuns reconhecer o toque na pele, identificando deformações e sombras que ocorrem ao tocar a superfície da pele.

Para treinar o EgoTouch, Vimal Mollyn, doutorando orientado por Harrison, desenvolveu um sensor personalizado que coleta dados de diferentes tipos de toque com variadas intensidades. Esse sensor foi posicionado ao longo do dedo indicador e da palma da mão, permanecendo invisível para a câmera. Com base nos dados coletados, o modelo de IA aprendeu a associar as características visuais de sombras e deformações da pele ao toque e à força aplicada, sem a necessidade de anotações humanas.

 

A equipe ampliou o conjunto de dados, incluindo 15 usuários com diferentes tons de pele e densidade de pelos, e coletou horas de informações em diversas condições de luz e atividades. Com esse treinamento, o EgoTouch alcançou uma precisão de mais de 96% para detectar toques, com uma taxa de falsos positivos de aproximadamente 5%. O sistema também pode diferenciar toques leves de toques mais intensos com 98% de precisão.

Essa sensibilidade ao tipo e força do toque permite que o EgoTouch funcione de forma semelhante a uma tela de toque, identificando comandos como pressionar, arrastar e levantar o dedo. Em smartphones, esses movimentos são essenciais para gestos como rolar uma página ou ampliar uma imagem. No caso do EgoTouch, a câmera distingue as sutis variações entre tipos de toque e a intensidade, possibilitando funções como o “clique direito” diretamente na pele.

A tecnologia foi testada em várias partes da mão e antebraço, com desempenho consistente em diferentes tons de pele e áreas com densidade variada de pelos, embora com menor eficiência em regiões ósseas, como os nós dos dedos, onde a deformação da pele é mínima. Mollyn também está estudando o uso de câmeras de visão noturna para que o EgoTouch funcione em ambientes com pouca luz e planeja expandir essa tecnologia para superfícies além da pele, oferecendo, pela primeira vez, uma interface intuitiva e prática apenas com o uso de uma câmera padrão dos headsets.

Brendon Gonçalves

Brendon Gonçalves

Sou um nerd racionalista, e portanto, bastante curioso com o que a Ciência e a Filosofia nos ensinam sobre o Universo Natural... Como um autodidata e livre pensador responsável, busco sempre as melhores fontes de conhecimento, o ceticismo científico é meu guia em questões epistemológicas... Entusiasta da tecnologia e apreciador do gênero sci-fi na arte, considero que até mesmo as obras de ficção podem ser enriquecidas através das premissas e conhecimentos filosóficos, científicos e técnicos diversos... Vida Longa e Próspera!