A sensação do pelo de um gato pode revelar algumas informações, mas ver o felino fornece detalhes críticos: é um gato doméstico ou um leão? Embora o som do crepitar do fogo possa ser ambíguo, seu cheiro confirma a madeira queimada. Nossos sentidos se sinergizam para proporcionar uma compreensão abrangente, especialmente quando os sinais individuais são sutis. A soma coletiva dos insumos biológicos pode ser maior que as suas contribuições individuais. Os robôs tendem a seguir uma adição mais direta, mas os pesquisadores da Penn State aproveitaram agora o conceito biológico para aplicação em inteligência artificial (IA) para desenvolver o primeiro neurônio artificial multissensorial integrado.
Leia também Este organismo rastejou pela terra há mais de 400 milhões de anos
Liderada por Saptarshi Das, professor associado de engenharia e mecânica na Penn State, a equipe publicou seu trabalho em 15 de setembro na Nature Communications.
“Os robôs tomam decisões com base no ambiente em que se encontram, mas os seus sensores geralmente não comunicam entre si”, disse Das, que também tem compromissos conjuntos em engenharia elétrica e em ciência e engenharia de materiais. “Uma decisão coletiva pode ser tomada através de uma unidade de processamento de sensores, mas será esse o método mais eficiente ou eficaz? No cérebro humano, um sentido pode influenciar outro e permitir que a pessoa julgue melhor uma situação.”
Por exemplo, um carro pode ter um sensor que procura obstáculos, enquanto outro detecta a escuridão para modular a intensidade dos faróis. Individualmente, esses sensores transmitem informações a uma unidade central que instrui o carro a frear ou ajustar os faróis. Segundo Das, esse processo consome mais energia. Permitir que os sensores se comuniquem diretamente entre si pode ser mais eficiente em termos de energia e velocidade – principalmente quando as entradas de ambos são fracas.
“A biologia permite que pequenos organismos prosperem em ambientes com recursos limitados, minimizando o consumo de energia no processo”, disse Das, que também é afiliado ao Materials Research Institute. “Os requisitos para diferentes sensores baseiam-se no contexto – numa floresta escura, confiaríamos mais em ouvir do que em ver, mas não tomamos decisões com base apenas num sentido. Temos uma noção completa do que nos rodeia e nossa tomada de decisão é baseada na integração do que vemos, ouvimos, tocamos, cheiramos, etc.. Os sentidos evoluíram juntos na biologia, mas separadamente na IA. Neste trabalho, procuramos combinar sensores e imitar como nossos cérebros realmente funcionam.”
A equipe se concentrou na integração de um sensor tátil e um sensor visual para que a saída de um sensor modificasse o outro, com a ajuda da memória visual. De acordo com Muhtasim Ul Karim Sadaf, estudante de doutorado do terceiro ano em engenharia e mecânica, mesmo um flash de luz de curta duração pode aumentar significativamente a chance de movimento bem-sucedido em uma sala escura.
“Isso ocorre porque a memória visual pode posteriormente influenciar e auxiliar as respostas táteis para a navegação”, disse Sadaf. “Isso não seria possível se nosso córtex visual e tátil respondesse apenas às suas respectivas pistas unimodais. Temos um efeito de memória fotográfica, onde a luz brilha e podemos lembrar. Incorporamos essa capacidade em um dispositivo por meio de um transistor que fornece o mesma resposta.”
Os pesquisadores fabricaram o neurônio multissensorial conectando um sensor tátil a um fototransistor baseado em uma monocamada de dissulfeto de molibdênio, um composto que exibe características elétricas e ópticas únicas, úteis para detectar luz e suportar transistores. O sensor gera picos elétricos de uma maneira que lembra os neurônios que processam informações, permitindo integrar sinais visuais e táteis.
É o equivalente a ver uma luz “acesa” no fogão e sentir o calor saindo de um queimador – ver a luz acesa não significa necessariamente que o queimador ainda esteja quente, mas uma mão só precisa sentir um nanossegundo de calor antes do corpo reage e afasta a mão do perigo potencial. A entrada de luz e calor desencadeou sinais que induziram a resposta da mão. Nesse caso, os pesquisadores mediram a versão do neurônio artificial observando as saídas de sinalização resultantes de sinais de entrada visuais e táteis.
Para simular a entrada de toque, o sensor tátil utilizou efeito triboelétrico, no qual duas camadas deslizam uma contra a outra para produzir eletricidade, o que significa que os estímulos de toque foram codificados em impulsos elétricos. Para simular a entrada visual, os pesquisadores iluminaram o memtransistor fotográfico monocamada de dissulfeto de molibdênio – ou um transistor que pode lembrar a entrada visual, como a forma como uma pessoa pode manter o layout geral de uma sala depois que um flash rápido a ilumina.
Eles descobriram que a resposta sensorial do neurônio – simulada como saída elétrica – aumentava quando os sinais visuais e táteis eram fracos.
“Curiosamente, este efeito ressoa notavelmente bem com sua contraparte biológica – uma memória visual aumenta naturalmente a sensibilidade ao estímulo tátil”, disse o co-autor Najam U Sakib, estudante de doutorado do terceiro ano em ciências da engenharia e mecânica. “Quando as dicas são fracas, é preciso combiná-las para entender melhor as informações, e foi isso que vimos nos resultados”.
Das explicou que um sistema de neurônios multissensoriais artificiais poderia melhorar a eficiência da tecnologia de sensores, abrindo caminho para usos de IA mais ecológicos. Como resultado, robôs, drones e veículos autónomos poderiam navegar no seu ambiente de forma mais eficaz, utilizando menos energia.
“A soma superaditiva de sinais visuais e táteis fracos é a principal realização de nossa pesquisa”, disse o coautor Andrew Pannone, estudante de doutorado do quarto ano em ciências da engenharia e mecânica. “Para este trabalho, analisamos apenas dois sentidos. Estamos trabalhando para identificar o cenário adequado para incorporar mais sentidos e ver quais benefícios eles podem oferecer”.
Harikrishnan Ravichandran, estudante de doutorado do quarto ano em ciências da engenharia e mecânica na Penn State, também é coautor deste artigo.
Traduzido por Mateus Lynniker de TechXplore