Projeto baseado em aprendizado profundo visa aumentar a segurança durante interações entre robôs e humanos

Pesquisadores do Centro de Informática (CIn) da Universidade Federal de Pernambuco (UFPE) apresentaram no artigo “A framework for robotic arm pose estimation and movement prediction based on deep and extreme learning models”, uma nova estrutura baseada em Deep Learning para estimativa de posição e previsão de movimento de braços robóticos. A pesquisa foi desenvolvida por membros do Grupo de Pesquisa em Redes e Telecomunicações (GPRT): Iago Richard Rodrigues, Marrone Dantas, Assis Oliveira Filho, Gibson Barbosa, Daniel Bezerra, Ricardo Souza, Maria Valéria Marquezini, Patricia Takako Endo, Judith Kelner e Djamel H. Sadok.

O objetivo é aumentar a segurança do robô em situações de trabalho e demais interações com humanos, pois o risco de colisão com objetos próximos pode ser reduzido ao prever seus movimentos e intenções futuras de modo preciso. A detecção de poses é considerada parte essencial para alcançar essa solução tão necessária diante da introdução gradativa de robôs em vários ambientes, como na automação das tarefas executadas por robôs em plantas industriais.

A proposta é uma nova arquitetura de estimativa de postura e previsão de movimento que combina um modelo de Convoluções Auto-Calibradas (SCConv), aprimora as dependências espaciais e de canais gerais da estrutura, e um modelo Extreme Learning Machine (ELM), muito eficaz na classificação de dados. Foram utilizadas também redes neurais recorrentes (RNN) para fortalecer o arcabouço proposto. Nenhum estudo anterior unia essas tecnologias e os pesquisadores resolveram colocar à prova a melhoria de suas aplicações quando combinadas.

O conjunto de dados utilizado para treinar o SCNet, componente baseado em SCConv da abordagem, foi feito sob medida pelo professor Djamel Sadok e sua equipe de alunos. Eles produziram e compilaram fotos de situações em que um braço robótico, especificamente o UR-5 da Universal Robots, interage com um usuário humano próximo. Segundo o professor, a criação e anotação do conjunto de imagens “é por si só uma contribuição importante”, porém, o objetivo da pesquisa era maior: “melhorar o erro observado em comparação com outras arquiteturas conhecidas, como VGG ou ResNet”. 

Os pesquisadores utilizaram o SCNet para extrair recursos, aplicaram o ELM no final da rede e então previram o movimento com os algoritmos Gated Recurrent Unit (GRU) e Long Short-Term Memory (LSTM). A equipe considera essa “uma nova abordagem para resolver este problema”, pois, nos testes preliminares em que um braço UR-5 que auxiliava um usuário humano em tarefas de manutenção, os pesquisadores obtiveram resultados positivos: detectaram a pose do braço robótico e identificaram com precisão movimentos futuros. 

Ao longo da pesquisa, os alunos adquiriram experiência na programação e automação de atividades de um braço robótico e tiveram que lidar, por exemplo, com problemas como a calibração do braço usando técnicas de visão computacional. Em uma pesquisa diferente, eles desenvolveram um sistema para manutenção automática de equipamentos de comunicação usando o mesmo braço robótico UR-5. Os resultados do trabalho desenvolvido pela equipe é destacado enquanto contribuição dos alunos e pesquisadores para o avanço da área em publicações fora do país, como nos sites “Texplore” e “Lire Le Monde”.

Agora, a equipe quer expandir a estrutura de detecção, modificando e aplicando os algoritmos SCConv e ELM para outras tarefas, como a estimativa de pose humana, detecção e classificação de objetos. “Tratar o mesmo problema quando tem várias pessoas na presença de um robô operando não é trivial”, explica o professor. Um sistema que estima posições humanas e robóticas em conjunto e em ambientes mais complexos poderá prevenir ainda mais os riscos decorrentes de interação humano-robô, categorizar melhor esses riscos, evitar que perigos adicionais interajam e mapear possíveis cenários de colisão antes mesmo que eles surjam.

Comentários desativados