Você está aqui: Página Inicial > Contents > Notícias > Pesquisadores da UFPB adaptam avatar 3D para identificar e performar emoções
conteúdo

Notícias

Pesquisadores da UFPB adaptam avatar 3D para identificar e performar emoções

publicado: 23/08/2021 13h11, última modificação: 23/08/2021 13h30
Inserção de expressões faciais e corporais no VLibras melhora tradução para surdos
Nesta figura, é possível visualizar a sinalização da palavra “andar” nas emoções alegria, tristeza, raiva, medo, nojo e surpresa. Crédito: Comunicações em Informática v.5, n.1, jun/2021

Pesquisadores do Centro de Informática da Universidade Federal da Paraíba (UFPB) conseguiram adaptar avatar 3D do VLibras, conjunto de ferramentas computacionais de código aberto que traduz conteúdos digitais (texto, áudio e vídeo) para Língua Brasileira de Sinais (Libras), para que identifique e performe emoções.

Essa experimental inserção de expressões faciais e corporais para emoções como neutra, alegria, tristeza, raiva, medo, nojo e surpresa foi capaz de melhorar a tradução, tornando computadores, celulares e plataformas web muito mais acessíveis para pessoas surdas.

Foi feita uma adaptação parcial de ferramentas da Suíte VLibras, usando um dicionário resumido, para o qual foram animados sinais para todos esses tipos de emoções identificadas”, explica o Prof. Rostand Costa, orientador do trabalho.

O estudo foi desenvolvido no Laboratório de Aplicações de Vídeo Digital, do Centro de Informática, no campus I, em João Pessoa, por Vinícius Veríssimo da Silva, entre março de 2019 e fevereiro deste ano, como parte de sua pesquisa de mestrado no âmbito do Programa de Pós-graduação em Informática da UFPB.

Ele detalha que foi investigado o uso da análise de emoções no conteúdo traduzido, para refletir o sentimento predominante na mensagem, dentro de um conjunto pré-determinado, como alegria, tristeza, raiva etc., a fim de reproduzir tal sentimento na expressão do avatar 3D, no momento da renderização dos sinais.

Segundo o Prof. Rostand Costa, tradutores automáticos de línguas orais para línguas de sinais são ferramentas de tecnologia assistiva voltadas a proporcionar mais autonomia, independência e qualidade de vida para a comunidade surda.

O uso desses tradutores automáticos já é reconhecido como uma alternativa viável para que a população surda tenha mais acesso a informações, sobretudo conteúdo digital, e, principalmente, quando um intérprete humano não está disponível.

Entretanto, alguns desafios no uso de tal tecnologia assistiva ainda persistem e um ponto amplamente criticado é a falta de expressões faciais e corporais adequadas no avatar 3D normalmente utilizado nessas ferramentas.

De acordo com o orientador do trabalho, a análise de emoções em textos é uma área de pesquisa muito ativa atualmente. “Nosso estudo busca aplicar os avanços nessa área para tentar melhorar a eficácia e aceitação da sinalização feita por avatares 3D”. 

Com a pesquisa concluída e viabilidade e aplicabilidade da proposta confirmadas, os resultados foram disponibilizados para a comunidade acadêmica em artigo publicado na nona edição do periódico da UFPB Comunicações em informática e nos anais 2020 do XXVI Simpósio Brasileiro de Multimídia e Web.

Conforme o Censo 2010 do Instituto Brasileiro de Geografia e Estatística (IBGE), há 10 milhões de brasileiros com algum nível de deficiência auditiva. Esse é o público que poderá ser beneficiado com melhorias em tecnologias assistivas como a proposta nesta pesquisa da UFPB.

O VLibras é fruto de parceria entre a UFPB, o Ministério da Economia e outros órgãos públicos. Ele realiza cerca de 100 mil traduções por dia. Ao todo, possuiu 70 mil frases treinadas por Inteligência Artificial e mais de 17 mil sinais em sua biblioteca.

Mais informações sobre a proposta de tradutor automático com análise de emoções de textos em português brasileiro para Libras podem ser obtidas por meio do contato de e-mail do professor Rostand Costa: rostand@lavid.ufpb.br.

Imagem: Divulgação
Avatar Ícaro, do VLibras. Imagem: Divulgação
* * *
Reportagem: Pedro Paz
Edição: Aline Lins
Crédito: Comunicações em Informática v.5, n.1, jun/2021