Você está aqui: Página Inicial > Notícias > Avatar 3D do VLibras é ampliado e passa a representar emoções
conteúdo

Notícias

Avatar 3D do VLibras é ampliado e passa a representar emoções

Pesquisadores do Núcleo Lavid/CI conseguiram inserir expressões faciais e corporais no avatar, melhorando a tradução para surdos
última modificação: 23/08/2021 18h17

Pesquisadores do Centro de Informática da UFPB conseguiram adaptar o avatar 3D do VLibras, conjunto de ferramentas computacionais de código aberto que traduz conteúdos digitais (texto, áudio e vídeo) para Língua Brasileira de Sinais (Libras), para que identifique e performe emoções.

Essa experimental inserção de expressões faciais e corporais para emoções como neutra, alegria, tristeza, raiva, medo, nojo e surpresa foi capaz de melhorar a tradução, tornando computadores, celulares e plataformas web muito mais acessíveis para pessoas surdas.

“Foi feita uma adaptação parcial de ferramentas da Suíte VLibras, usando um dicionário resumido, para o qual foram animados sinais para todos esses tipos de emoções identificadas”, explica o Prof. Rostand Costa, orientador do trabalho.

O estudo foi desenvolvido no Laboratório de Aplicações de Vídeo Digital, do Centro de Informática (CI), no campus I, em João Pessoa, por Vinícius Veríssimo da Silva, entre março de 2019 e fevereiro deste ano, como parte de sua pesquisa de mestrado no âmbito do Programa de Pós-graduação em Informática da UFPB.

Ele detalha que foi investigado o uso da análise de emoções no conteúdo traduzido para refletir o sentimento predominante na mensagem, dentro de um conjunto pré-determinado, como alegria, tristeza, raiva etc. a fim de reproduzir tal sentimento na expressão do avatar 3D, no momento da renderização dos sinais.

Segundo o Prof. Rostand Costa, tradutores automáticos de línguas orais para línguas de sinais são ferramentas de tecnologia assistiva voltadas a proporcionar mais autonomia, independência e qualidade de vida para a comunidade surda.

O uso desses tradutores automáticos já é reconhecido como uma alternativa viável para que a população surda tenha mais acesso a informações, sobretudo conteúdo digital, e, principalmente, quando um intérprete humano não está disponível.

Entretanto, alguns desafios no uso de tal tecnologia assistiva ainda persistem e um ponto amplamente criticado é a falta de expressões faciais e corporais adequadas no avatar 3D normalmente utilizado nessas ferramentas.

De acordo com o orientador do trabalho, a análise de emoções em textos é uma área de pesquisa muito ativa atualmente. “Nosso estudo busca aplicar os avanços nessa área para tentar melhorar a eficácia e aceitação da sinalização feita por avatares 3D”.

Com a pesquisa concluída e viabilidade e aplicabilidade da proposta confirmadas, os resultados foram disponibilizados para a comunidade acadêmica em artigo publicado na nona edição do periódico da UFPB Comunicações em informática e nos anais 2020 do XXVI Simpósio Brasileiro de Multimídia e Web.

Conforme o Censo 2010 do Instituto Brasileiro de Geografia e Estatística (IBGE), há 10 milhões de brasileiros com algum nível de deficiência auditiva. Esse é o público que poderá ser beneficiado com melhorias em tecnologias assistivas como a proposta nesta pesquisa da UFPB.

O VLibras é fruto de parceria entre a UFPB, o Ministério da Economia e outros órgãos públicos. Ele realiza cerca de 100 mil traduções por dia. Ao todo, possuiu 70 mil frases treinadas por Inteligência Artificial e mais de 17 mil sinais em sua biblioteca.

Mais informações sobre a proposta de tradutor automático com análise de emoções de textos em português brasileiro para Libras podem ser obtidas por meio do contato de e-mail do professor Rostand Costa: rostand@lavid.ufpb.br

FOTO: Comunicações em Informática v.5, n.1, jun/2021
FONTE: Assessoria de Comunicação do CI e ASCOM da UFPB