Notícia

Correio Popular (Campinas, SP)

Expressão perfeita

Publicado em 07 julho 2008

Por Richard Pfister

Avatar - Programa desenvolvido na Unicamp busca recriar em detalhes movimentos da face.

Agente virtual reproduz articulação da fala no português

 

A primeira ferramenta brasileira que permite a animação automática dos movimentos da face humana, inclusive a articulação dos lábios no processo da fala, foi desenvolvida na Faculdade de Engenharia Elétrica e de Computação (Feec) da Unicamp. O professor José Mario de Martino, que conduziu a pesquisa, explica que a face animada, chamada de agente virtual, segue o movimento da articulação da fala de acordo com o português brasileiro. Ele acrescenta que o software consegue transformar textos escritos em falados.

“A fala e a articulação produzem pistas visíveis de movimento”, explica Martino. Uma das dificuldades do projeto foi fazer as medições do deslocamento dos lábios quando é pronunciada uma letra específica, e incluir esse grande volume de informações na ferramenta.

No caso do filme King Kong, os técnicos usaram sensores em atores reais para captar expressões faciais que depois foram reproduzidas no gorila supercrescido. Os dados captados foram transferidos para o computador e a animação tornou os movimentos do animal animado mais realistas. Esse modelo é chamado de motion capture. “O problema é que, caso se queira mudar um movimento, a filmagem tem que ser feita outra vez”, explica o professor Martino. Isso também ocorre nos filmes animados.

“As animações da Pixar são muito boas, mas são feitas ponto a ponto, por uma equipe muito grande”, diz Clausius Duque Reis, um dos cinco orientandos no projeto coordenado por Martino. Ele acrescenta que são necessários diversos artistas para compor cada movimento do desenho, o que exige potentes computadores capazes de processar toda a informação.

O projeto

Projetos de animação automática iguais aos desenvolvidos na Unicamp já são utilizados em alguns países, mas apenas em ambientes de pesquisa, comenta o professor.

Na Feec, a ferramenta foi construída a partir de um modelo geométrico, de equações matemáticas, com posições básicas estabelecidas como pontos de partida para descrever a face humana.

“Definimos pontos na face com coordenadas tridimensionais (x, y e z). Os pontos 3D se ligam numa malha. No final, projeta-se tudo e a imagem é gerada”, explica o professor.

“As coordenadas tridimensionais são os elementos primitivos. Com eles é possível compor qualquer movimento”, afirma Charles Marcel de Barros, outro aluno envolvido. Primeiro os movimentos da face humana são divididos, conforme essas coordenadas, em posições básicas, que depois são reproduzidas no software para criar a fala virtual. Barros trabalha ainda em uma pesquisa complementar para reproduzir movimentos do resto do corpo. O projeto, em parceria com lingüistas da USP, pretende incluir no programa os movimentos de Libras (língua de sinais brasileira), usada por deficientes auditivos.

Barros explica que o trabalho pretende aperfeiçoar a combinação das posturas do corpo com as expressões faciais no caso da Libras. Reis é responsável por adicionar rugas às animações, por meio de sombras e jogo de luz, para que haja maior realismo. “Ajuda na expressividade”, afirma. “O ideal é ver a animação e achar que se trata de uma pessoa real”, diz Martino.

Para isso, uma das linhas de pesquisa do projeto é, junto com a animação gráfica, adicionar fotos reais de pessoas e colocá-las numa determinada seqüência a fim de gerar um movimento automático. Quando uma frase qualquer for adiciona ao sistema, a ferramenta irá converter o texto, sincronizar a fala e gerar o movimento do personagem.

 

Software usa texto para criar movimento facial

Animação - Ferramenta transforma fala em gestos de Libras para deficiente auditivo

Meta do grupo é reproduzir fielmente articulações do rosto

 

A ferramenta de reprodução dos movimentos do rosto, desenvolvida na Faculdade de Engenharia Elétrica e de Computação (Feec) da Unicamp, tem várias aplicações, desde comerciais até na sala de aula, comenta Clausius Duque Reis. O personagem virtual, ou avatar, como chama o pesquisador, pode representar o professor em uma sala de aula de ensino à distância. O professor real introduz os textos no computador, que são transformados em som e lidos pelo avatar. “Isso possibilitará uma grande interatividade entre o professor e os alunos”, alega. Reis comenta ainda que a ferramenta pode ser útil em um banco. O cliente diz a dúvida a um terminal de atendimento, que processa a pergunta e define a resposta, verbalizada pelo avatar.

No caso da Libras, a ferramenta pode permitir que um deficiente auditivo se comunique pelo celular. O aparelho, com o software, transforma as palavras ditas por quem fez a ligação em sinais de Libras, reproduzidos no visor do aparelho. “Dessa forma, o deficiente auditivo tem mais recursos para interagir utilizando a comunicação móvel”, aponta. Mas explica que o trabalho da equipe está restrito às pesquisas. “Ainda não temos nenhum contato com possíveis empresas interessadas.”

Segundo Reis, a meta do grupo é criar uma animação tão perfeita que reproduza fielmente os movimentos e a textura do rosto humano. “De tal modo, que as pessoas achem que estão interagindo com um humano e não com um avatar”, alega. Diz que a equipe não estipulou prazos para isso. “Estamos trabalhando.”

A ferramenta de animação facial pode ajudar a reduzir o volume de tráfego de dados em redes de internet e telefonia celular. Apenas mensagens de voz ou texto precisariam ser enviadas, uma vez que as imagens já estariam armazenadas do “outro lado”. Para isso, são usadas “poses-chave”, explica Paula Paro Costa, uma das alunas de mestrado do professor Martino.

No estágio atual de desenvolvimento do projeto, são usadas um mínimo inicial de 39 fotos de uma pessoa para que possam ser feitas as animações necessárias. De acordo com Reis, alguns casos de jogos de computador trabalham com bibliotecas (banco de imagens) de animação, embora nada automático e em tempo real como se pretende com o projeto desenvolvido pela equipe da Unicamp.

Os testes feitos pelo grupo têm apresentados resultados promissores.

“Fizemos um teste e foi possível fazer a leitura labial”, revela Martino. A pesquisa, iniciada há quatro anos, tem financiamento da Fundação de Amparo à Pesquisa do Estado de São Paulo (Fapesp).