Notícia

Ciclo Vivo

Brasileiros criam cadeira de rodas controlada por movimentos da face

Publicado em 04 maio 2016

Uma cadeira de rodas que pode ser controlada por pequenos movimentos da face, da cabeça ou da íris foi desenvolvida por pesquisadores da Faculdade de Engenharia Elétrica e de Computação da Universidade Estadual de Campinas (FEEC/Unicamp).

O equipamento ainda é considerado experimental e de alto custo. Porém, um projeto aprovado recentemente pelo Programa Pesquisa Inovativa em Pequenas Empresas (PIPE), da FAPESP, tem como objetivo adaptar a tecnologia para torná-la mais acessível e colocá-la no mercado brasileiro dentro de dois anos.

“Nosso objetivo é que o produto final custe no máximo o dobro de uma cadeira motorizada comum, dessas que são controladas por joystick e hoje custam em torno de R$ 7 mil”, explicou o professor da FEEC/Unicamp Eleri Cardozo.

Segundo Cardozo, a tecnologia poderá beneficiar pessoas com tetraplegia, vítimas de acidente vascular cerebral (AVC), portadores de esclerose lateral amiotrófica ou outras condições de saúde que impedem o movimento preciso das mãos.

A criação

“Nosso grupo estudava técnicas de interface cérebro-computador (BCI, na sigla em inglês, métodos de aquisição e processamento de sinais que permitem a comunicação entre o cérebro e um dispositivo externo) e achamos que seria interessante avaliar a tecnologia em uma situação real”, contou Cardozo.

O grupo então adquiriu uma cadeira motorizada convencional, retirou o joystick e a equipou com diversos dispositivos normalmente encontrados em robôs, como sensores capazes de medir a distância de paredes e de outros objetos ou detectar diferenças de profundidade no piso.

O protótipo também foi equipado com um notebook que envia os comandos diretamente para a cadeira e com uma câmera 3D com a tecnologia RealSense, da Intel, que permite interagir com o computador por meio de expressões faciais ou movimentos corporais.

“A câmera identifica mais de 70 pontos da face – em torno da boca, do nariz e dos olhos – e, a partir da movimentação desses pontos, é possível extrair comandos simples, como ir para frente, para trás, para a esquerda ou direita e, o mais importante, parar”, explicou Cardozo.

Também é possível interagir com o computador por meio de comandos de voz, mas essa tecnologia é considerada menos confiável que as expressões faciais por causa das diferenças de timbre e da possível interferência de ruído ambiente.

“Essas limitações podem ser contornadas com a definição de um número reduzido de comandos e com uma função de treinamento incorporada ao software que otimiza a identificação dos comandos para um usuário específico”, disse Cardozo.

Comandos enviados diretamente pelo cérebro

Pensando em pacientes com quadros ainda mais graves – que impedem até mesmo a movimentação facial – o grupo também trabalha em uma tecnologia de BCI que permite extrair sinais diretamente do cérebro, por meio de eletrodos externos, e transformá-los em comandos. O equipamento, no entanto, ainda não está embarcado na cadeira robotizada.

“Fizemos demonstrações em que uma pessoa fica sentada na cadeira e outra sentada próximo a uma mesa usando o capacete com os eletrodos e controlando a cadeira. Antes de embarcar o equipamento de BCI na cadeira precisamos solucionar algumas limitações, como a alimentação de energia. Ainda é uma tecnologia muito cara, mas está saindo uma nova geração de baixo custo, na qual o capacete pode ser impresso em 3D”, disse Cardozo.

A cadeira também foi equipada como uma antena wifi que permite a um cuidador dirigir o equipamento remotamente, pela internet. “Essas interfaces exigem do usuário um nível de concentração que pode ser cansativo. Por isso, se houver necessidade, a qualquer momento outra pessoa pode assumir o comando da cadeira”, contou Cardozo.

Da Agência Fapesp