Notícia

Meio Norte online

Startup usa tecnologia de reconhecimento facial para monitorar comportamentos humanos

Publicado em 24 janeiro 2019

Por Elton Alisson, da Agência FAPESP

Na edição de 2019 da maior feira de tecnologia de consumo do mundo – a Consumer Eletronics Show (CES), no início de janeiro em Las Vegas, nos Estados Unidos –, um dos destaques do estande da Intel foi um sistema de reconhecimento facial que traduz expressões em comandos para o movimento de cadeiras de rodas.

O sistema foi desenvolvido pela Hoobox Robotics com apoio do Programa Pesquisa Inovativa em Pequenas Empresas (PIPE) da FAPESP.

A startup paulista foi selecionada, em 2018, para integrar um programa de aceleração da Intel, o AI for Social Good, que promove o desenvolvimento de soluções de impacto social baseadas em inteligência artificial, utilizando tecnologias de software e hardware da empresa americana.

A iniciativa da Intel permite aos participantes ter acesso a recursos de capacitação técnica e de marketing compartilhado e a oportunidade de participar nas rodadas do fundo de investimento da Intel – o Intel Capital – para acelerar o desenvolvimento de suas soluções tecnológicas.

Por meio do programa, os engenheiros e desenvolvedores da Hoobox têm trabalhado com a equipe técnica da Intel para otimizar o desempenho dos algoritmos do sistema de detecção e interpretação de expressões faciais utilizando hardwares e softwares da empresa.

“O acordo não é de exclusividade. Entendemos que os ganhos em uma parceria com uma empresa desse porte permitirá transformar o sistema de reconhecimento facial em soluções já otimizadas que possam ser produzidas em grande escala”, disse Paulo Gurgel Pinheiro, CEO da Hoobox, à Agência FAPESP.

O sistema desenvolvido pela empresa traduz expressões faciais em comandos para controlar uma cadeira de rodas, sem exigir sensores corporais. Hoje, a tecnologia permite reconhecer mais de 10 expressões, como o arquear das sobrancelhas ou piscar dos olhos. Também é capaz de prever quando o usuário vai tossir, espirrar ou bocejar, ou quando está conversando com alguém. Nessas situações, o reconhecimento das expressões é desabilitado para impedir um movimento não desejado da cadeira e evitar acidentes.

As expressões faciais dos usuários são capturadas por uma câmera e interpretadas por algoritmos executados em um minúsculo computador de bordo, acoplado na cadeira. Os algoritmos transformam as expressões em comandos de controle, como ir para frente ou para trás e girar para a esquerda ou para a direita.