Notícia

Agência Gestão CT&I

Sistemas computacionais poderão interpretar imagens de vídeos

Publicado em 30 maio 2016

Na cidade de São Paulo há mais de um milhão de câmeras de segurança em operação atualmente, estima a Associação Brasileira das Empresas de Sistemas Eletrônicos de Segurança (Abese). É impossível analisar as imagens captadas por esse universo de câmeras de segurança para identificar, por exemplo, incidentes ou comportamentos anormais e emitir alertas em tempo real. Mas isso poderia ser feito, em um futuro próximo, por computadores.

A fim de viabilizar essa ideia, um grupo de pesquisadores do Departamento de Ciência da Computação do Instituto de Matemática e Estatística da Universidade de São Paulo (IME-USP) pretende aprimorar e desenvolver novas técnicas de visão computacional que permitam que sistemas computacionais sejam capazes de interpretar imagens capturadas por câmeras de vídeo.

O estudo será desenvolvido em parceria com pesquisadores da New York University e do IBM T. J. Watson Research Center, dos Estados Unidos, por meio do projeto “Modelos e métodos de e-Science para ciências da vida e agrárias”, financiado pela Fundação de Amparo à Pesquisa do Estado de São Paulo (Fapesp). O objetivo é desenvolver um software para obter imagens de ambientes urbanos, capturadas por câmeras de rua e disponibilizadas na internet, e construir bancos de dados.

“Nossa ideia é acumular imagens de ambientes urbanos e gerar bases de terabytes de dados que possam ser usadas para desenvolver algoritmos capazes de analisar esses grandes volumes de dados e identificar padrões de comportamentos a partir deles”, disse o coordenador do projeto, Roberto Marcondes Cesar Junior.

De acordo com Cesar Junior, ,que também é o professor do IME-USP , os algoritmos de visão computacional desenvolvidos por diferentes grupos no mundo já são capazes de identificar pessoas em uma imagem de vídeo, encontrar onde estão partes do corpo dela, como as mãos, por exemplo, e captar movimentos.

O objetivo dos pesquisadores, agora, é aprimorar ou desenvolver novos algoritmos que identifiquem o que uma pessoa ou grupo de pessoas está fazendo em uma imagem de vídeo. “Pretendemos criar algoritmos que sejam capazes de interpretar situações com maior grau de abstração do que encontrar uma pessoa, carro ou um prédio em uma imagem, identificando, por exemplo, se a pessoa está parada ou em movimento, se está falando ao celular ou se está se aproximando ou se afastando de um determinado grupo de pessoas”, exemplificou o professor

A partir da interpretação do comportamento de pessoas em uma imagem, os algoritmos seriam capazes de inferir a ocorrência de colisões de automóveis, atropelamentos e interrupção de vias. “O monitoramento por algoritmos computacionais em tempo real das imagens geradas pelas câmeras de segurança possibilitaria detectar mais rapidamente acidentes de trânsito, por exemplo, e acionar instantaneamente agentes de trânsito e equipes de paramédicos para prestar a assistência necessária às vítimas e desobstruir a via”, avaliou.

Segundo Cesar Junior, os algoritmos de visão computacional existentes hoje identificam pessoas, automóveis e prédios em uma imagem de vídeo em condições climáticas normais. Já quando ocorre chuva, os algoritmos tendem a falhar ao tentar identificar os elementos presentes em uma imagem, afirmou.

“Por isso, queremos melhorar não só a capacidade desses algoritmos de identificar os elementos em uma cena quando está chovendo, mas também de identificar colisões de automóveis, por exemplo, que tendem a acontecer com maior frequência em situações de chuva”, afirmou.

A fim de aprimorar e criar esses novos algoritmos, os pesquisadores programaram o software que desenvolveram para coletar imagens de câmeras de ruas disponibilizadas na internet quando está chovendo em São Paulo. Para isso, o software utiliza não só as imagens das câmeras de ruas do Camerite e de outros aplicativos, como também informações de serviços de previsão do tempo, como os do Centro de Previsão de Tempo e Estudos Climáticos (CPTEC), do Instituto Nacional de Pesquisas Espaciais (Inpe), e do Climatempo.

Ao identificar que está chovendo em uma determinada região da cidade por meio das informações desses serviços de previsão do tempo, o software começa a coletar e armazenar imagens das câmeras de rua daquela região automaticamente.

(Agência Gestão CT&I, com informações da Fapesp)