Notícia

Gazeta do Povo

Como o big data pode dar diagnósticos mais precisos

Publicado em 10 novembro 2018

Por Jéssica Maes

Todos nós carregamos por aí um enorme banco de dados pessoais: o nosso corpo. Temperatura corporal, pressão arterial, concentração de glicose, ácido úrico, triglicérides, colesterol, dopamina e outros neurotransmissores, batimentos cardíacos, presença de anticorpos e biomarcadores para doenças específicas, nosso código genético. Tudo isso – e muito mais – forma um imenso grupo de informações que pode dizer o que está acontecendo conosco.

Essa perspectiva que enxerga não apenas o corpo humano, mas todo o planeta, como uma imensa fonte de dados que podem ser coletados, categorizados e interpretados, abre inúmeras possibilidades para a ciência. E muitos pesquisadores enxergam no big data (um grande conjunto de dados gerados e armazenados pela humanidade) uma possibilidade de tornar o diagnóstico médico mais preciso e eficiente. Aliadas à inteligência artificial, essas ferramentas têm tudo para chacoalhar o mundo da medicina.

Decisões mais Certeiras

Um exemplo é o trabalho que vem sendo feito em São Paulo por um grupo composto por 25 pesquisadores de diversos países e coordenado pela professora Agma Traina, do Instituto de Ciências Matemáticas e de Computação da Universidade de São Paulo (ICMC-USP). Usando o banco de dados reunido pelo Instituto do Coração do Hospital das Clínicas da USP (Incor), que desenvolveu e utiliza há 15 anos um sistema de prontuário eletrônico, cientistas pretendem criar uma ferramenta de inteligência artificial que ajude na tomada de decisão dos profissionais de saúde.

O sistema guarda os registros de 1,3 milhão de pacientes. “O que estamos fazendo é dar um salto da extração de conhecimento dessa estrutura de dados desses indivíduos”, aponta o professor da USP e diretor do Serviço de Informática do Incor, Marco Antonio Gutierrez, um dos pesquisadores principais do projeto. Ele ressalta que todos os registros são anonimizados para que possam ser utilizados na pesquisa. “Em hipótese alguma poderíamos invadir prontuários das pessoas. Essa não é uma base de dados pública, não é exposta e temos total controle de acesso às informações”, garante.

A ideia é catalogar e categorizar as informações de maneira que, quando um médico se deparar com algum caso em que tenha dúvidas quanto aos possíveis diagnósticos e procedimentos, possa aparar arestas com o auxílio de um sistema informatizado. “Diante de algumas observações do paciente – como pressão arterial, níveis de glicemia, resultados laboratoriais, número de internações, exames de imagens –, o médico poderá consultar o sistema, que informará pacientes que têm perfis parecidos com aquele que ele está tratando naquele momento, auxiliando na conduta do profissional”, explica o pesquisador.

Para que esse tipo de ferramenta funcione de maneira confiável, são necessárias quantidades gigantescas de dados. Isso porque as máquinas “aprendem” com base em exemplos e observações anteriores. Assim, quanto mais casos, maior a precisão no resultado. Em uma analogia grosseira, é como se alguém tentasse adivinhar uma receita só experimentando o bolo pronto: é preciso conhecer muito bem todos os ingredientes possíveis e as formas como eles podem ser modificados para chegar ao resultado correto.

Em São Paulo, outros 32 hospitais dispõem do mesmo sistema de prontuário eletrônico do Incor. Assim, caso os pesquisadores consigam criar uma ferramenta que funcione dentro desse sistema, o facilitador de diagnósticos poderia ser utilizado em todo o estado.

Financiado pela Fundação de Amparo à Pesquisa do Estado de São Paulo (Fapesp), o projeto deve ser concluído até 2022. Além das atividades formativas para os alunos de pós-graduação integrantes da equipe e da publicação de novos métodos em periódicos científicos, até o final desse prazo os cientistas pretendem ter desenvolvido novas formas de extrair e apresentar informações de maneira mais intuitiva para os profissionais da saúde e criado novas técnicas para a análise de imagens médicas.

Enciclopédia Genética

Outra abordagem possível é usar a genômica (ramo da bioquímica que estuda o genoma de organismos) para a medicina de precisão. Esse é um dos campos de pesquisa do professor Keith Crandall, diretor do Instituto de Biologia Computacional da Universidade George Washington, nos Estados Unidos, que estuda a biologia computacional, genética de populações e bioinformática, desenvolvendo e testando métodos relacionados a big data. Ele aplica esses métodos ao estudo da evolução de agentes infecciosos para determinar com exatidão qual deles está causando determinada doença.

Hospitais de ponta já estão investindo em sequenciadores para processamento de material genético, o que gera muitos dados. Crandall explica que é possível aplicar à metagenômica (estudo de material recolhido diretamente de amostras ambientais) uma técnica chamada sequenciamento shotgun (usado normalmente para sequenciamento de fitas longas de DNA). Essa abordagem, utilizada para sequenciar muitos micro-organismos cultivados e o genoma humano, corta aleatoriamente o DNA, sequencia muitas sequências curtas e as reconstrói em uma sequência de consenso (observadas em muitos sistemas diferentes que diferem geralmente em não mais que uma ou duas bases). A metagenômica shotgun fornece informações sobre quais organismos estão presentes e quais processos metabólicos são possíveis naquela determinada comunidade.

“Com isso, é possível analisar o genoma dos micróbios e hospedeiros. É possível usar esse método na medicina de precisão para sabermos quais espécies estão presentes, qual a resposta aos remédios, como as drogas estão se comportando. Baseado nisso, nós podemos encontrar melhores opções de tratamento”, conta o pesquisador.

O americano aponta que a genômica vem progredindo à medida que a tecnologia evolui. Assim, quanto maior é a nossa capacidade de coletar e processar grandes quantidades de informação, mais promissora essa área se torna. “As tecnologias continuam avançando de uma forma que temos mais dados para interpretar, obter resultados razoáveis e analisá-los”, diz.

Com a caracterização de microbioma desenvolvida pelo pesquisador é possível, por exemplo, determinar exatamente o que está causando uma doença que tem sido irresponsiva à medicação por anos. “Podemos identificar com precisão quais são as informações e dar isso aos médicos. Mas não é algo que está sendo ensinado nas faculdades de medicina, o tipo de informação com a qual [os médicos] saibam lidar”. Enquanto a bioinformática e a genômica não tiverem uma presença mais incisiva no currículo dos médicos, a equipe de Crandall se dedica a tornar os resultados de suas análises mais interpretáveis para os profissionais da saúde.

O cientista acredita que em um espaço de cinco anos nós já veremos grandes mudanças na medicina utilizando e processando grandes bases de dados. “Eu acredito que estamos em um ponto de transição de mudanças significativas na assistência médica que incorpora informações genômicas”, aposta.

Futuro promissor

Um artigo de quatro pesquisadores da USP publicado em 2016 no periódico Future Medicine aposta que, em uma ou duas décadas, a união dos dados que carregamos no nosso organismo a biossensores e supercomputadores poderá gerar um “sistema computacional global de apoio ao diagnóstico médico”. Versões mais simples desse sistema universal – como a que está sendo estudada no Incor – podem ser viabilizadas em um tempo muito menor.

Segundo o estudo, para chegar a esse sistema global são necessários três ingredientes: dados biológicos (especialmente extraídos por nanotecnologia), textos (descritivos de pacientes ou doenças) e mineração dessas informações (descobrir padrões entre eles). É na intersecção dos dois primeiros que o professor do Instituto de Física de São Carlos da USP Osvaldo Novais de Oliveira Junior, um dos autores do artigo, trabalha.

Pesquisando separadamente filmes orgânicos nanoestruturados (películas extremamente finas que podem ser usadas em sensores) e processamento de línguas naturais (uso de redes complexas para tratar texto), nos últimos anos ele percebeu a necessidade de integrar e universalizar métodos. “Quando a gente trata de dados de biossensores, usamos técnicas de visualização de informação. Nós descobrimos que a técnica mais eficiente para biossensores é uma que foi criada para classificar texto”, conta. A técnica é o software PEx- Sensors, também criado na USP São Carlos, que gera visualizações que facilitam a interpretação dos resultados detectados pelos sensores.

Uma publicação recente demonstra o potencial presente nesse tipo de abordagem. Junto de uma equipe de outros onze pesquisadores de cinco instituições, o professor desenvolveu um imunossensor para detecção precoce do câncer de pâncreas – doença de diagnóstico difícil, já que os sintomas só aparecem em estado avançado.

O método é inovador porque consegue fazer uma detecção de precisão alta e é de potencial baixo custo. Além de ter desenvolvido o biossensor, o grupo usou o PEx-Sensors para visualizar a informação.

O avanço da pesquisa depende de mais fundos para que os imunossensores possam ser feitos e testados em larga escala. Assim, é necessário que alguma empresa ou laboratório de análises clínicas tenha interesse em investir para tornar os kits comercializáveis. “Com investimentos adequados, acreditamos que em um ou dois anos já poderíamos ter o produto no mercado”, afirma Oliveira.

O artigo foi publicado no último mês de abril na revista Analyst, editada pela Royal Society of Chemistry.

GLOSSÁRIO

Para compreender melhor os termos técnicos

Dados

Sequência de informações e símbolos que pode incluir números, texto, imagens e som.

Big data

Um grande conjunto de dados gerados e armazenados pela humanidade.

Inteligência artificial

A inteligência demonstrada por máquinas e softwares, que interpretam e contextualizam um conjunto de dados e tomam atitudes para maximizar sua chance de atingir seus objetivos efetivamente.

Aprendizado de máquina

Campo da inteligência artificial que usa técnicas estatísticas para dar a sistemas computacionais a habilidade de “aprender” (ou seja, melhorar sua performance progressivamente em uma tarefa) com base em dados, sem serem explicitamente programados para isso.

Mineração de dados

Processo de descobrir padrões em grandes conjuntos de dados usando métodos na intersecção entre aprendizado de máquina, estatística e sistemas de banco de dados.

Biossensor

Dispositivo usado para a detecção de substâncias que combina um componente biológico com um detector físico-químico.