Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Bioengineering

Auto-Identificação Superior de Parasitas Tripanossomas Usando um Modelo Híbrido de Aprendizagem Profunda

Published: October 27, 2023 doi: 10.3791/65557

Summary

Parasitas sanguíneos médicos em todo o mundo foram rastreados automaticamente usando passos simples em uma plataforma de IA low-code. O diagnóstico prospectivo de filmes de sangue foi aprimorado com o uso de um método de detecção e classificação de objetos em um modelo híbrido de aprendizagem profunda. A colaboração de monitoramento ativo e modelos bem treinados ajuda a identificar focos de transmissão de tripanossomas.

Abstract

A tripanossomíase é um importante problema de saúde pública em várias regiões do mundo, incluindo o Sul da Ásia e o Sudeste Asiático. A identificação de áreas de focos de calor sob vigilância ativa é um procedimento fundamental para o controle da transmissão da doença. O exame microscópico é um método diagnóstico comumente utilizado. Depende, no entanto, principalmente de pessoal qualificado e experiente. Para resolver essa questão, um programa de inteligência artificial (IA) foi introduzido que faz uso de uma técnica híbrida de aprendizagem profunda de identificação de objetos e backbones de rede neural de classificação de objetos na plataforma interna de IA low-code (CiRA CORE). O programa pode identificar e classificar as espécies de protozoários tripanossomas, Trypanosoma cruzi, T. brucei e T. evansi, a partir de imagens microscópicas de imersão em óleo. O programa de IA utiliza o reconhecimento de padrões para observar e analisar vários protozoários dentro de uma única amostra de sangue e destaca o núcleo e o cinetoplasto de cada parasita como características específicas usando um mapa de atenção.

Para avaliar o desempenho do programa de IA, dois módulos exclusivos são criados que fornecem uma variedade de medidas estatísticas, como precisão, recordação, especificidade, precisão, pontuação F1, taxa de classificação incorreta, curvas de características operacionais do receptor (ROC) e curvas de precisão versus recall (PR). Os resultados da avaliação mostram que o algoritmo de IA é eficaz na identificação e categorização de parasitas. Ao fornecer uma ferramenta de triagem rápida, automatizada e precisa, essa tecnologia tem o potencial de transformar a vigilância e o controle de doenças. Também poderia ajudar as autoridades locais a tomar decisões mais informadas sobre estratégias de bloqueio da transmissão de doenças.

Introduction

A tripanossomíase é um desafio significativo para os problemas de saúde global devido à variedade de espécies zoonóticas causadoras de doenças humanas com ampla distribuição geográfica fora dos continentes africano e americano, como sul e sudeste da Ásia 1,2,3. A tripanossomíase africana humana (HAT), ou doença do sono, é causada pelo Trypanosoma brucei gambiense e T. b. rhodesiense que produzem as formas crônica e aguda, respectivamente, representando a maior disseminação na África. O parasita causador pertence ao grupo Salivaria devido à transmissão de moscas tsé-tsé pela saliva infectada4. Considerando que a conhecida tripanossomíase americana (doença de Chagas) causada pelo T. cruzi tem sido um problema de saúde pública para os países não endémicos; incluindo Canadá, EUA, Europa, Austrália e Japão, devido à migração frequente de indivíduos de áreas endêmicas5. A infecção por tripanossomas pertence ao grupo Stercoraria porque é transmitida pelas fezes infectadas de percevejos reduviídeos. As tripanossomíases e tripanossomoses (doença de Surra) causadas pela infecção por T. evansi são endêmicas na África, América do Sul, Ásia Ocidental e Oriental e países do Sul e Sudeste Asiático 3,6. Embora a tripanossomíase humana causada pelo tripanossoma tenha sido relatada 3,4,7,8,9,10,11,12, a via de transmissão da infecção parasitária é debatida: seja o sangue mecânico ou infectado através de insetos hematófagos como moscas tsé-tsé e tabanídeos ou mutucas 6,7, 8,9,10,12,13,14. Nenhum relato de caso foi encontrado na Tailândia, no entanto, uma alta prevalência da infecção por T. evansi em cães15, cavalos de corrida e búfalos na região leste foi publicada16, sugerindo que teria ocorrido uma transmissão adquirida entre animais domésticos. Várias infecções humanas atípicas causadas por tripanossomas animais (T. vivax, T. b. brucei, T. congolense, T. lewisi e T. evansi) foram relatadas, que não são as formas clássicas de tripanossomas humanos17. A conscientização sobre infecções humanas atípicas pode estar subestimada, destacando a necessidade de melhores testes diagnósticos e investigações de campo para detecção e confirmação desses casos atípicos, além de permitir o controle e o tratamento adequados das doenças patogênicas animais que afetam a pecuária global, a segurança alimentar18 e a saúde humana. Isso levou ao desenvolvimento de uma estratégia potencial integrada com um método comum existente (exame microscópico) para rastrear rapidamente amostras de sangue em áreas remotas durante a vigilância ativa, permitindo a identificação das zonas de pontos críticos para restringir e controlar a doença.

A incidência esporádica da doença de Surra em uma ampla gama de animais domésticos, como dromedários, bovinos, equinos e cães, que evocam um T. evansi eurixenoso, pode ser zoonótico para humanos 1,4,13,14. A infecção humana parece impossível porque um fator tripanolítico no soro humano, expresso a partir de um gene sra-like, é capaz de prevenir T. brucei e T. congolensehumanos 12,19. Além disso, como demonstra o primeiro relato de caso na Índia, a doença não tem associação com pacientes HIV imunocomprometidos4. Como descrito acima, a possível infecção humana pode estar relacionada a uma deficiência de lipoproteína de alta densidade com função anormal do fator lítico tripanossoma, que é uma desordem genética autossômica recessiva rara,a doença de Tânger4. Em 2016, descobriu-se que um paciente vietnamita possuía dois alelos APOL1 selvagens e uma concentração sérica de APOL1 dentro da faixa normal. Entretanto, a teoria da deficiência de APOL-1 não é mais considerada válida12. Portanto, um possível mecanismo de infecção por tripanossomas é o contato direto de uma ferida com sangue de animais infectados durante a criação ocupacionalde animais 4,12. O exame microscópico revela que a morfologia de T. evansi é uma forma monomórfica do tripomastigota, incluindo um tripanossoma predominantemente longo, delgado, flagelado e em divisão, que é semelhante à sua espécie relativa de T. brucei 1,12,13. O núcleo está na posição central com um pequeno cinetoplasto visível na posição posterior. Um estudo anterior indicou que o parasita pode existir em duas formas comparáveis, conhecidas como formas clássica e truncada. No entanto, ainda é necessário confirmar seus respectivos efeitos patogênicos sobre os hospedeiros20. O curso dos sintomas varia de febre intermitente associada a calafrios e sudorese. Suramin, felizmente, é uma terapia de primeira linha bem-sucedida para tripanossomíase africana humana em estágio inicial, sem invasão do sistema nervoso central (SNC), curando pacientes na Índia e no Vietnã 4,12,21.

Com exceção do exame clínico dos sinais, existem vários métodos diagnósticos para o parasita T. evansi, incluindo observação microscópica parasitológica4,9,12, testes sorológicos4,8,9,10,12 e biológicos moleculares4,12. Filmes de sangue fino corados com Giemsa são frequentemente usados para visualizar o parasita presente no exame microscópico, que é rotineira e comumente usado22. No entanto, o procedimento parece ser viável; no entanto, é demorado e trabalhoso, apresenta variabilidade na avaliação interobservadores, é sensível apenas a uma fase aguda e requer um treinamento pessoal23. Tanto a biologia molecular quanto os testes sorológicos também necessitaram de pessoal altamente qualificado para realizar múltiplos processos de preparação das amostras, incluindo a extração e purificação das amostras antes de testá-las com aparelhos caros, de difícil padronização, risco de contaminação com materiais extraparasitários e discrepâncias nos resultados24. Com base no raciocínio descrito acima, a tecnologia de triagem rápida e precoce é necessária para apoiar o estudo de vigilância de campo e garantir que o resultado da pesquisa seja relatado em tempo hábil para identificar a zona do hotspot para maior controle da transmissão da doença 1,8. Os dispositivos computadorizados (CAD) têm sido propostos como uma tecnologia inovadora para a área médica, incluindo tarefas histopatológicas ecitopatológicas25. O CAD citado acima foi realizado em alta velocidade e computado por meio de reconhecimento de padrões, ou seja, inteligência artificial (IA). O método de IA é realizado usando algoritmos de redes neurais convolucionais que podem ser usados para lidar com um grande número de amostras de conjunto de dados, especialmente, uma abordagem de aprendizado supervisionado que treina um modelo bem treinado sobre o consumo de dados.

Em geral, a IA é a capacidade dos computadores de resolver tarefas que exigem inteligência especializada, como a rotulagem de dados. O aprendizado de máquina (ML), um subcampo da IA, é representado como um sistema de computador com dois processos diferentes compostos de extração de recursos e reconhecimento de padrões. Deep learning (DL), ou algoritmos avançados de ML, refere-se ao desenvolvimento de programas e dispositivos computadorizados comparando o desempenho humano com níveis de acurácia maiores e iguais ao realizado por profissionais humanos26. Atualmente, o papel da EaD nas áreas médica e veterinária vem se expandindo e revolucionando de forma promissora a prevenção de doenças transmissíveis com o objetivo de prevenir recentemente e direcioná-la para a equipe de saúde individual22,27. A aplicação DL potencial é ilimitada com rótulos de qualidade e um grande número de conjuntos de dados aumentados, liberando especialistas para gerenciar a tarefa do projeto. Especificamente, um avanço na imagem digital, juntamente com a análise assistida por computador, melhorou o diagnóstico automático e a triagem em cinco categorias de patologia relatada; incluindo métodos estáticos, dinâmicos, robóticos, imagens de lâminas inteiras e métodos híbridos28. É necessário considerar que a integração de abordagens de algoritmos de EaD e dados de imagens digitais poderia encorajar a equipe local a utilizar a tecnologia em suas práticas diárias.

Anteriormente, o aumento na precisão de predição do uso de um modelo híbrido havia sido comprovado27. Para identificar o parasita tripanossoma em imagens microscópicas, esta pesquisa apresenta dois modelos híbridos, incorporando os algoritmos YOLOv4-tiny (detecção de objetos) e Densenet201 (classificação de objetos). Dentre vários modelos de detecção, YOLOv4-tiny com backbone CSPDarknet53 apresentou alto desempenho como resultado de predição em termos de localização e classificação29. Como o detector em tempo real modificou o equilíbrio ideal entre a resolução da rede de entrada, a quantidade da camada convolucional, o parâmetro total e o número de saídas da camada, ele melhorou a priorização de velocidades de operação rápidas e a otimização para cálculos paralelos em comparação com as versões anteriores. A Rede Convolucional Densa (DenseNet) é outro modelo popular que alcança resultados de última geração em conjuntos de dados competitivos. DenseNet201 produziu um erro de validação semelhante comparável ao do ResNet101; no entanto, o DenseNet201 tem menos de 20 milhões de parâmetros, o que é menos do que os mais de 40 milhões de parâmetros do ResNet10130. Portanto, o modelo DenseNet poderia melhorar a precisão da predição com um número crescente de parâmetros sem sinal de sobreajuste. Aqui, um programa de inteligência artificial (IA) utiliza um algoritmo híbrido de aprendizado profundo com backbones de rede neural de detecção e classificação profunda na plataforma interna CiRA CORE. O programa desenvolvido pode identificar e classificar as espécies de protozoários tripanossomas, Trypanosoma cruzi, T. brucei e T. evansi, a partir de imagens microscópicas de imersão em óleo. Essa tecnologia tem o potencial de revolucionar a vigilância e o controle de doenças, fornecendo um método de triagem rápido, automatizado e preciso. Poderia ajudar o pessoal local a tomar decisões mais informadas sobre estratégias de bloqueio da transmissão de protozoários parasitários.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Os filmes de sangue arquivados e o desenho do projeto foram aprovados pelo Comitê Institucional de Biossegurança, pelo Comitê Institucional de Cuidados e Uso de Animais da Faculdade de Ciências Veterinárias da Universidade de Chulalongkorn (IBC No. 2031033 e IACUC No. 1931027), e pelo Comitê de Ética em Pesquisa Humana do Instituto de Tecnologia de Ladkrabang do Rei Mongkut (EC-KMITL_66_014).

1. Preparação de imagens brutas

  1. A preparação do conjunto de dados de imagem
    1. Obter pelo menos 13 lâminas positivas com infecções por parasitas do sangue, incluindo T. brucei, T. cruzi e T. evansi, confirmadas por especialistas em parasitologistas. Separe os 13 slides para treinamento (10 slides) e teste (três slides).
    2. Adquira imagens dos filmes de sangue fino corado por Giemsa descritos acima sob um campo de imersão em óleo de um microscópio de luz com uma câmera digital. Obter imagens contendo múltiplos objetos dos tripomastigotas das três espécies de parasitas sob exame microscópico; Procure uma forma esbelta, caudas longas, uma membrana ondulante e um cinetoplasto na extremidade anterior.
      NOTA: A criação de esfregaços espessos e finos aumentaria a detecção de tripanossomíase de fase aguda31. A coleta de sangue por punção digital é recomendada pela OMS32. No entanto, filmes finos são mais efetivos na identificação do Trypanosoma cruzi e de outras espécies, pois esses organismos tendem a se distorcer em filmes espessos33. Em vista disso, utilizamos imagens finas de filme de sangue para manter a morfologia adequada dos parasitas para este estudo.
    3. Armazene todas as imagens em uma pasta específica do parasita com as seguintes especificações: 1.600 x 1.200 pixels, profundidade de 24 bits e formato de arquivo JPG. Divida as imagens nos conjuntos de treinamento e teste em uma proporção de ~6:1.
      NOTA: Consulte https://gitlab.com/parasite3/superior-auto-identification-of-medically-important-trypanosome-parasites-by-using-a-hybrid-deep-learning-model/-/blob/main/JOVEimage.zip; Foram divididas 650 imagens em modelo de treinamento (560 imagens) e teste (90 imagens).
    4. Defina a região de interesse como um rótulo retangular para duas classes: tripanossomas e não-tripanossomas. Use o módulo de corte automático para cortar todas as imagens detectadas usando o modelo de detecção de objetos bem treinado. O módulo de auto-corte é o módulo desenvolvido no programa interno CiRA CORE (ver Tabela de Materiais). Colete um único objeto por imagem para treinar a classificação do objeto.
      NOTA: Para este trabalho, 1.017 imagens foram divididas para treinamento (892 imagens) e teste (126 imagens). O treinamento do modelo foi realizado com quatro classes marcadas, incluindo leucócitos, T. brucei, T. cruzi e T. evansi.

2. Processo de treinamento com a plataforma interna CiRA CORE

  1. Iniciando um novo projeto
    1. Abra o aplicativo CiRA CORE na área de trabalho do computador (consulte Tabela de Materiais) e crie um novo projeto clicando duas vezes no ícone do programa.
    2. Escolha o ícone de operação na barra de ferramentas vertical esquerda para selecionar as ferramentas necessárias.
  2. Treinamento do modelo de detecção de objetos
    1. Selecione a função de modelo de treinamento-DL para rotulagem de dados e treinamento usando o método de arrastar e soltar . Vá para a barra de ferramentas Geral | CiRA AI - Brasil | Arraste DeepTrain | Solte o DeepTrain na tela (lado direito).
      NOTA: Para obter opções adicionais, clique com o botão direito do mouse na ferramenta selecionada e execute as funções apropriadas: Copiar, Recortar ou Excluir.
    2. Importe as imagens usando as configurações da ferramenta DeepTrain. Clique no botão Carregar imagens e navegue até o diretório de imagens. Rotule os objetos mantendo pressionado o botão esquerdo do mouse e nomeando o objeto selecionado. Ajuste a espessura da linha do retângulo e o tamanho da fonte clicando no botão Configuração de exibição e Salvar GT como um arquivo .gt no mesmo diretório.
      NOTA: Salve conforme necessário para evitar quaisquer condições indesejadas, como falta de energia, fechamentos automáticos de programas e travamento dentro do processo de rotulagem.
    3. Antes do treinamento do modelo, expanda os dados para coletar informações suficientes usando as quatro técnicas de aumento: Rotação, Contraste, Ruído e Desfoque. Clique no botão Configuração de geração para acessar esse recurso.
    4. Inicie o treinamento do modelo clicando no botão Treinamento na ferramenta DeepTrain . A parte de treinamento tem duas subfunções: Gerar arquivos de treinamento e Treinar. Na função Gerar arquivos de treinamento , selecione os modelos desejados, o tamanho do lote e as subdivisões. Clique no botão Gerar para gerar dados e salvá-los no diretório. Na função Trem , escolha as seguintes opções: i) usar outro local de treinamento gerado para condições e backup, ii) usar pesos pré-construídos para treinamento contínuo ou iii) substituir parâmetros para o projeto de treinamento atual. Isso projetará a configuração do modelo e as condições de treinamento.
      Observação : o tempo do processo de geração depende do tamanho do arquivo de imagem, uso de aumento e espaço de memória disponível.
    5. Quando todas as configurações necessárias estiverem concluídas, inicie o treinamento do modelo clicando no botão Treinar . Permitir que o programa seja executado continuamente, avaliando a perda de treinamento e ajustando o peso do conjunto de dados durante o processo de treinamento. Se o modelo atingir a perda ideal, salve o arquivo de peso treinado no diretório especificado clicando no botão Exportar .

3. Avaliação do modelo de detecção de objetos

  1. Selecione a função de avaliação do modelo de detecção de objeto para avaliação do modelo usando o método de arrastar e soltar . para a barra de ferramentas Plugin | Avaliar | Arraste EvalDetect | Solte EvalDetect na tela (lado direito).
  2. Clique em Configuração e aguarde três funções: Detecção, Avaliação e Plotagem. Inicie a avaliação do modelo importando o arquivo de peso treinado do diretório (etapa 2.2.5) clicando em Load Config.
  3. Na função Detecção , selecione o valor de supressão não máxima (NMS) para melhorar a precisão eliminando detecções redundantes de falso positivo (FP). O NMS remove detecções geradas por modelos duplicados para melhorar a confiabilidade.
  4. Prossiga com as seguintes etapas na função Avaliação :
    1. Importe imagens de teste do diretório do arquivo de imagem clicando em Procurar. Importe o arquivo GT do diretório onde ele foi salvo na etapa 2.2.2 clicando em Load GT.
    2. Escolha o valor Intersection over Union (IoU) para avaliar a precisão no conjunto de dados de teste de imagem específico.
    3. Clique no botão Avaliação para avaliar o modelo de detecção no diretório especificado. Uma vez concluída a avaliação, os resultados serão salvos automaticamente como um arquivo CSV no mesmo diretório, classificados por nome de classe. Esse arquivo CSV fornecerá parâmetros essenciais como True Positive (TP), False Positive (FP), False Negative (FN), Rerecall e Precision para cada classe.
  5. Para plotar a curva Precision-Recall (PR), siga estas etapas na função Plotar : Importe os arquivos CSV do diretório da seção anterior (etapa 3.4) clicando em Procurar. Escolha classes na lista e clique no botão Plotar para exibir a imagem da curva PR editável.
  6. Finalmente, para salvar uma imagem com os valores AUC da curva PR no formato de imagem necessário no diretório especificado, clique no botão Salvar da imagem.

4. Recorte de imagem para um único objeto por imagem

  1. Antes de cortar as imagens, conclua as seguintes etapas:
    1. Importe as imagens do diretório do arquivo de imagem acessando as configurações da ferramenta Slide de imagem.
    2. Importe o arquivo de peso treinado (salvo na etapa 2.2.8) acessando as configurações da ferramenta Deep Detect. Clique no botão Config | + botão, selecione o back-end (CUDA ou CPU), forneça um nome, clique em OK, escolha o diretório do arquivo de peso e clique em Escolher. Dentro da ferramenta Deep Detect, selecione os parâmetros de detecção (limiar e supressão não máxima (nms)); parâmetros de desenho; parâmetros de rastreamento; e parâmetros de região de interesse (ROI).
    3. Selecione o diretório onde as imagens cortadas serão salvas acessando as configurações da ferramenta Deep Crop . Clique em Procurar | escolha o diretório para salvar as imagens cortadas | clique em Escolher | selecione o formato da imagem (jpg ou png) | ative a opção Salvamento automático.
  2. Recorte imagens para obter um único objeto por imagem para classificação e segmentação de imagens. Para realizar esse processo, utilize quatro ferramentas e estabeleça conexões entre elas: acesse a barra de ferramentas Geral | Geral | Botão Executar. Em seguida, navegue até a barra de ferramentas Geral | CiRA AI - Brasil | DeepDetect; em seguida, vá para a barra de ferramentas Geral | CiRA AI - Brasil | DeepCrop. Finalmente, vá para a barra de ferramentas Imagem | Aquisição | ImageSlide.
  3. Quando todas as configurações necessárias estiverem em vigor, inicie o processo de corte de imagem clicando na ferramenta Executar botão .
  4. Obtenha um novo conjunto de dados de treinamento de imagem que consiste em imagens de objeto único com um tamanho de 608 x 608.

5. Classificação da imagem como modelo de treinamento

  1. Use arrastar e soltar para selecionar a função de treinamento do modelo de classificação de imagem para treinamento de dados. Vá para a barra de ferramentas Imagem | DeepClassif - Brasil | Arraste ClassifTrain | Solte ClassifTrain na tela.
  2. Importe imagens para treinamento de modelo usando as configurações da ferramenta ClassifTrain . Clique no botão Abrir pasta e navegue até o diretório de imagem desejado. Antes de treinar, expanda os dados clicando no botão Aumento para obter mais informações usando técnicas como Rotação, Contraste, Inversão (horizontal e/ou vertical), Ruído e Desfoque.
  3. Para iniciar o treinamento do modelo, clique no botão GenTrain da ferramenta ClassifTrain . Na função GenTrain , selecione os modelos, o tamanho do lote e as subdivisões. Atribua um diretório para salvar o arquivo gerado. Clique no botão Gerar para prosseguir com os dados para treinamento. Na função Treinar , marque as opções apropriadas: Continuar treinando com peso padrão ou peso personalizado.
    Observação : o processo de geração pode levar tempo dependendo de fatores como tamanho do arquivo de imagem, uso de aumento, balanceamento de classe e espaço de memória disponível.
  4. Quando todos os preparativos estiverem concluídos, inicie o treinamento do modelo clicando no botão Iniciar . Permitir que o programa seja executado continuamente, avaliando a perda de treinamento e ajustando o peso do conjunto de dados durante o processo de treinamento. Se o modelo atingir o nível de perda desejado, salve o arquivo de peso treinado no diretório especificado clicando no botão Exportar .

6. Avaliação do modelo de classificação

  1. Selecione a função de avaliação do modelo de classificação de imagem para avaliação do modelo usando o método de arrastar e soltar . Vá para a barra de ferramentas Plugin | Avaliar | Arraste EvaluateClassif | Solte EvaluateClassif na tela (lado direito).
  2. Clique em Configuração para acessar funções adicionais dentro da ferramenta EvaluateClassif , ou seja, Avaliar e PlotROC.
  3. Para iniciar a avaliação do modelo, clique no botão Avaliar na ferramenta EvaluateClassif . Siga estas etapas na função Avaliar .
    1. Importe as imagens de teste do diretório do arquivo de imagem clicando na imagem da pasta Carregar. Importe o arquivo de peso treinado do diretório (salvo na etapa 5.4) clicando em Load Config. Clique no botão Iniciar para avaliar o modelo de classificação.
    2. Quando a avaliação estiver concluída, salve o arquivo avaliado como CSV no diretório especificado clicando no botão Exportar para CSV . Para avaliação de dados em cada limite, salve o arquivo CSV com nomes de classe no diretório especificado clicando em Iniciar todo o limite. O arquivo CSV salvo inclui parâmetros como Recall (True Positive Rate), False Positive Rate e Precision para cada classe.
  4. Para plotar a curva Receiver Operating Characteristics (ROC), clique no botão PlotROC dentro da ferramenta EvaluateClassif . Siga estas etapas na função PlotROC .
    1. Importe arquivos CSV do diretório obtido anteriormente clicando em Procurar. Inspecione a lista de classes importadas e selecione cada rótulo de classe para plotar a curva ROC.
    2. Clique no botão Plotar para visualizar a curva ROC como uma imagem. Faça as edições desejadas para ajustar as propriedades da imagem, incluindo tamanho da fonte, cores da fonte, arredondamento decimal, estilos de linha e cores de linha.
  5. Finalmente, salve uma imagem da curva ROC com os valores AUC no formato de imagem necessário no diretório especificado clicando no botão Salvar .

7. Testando o processo com o aplicativo CiRA CORE

  1. Detecção de objetos como teste de modelo
    1. Para realizar testes de modelo, utilize quatro ferramentas e estabeleça conexões entre elas. Vá para a barra de ferramentas Geral | Geral | Botão Executar. Em seguida, barra de ferramentas Geral | Geral | Depurar. Depois disso, clique na barra de ferramentas Geral | CiRA AI - Brasil | DeepDetect e, finalmente, barra de ferramentas Imagem | Aquisição | ImageSlide.
    2. Antes de testar as imagens, siga estas etapas:
      1. Importe as imagens de teste do diretório do arquivo de imagem clicando na opção Configuração na ferramenta Slide de imagem .
      2. Importe o arquivo de peso treinado salvo da etapa 2.2.8 clicando na opção Configuração na ferramenta DeepDetect . Clique no botão Config , depois no botão +, selecione o back-end (CUDA ou CPU), forneça um nome, clique em OK, escolha o diretório do arquivo de peso e clique em Escolher. Na ferramenta DeepDetect , selecione os parâmetros de detecção (Threshold e nms), parâmetros de desenho, parâmetros de rastreamento e parâmetros de ROI.
      3. Visualize os resultados da imagem de teste clicando na função de imagem na ferramenta Depurar .
    3. Finalmente, verifique os resultados previstos para cada imagem clicando no botão Executar na ferramenta Executar botão.
  2. Classificação de imagens como teste de modelo
    1. Para realizar testes de modelo, utilize quatro ferramentas e estabeleça conexões entre elas. Vá para a barra de ferramentas Geral | Geral | Botão de execução; em seguida, barra de ferramentas Geral | Depurar. Depois disso, navegue até a barra de ferramentas Imagem | Aquisição | ImageSlide e, finalmente, barra de ferramentas Imagem | DeepClassif - Brasil | DeepClassif.
    2. Antes de testar as imagens, siga estas etapas:
      1. Importe as imagens de teste do diretório do arquivo de imagem clicando na opção Configuração na ferramenta Slide de imagem .
      2. Importe o arquivo de peso treinado salvo da seção 5.5 clicando na opção Configuração na ferramenta DeepClassif . Clique no botão Config | + botão | selecione o back-end (CUDA ou CPU) | Forneça um nome | clique em OK | Escolha o diretório Weight File | clique em Escolher. Na ferramenta DeepClassif , selecione os parâmetros de classificação (Limite e número de previsões de classe superior), os parâmetros do mapa do Guia (limiar, alfa, beta e mapa colorido) e vários parâmetros no mapa colorido.
      3. Visualize os resultados da imagem de teste clicando na função de imagem na ferramenta Depurar .
    3. Finalmente, verifique os resultados previstos para cada imagem clicando no botão Executar na ferramenta Executar botão.

8. Híbrido (detecção e classificação) como teste de modelo

  1. Para realizar esse teste de modelo, utilize quatro ferramentas e estabeleça conexões entre elas. Vá para a barra de ferramentas Geral | Geral | ButtonRun. Em seguida, barra de ferramentas Geral | Geral | Depurar. Depois disso, a barra de ferramentas Imagem | Aquisição | ImageSlide e, finalmente, barra de ferramentas Imagem | DeepComposite - Brasil | DeepD->C.
  2. Antes de testar as imagens, siga estas etapas: Importe imagens de teste do diretório do arquivo de imagem clicando na opção Configuração na ferramenta Slide de imagem . Importe os dois arquivos de peso treinados salvos da seção 2.1.5 e da seção 4.4 clicando na opção Configuração na ferramenta DeepD->C :
    1. Para a função Detectar, clique no botão Config |+, selecione o back-end (CUDA ou CPU) | Forneça um nome | clique em OK | escolha o diretório do arquivo de peso | clique em Escolher. Na função Detectar, selecione os parâmetros de detecção (Threshold e nms), parâmetros de desenho, parâmetros de rastreamento e parâmetros de ROI.
    2. Para a função Classif, clique no botão Config |+, selecione o back-end (CUDA ou CPU) | Forneça um nome | clique em OK | escolha o diretório do arquivo de peso | clique em Escolher. Na função Classif, selecione os parâmetros de classificação (Limiar e número de previsões de classe superior) e os parâmetros do mapa Guia (limiar, alfa, beta e mapa de cores).
  3. Visualize os resultados da imagem de teste clicando na função de imagem na ferramenta Depurar . Finalmente, verifique os resultados previstos para cada imagem clicando no botão Executar na ferramenta Executar botão.

9. Validação cruzada de cinco vezes

NOTA: Para validar o desempenho do modelo proposto de forma mais eficaz, a validação cruzada K-fold é usada.

  1. Divida o conjunto de dados em cinco seções, correspondendo às cinco dobras da validação cruzada. Durante cada iteração de treinamento e teste de modelo, use uma seção como o conjunto de validação para teste e as quatro seções restantes para treinamento. Repita esse processo cinco vezes, com cada dobra sendo usada como o conjunto de validação uma vez.
  2. Para as dobras 1 a 5:
    1. Repita a seção 5 para treinar o modelo usando os dados de treinamento das quatro dobras.
    2. Repetir o ponto 7.2 para testar o modelo utilizando a dobra restante como conjunto de ensaio.

10. Avaliação do modelo

  1. Matriz de confusão
    1. Com base nos resultados dos testes, as quatro condições acontecerão da seguinte forma:
      1. True Positive (TP): Quando a imagem de entrada é verdadeira e a previsão também é verdadeira.
      2. Falso Positivo (FP): Quando a imagem de entrada é falsa, mas a previsão é verdadeira.
      3. Falso Negativo (FN): Quando a imagem de entrada é verdadeira, mas a previsão é falsa.
      4. True Negative (TN): Quando a imagem de entrada é falsa e a previsão também é falsa.
    2. Utilizando essas quatro condições, avalie os desempenhos com a matriz de confusão.
  2. Avaliações de desempenho
    1. As métricas de desempenho de classificação mais usadas são valores de precisão, precisão, recordação, especificidade e pontuação F1. Calcule todas as métricas de avaliação em equações (1-6) usadas para avaliar o desempenho do modelo a partir de valores da matriz de confusão.
      Equation 1()
      Equation 2()
      Equation 3()
      Equation 4()
      Equation 5()
      Equation 6(6)
  3. Curva ROC
    NOTA: A curva ROC é uma medida de desempenho para problemas de classificação com diferentes configurações de limite. A área sob a curva ROC (AUC) representa o grau ou medida de separabilidade, enquanto a ROC é uma curva de probabilidade.
    1. A curva ROC é um gráfico bidimensional com os valores de taxa de verdadeiro positivo (TPR) e taxa de falso positivo (FPR) plotados nos eixos Y e X, respectivamente. Construa as curvas ROC usando os valores de TPR e TFR obtidos da matriz de confusão. O valor de TPR é o mesmo que a sensibilidade; calcular o valor da FPR usando a equação (7).
      Equation 7(7)
    2. Depois de obter os valores TPR e FPR, plote a curva ROC usando a ferramenta web de código aberto Jupyter Notebook em um ambiente Python. A AUC é uma maneira eficaz de avaliar o desempenho do modelo proposto na análise da curva ROC.
  4. Curva PR
    1. Use a curva PR para avaliar modelos medindo a área sob a curva PR. Construa a curva PR plotando a precisão e a evocação dos modelos usando as funções de limiar de confiança do modelo. Como a curva PR também é um gráfico bidimensional, plote Recall no eixo x e Precisão no eixo y.
    2. Plote a curva PR, como a curva ROC, usando a ferramenta web de código aberto Jupyter Notebook em um ambiente Python. A área sob o escore da curva de Precisão-Recordação (AUC) também é útil na classificação multilabel.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Neste estudo, algoritmos híbridos de aprendizagem profunda foram propostos para ajudar a prever automaticamente a positividade de uma amostra de sangue com uma infecção por parasita tripanossoma. Filmes de sangue arquivados e corados com Giemsa foram classificados para localizar e classificar os parasitados versus não parasitas usando o algoritmo de detecção de objetos baseado em uma rede neural de backbone darknet. Dentro de qualquer resultado de predição de caixa retangular obtido pelo modelo anterior, o modelo de classificação mais bem selecionado foi desenvolvido para classificar todas as três espécies de tripanossomas importantes para fins médicos e veterinários, incluindo T. brucei, T. cruzi e T. evansi. A saída final dos modelos híbridos utilizados revelou a robustez dos modelos propostos contra a variação de imagens microscópicas de 100x que podem afetar o resultado da predição, incluindo a morfologia do estádio sanguíneo do parasita. Além disso, fatores ambientais podem perturbar a qualidade da imagem da mudança de cor da coloração, armazenando tempo, intensidade das fontes de luz do microscópio e habilidades de preparação de filme sanguíneo. No entanto, o modelo mais bem selecionado pode atingir o objetivo com alto desempenho.

Localização e classificação de rótulos multiclasse
Uma vez que a detecção de protozoários parasitas a partir de filme sanguíneo corado por Giemsa sob microscopia de imersão em óleo é tediosa e prolonga o tempo de resposta, isso leva a um viés de erro propenso. Abordagens de IA bem treinadas exigem um grande conjunto de dados de imagem com reescalonamento de 416 x 416 pixels e características de recursos variados de canais de cores 3-RGB para aumentar a previsão correta de localização e classificação. O número de parâmetros durante o treinamento e os modelos de otimização é configurado com uma taxa de aprendizado de 0,002, burn-in de 1.000 e etapas variando entre 400.000 e 450.000. Baixa perda de treinamento, mas alta precisão de treinamento foram considerados o nível ótimo ou saturação sob momento de 0,9, matiz de 0,1 e decaimento de 0,0005. Na fase de testes com dados inéditos, foi realizada a correta localização e classificação, utilizando-se os conceitos de intersecção sobre união (IOU) e porcentagem de probabilidade. O resultado da interpretação do teste foi realizado em um limiar de 50% e uma supressão não máxima (SNM) de 0,4, o que deu a resposta correta com % de probabilidade.

Como em todos os hemogramas parasitados estudados, a discriminação do tripanossoma do não-tripanossoma foi realizada utilizando-se um modelo de rede neural de detecção que pode funcionar tanto para localização quanto para classificação (Figura 1)22. O resultado da predição da tarefa de detecção proposta revelou um resultado excepcional com uma precisão média de 93,10% (Tabela 1). Embora o modelo de detecção treinado possa ser usado para identificar a classe não-tripanossoma mais do que aquele usado para identificar o parasita tripanossoma, ele nos traz uma precisão maior do que 91% para ambos os rótulos de classe. Além disso, a curva de precisão versus recordação mostrou um valor de AUC altamente médio de 0,969, o que deu os valores de AUC para o parasita e não parasita em 0,976 e 0,961, respectivamente (Figura 2). Isso nos levou a garantir que o modelo treinado poderia ser confiável. A caixa retangular do primeiro resultado da detecção foi cortada usando o módulo de captura de imagem sob o programa interno CiRA CORE. As imagens recortadas mencionadas acima foram classificadas em três pastas específicas para as espécies de tripanossomas. Esse processo foi preparado para inserir dados para o modelo de classificação de treinamento que será ilustrado na próxima subseção.

Classificação por modelo de classificação
Para encontrar um modelo adequadamente treinado para classificar as espécies conhecidas do parasita, T. brucei, T. cruzi e T. evansi foram mantidos em pastas que receberam seus nomes de classe relativos. Durante o treinamento de IA, 256 x 256 pixels de imagens redimensionados foram alimentados em três canais RGB, taxa de aprendizado de 0,1, burn-in de 1000, momento de 0,9, matiz de 0,1 e decaimento de 0,0005. A perda de treinamento e a precisão do treinamento foram usadas para encontrar o modelo treinado ideal. A predição da classificação foi analisada utilizando-se os conceitos de determinação pixel a pixel e % de probabilidade no limiar de 50%.

A comparação de três algoritmos de redes neurais de classificação popular foi estudada para encontrar o melhor27,30. Essas três redes neurais têm sido amplamente utilizadas na classificação de rótulos multiclasse nas áreas médica e veterinária 27,34,35. O resultado da inferência do modelo treinado com % de probabilidade classificada de 0 a 1, foi justificado acima do limiar de 50%. Adicionalmente, diferentes reconhecimentos de padrões de cada parasita foram destacados e específicos para o núcleo da porção média de T. evansi pelo mapa de atenção. A maior organela cinetópica da porção anterior do T. cruzi quando comparada às outras duas espécies também foi destacada. Tanto a nuclease quanto o cinetoplasto foram enfatizados pelo mapa de atenção encontrado para T. brucei (Figura 3).

Várias métricas estatísticas foram utilizadas para medir os três modelos propostos, incluindo acurácia, taxa de erro de classificação, recordação (taxa de verdadeiros positivos), especificidade (taxa de verdadeiros negativos), taxa de falsos positivos, taxa de falsos negativos, precisão e escore de F1. Como resultado, quase todas as métricas de avaliação utilizando a rede neural Densenet201 apresentaram valores superiores às demais. Em média, os valores métricos de acurácia, recordação, especificidade, precisão e escore F1 foram notavelmente maiores e iguais a 98%. No entanto, a importância do desempenho do modelo revelou menor e igual a 1,5% das taxas de erros de classificação, falsos positivos e falsos negativos (Tabela 2). Considerando a comparação por classe, o modelo Densenet201 parece identificar corretamente T. evansi sem erro ao fazer isso com dados de teste invisíveis, sugerindo que o modelo treinado potencial é para distinguir as espécies de parasitos.

Na Figura 4A-C, a AUC sob a curva ROC apresentou o maior grau de acurácia média de 0,931 obtida a partir do melhor modelo de classificação (Figura 4C), o que foi representativo da confirmação do melhor modelo selecionado estudado. A AUC de T. evansi foi de 0,817, que é menor do que as demais (0,980-1,00 para T. brucei e 0,955-0,977 para T. cruzi) e contrasta com as métricas estatísticas acima. Isso pode ocorrer porque esses dois valores são calculados por fórmulas diferentes. A AUC foi obtida de todos os limiares, mas a métrica estatística de apenas um limiar de 50%, sugerindo que esses dois valores não podem ser comparados. Assim, valores consistentes de AUC por nomes de classe obtidos dos três modelos indicam a acurácia geral de T. brucei > T. cruzi > T. evansi, respectivamente.

validação cruzada k-fold
Para avaliar a robustez do modelo de classificação mais bem selecionado estudado em termos de estimar o verdadeiro erro de predição e ajustar os parâmetros do modelo conforme descrito acima36, foi utilizada a técnica de validação cruzada de cinco vezes. Foi feita uma divisão aleatória dos dados em cinco pastas. Dados treinados atribuídos por quatro pastas e dados testados para a pasta restante foram preparados antes do treinamento com o algoritmo de classificação selecionado.

Como resultado, as métricas estatísticas médias; acurácia, evocação (taxa verdadeira positiva), especificidade (taxa verdadeira negativa), precisão e escore F1 forneceram valores semelhantes das métricas estatísticas estudadas que se mostraram superiores a 98% (Tabela 3). Considerando cada métrica estudada, encontrou-se uma classificação de acurácia de 0,992-1,000. Altos valores de especificidade, variando de 0,994 a 1,000, foram fornecidos. Tanto os escores recordatórios quanto os da F1 variando de 0,988 a 1,000 foram mostrados, da mesma forma, 0,989-1,000 foram estudados com precisão. Curiosamente, baixas taxas de erros de classificação, falsos negativos e falsos positivos foram encontradas em menos de 1,2%. Esse desempenho de qualidade suportou o excelente modelo treinado com dobras de dados variadas e robustez representada.

Acompanhando as métricas propostas, a AUC média sob a curva ROC obtida revelou valores fechados variando de 0,937 a 0,944, dando valores semelhantes de acurácia geral entre as cinco dobras dos dados (Figura 5). A comparação por classe forneceu uma AUC variada de 0,831 para T. evansi, 0,982-1,000 para T. cruzi e 1,000 para T. brucei. Embora o valor da AUC de T. evansi tenha sido menor que os demais, os valores podem estar expostos ao alto grau de taxa de falsos positivos (~33%) pertencente aos limiares de 1% a 97%, o que resulta em menores valores de AUC quando comparados aos das outras duas classes (Figura 6).

O deep learning híbrido uma triagem prática
Nesta seção, a contribuição da abordagem híbrida de aprendizagem profunda entre a detecção de objetos e, por outro lado, a técnica de classificação é mostrada na Figura 7. As características parasitárias e não parasitárias foram distinguidas e suas classes relativas identificadas dentro da caixa delimitadora rosa usando o primeiro modelo de detecção. Em seguida, as espécies específicas do parasito foram diagnosticadas em diferentes cores usando o modelo de classificação bem treinado. O rótulo verde foi para T. evansi, o rótulo rosa para T. brucei e o rótulo laranja para T. cruzi. O segundo rótulo de classificação não seria mostrado se o primeiro modelo de detecção falhasse, sugerindo as funções bem conectadas entre esses dois backbones de rede neural diferentes no módulo D-C da plataforma interna CIRA CORE.

Figure 1
Figura 1: Arquitetura para um modelo híbrido. Todas as três espécies de tripanossomas (incluindo Trypanosoma evansi, T. brucei e T. cruzi) foram utilizadas como entrada. Multiobjetos dentro de uma imagem microscópica de 100x foram detectados usando o modelo de detecção. Um único objeto cortado do modelo anterior foi então classificado de acordo com sua espécie relativa usando o modelo de melhor classificação. Um mapa de atenção integrado com o melhor modelo de classificação destacou áreas específicas para cada rótulo de classe. Clique aqui para ver uma versão maior desta figura.

Figure 2
Figura 2: Curva PR. A área sob a curva PR, ou valor de AUC, neste estudo, é usada para medir a capacidade de discriminação entre as classes de não-tripanossomo e tripanossoma. Todas as amostras podem ser detectadas em ambos os rótulos de classe. Uma AUC de 1 é uma previsão perfeita, enquanto uma AUC de 0,5 é uma previsão aleatória. A curva é utilizada para medir o desempenho do modelo de detecção proposto. Esse modelo pode detectar a classe dos tripanossomas em uma taxa maior (AUC = 0,976) do que a classe dos não tripanossomas (AUC = 0,961). O valor médio de AUC de 0,969 foi obtido a partir do resultado binário de dois rótulos de classe, o não-tripanossoma e o tripanossoma. Abreviaturas: RP = precisão versus recordação; AUC = área sob a curva. Clique aqui para ver uma versão maior desta figura.

Figure 3
Figura 3: Resultado preditivo do modelo de classificação. Todas as três espécies de tripanossomas foram usadas para testar os melhores modelos treinados propostos. Imagens de saída de mapas de probabilidade e atenção baseados em classificação de espécies são mostradas. Especificamente, os mapas de atenção destacaram as áreas significativas dentro do objeto invisível que estavam orientando a discriminação das espécies de parasitas. Clique aqui para ver uma versão maior desta figura.

Figure 4
Figura 4: Curvas ROC baseadas em comparação por modelo. A AUC sob a curva ROC é um gráfico do desempenho de um sistema de classificação baseado em seu variado limiar de discriminação. Semelhante à curva AUC-PR, a AUC-ROC de 1 é uma previsão perfeita, enquanto a AUC de 0,5 é uma predição aleatória, que é indicada por linhas tracejadas em cada gráfico. Três modelos de classificação foram comparados, incluindo (A) o 1º modelode classificação com uma AUC média de 0,925, (B) a classificação com uma AUC média de 0,924, e (C) a melhor classificação com uma AUC média de 0,931. Portanto, quanto maior a AUC, melhor o desempenho. Abreviações: ROC = receiver operating characteristics; AUC = área sob a curva. Clique aqui para ver uma versão maior desta figura.

Figure 5
Figura 5: Validação cruzada em cinco vezes. Todos os experimentos baseados nos melhores modelos de redes neurais de classificação foram comparados. Valores similares de AUC de cinco vezes os dados incluíram (A) 0,944, (B) 0,944, (C) 0,937, (D) 0,941 e (E) 0,938, o que sugere a robustez do modelo treinado proposto contra a variação dos dados biológicos. Clique aqui para ver uma versão maior desta figura.

Figure 6
Figura 6: Taxa de verdadeiros positivos e taxa de falsos positivos por nome de classe. O eixo X é representativo de limiares de 1% a 97%. O eixo Y é representativo dos graus das métricas estatísticas. Clique aqui para ver uma versão maior desta figura.

Figure 7
Figura 7: Saída final dos modelos híbridos. A etapa final da contribuição do modelo híbrido pode ser aplicada com dados de entrada como uma imagem microscópica bruta de 20 μm. O resultado preditivo pode ser obtido tanto a partir da detecção de objetos quanto dos modelos de classificação. O primeiro resultado preditivo forneceu se a imagem de teste invisível continha parasitas tripanossomas com retângulo (rótulos cor-de-rosa). Em seguida, os resultados da classificação específica para a espécie parasitária serão seguidos pela primeira detecção com rótulos multicoloridos; verde para T. evansi, rosa para T. brucei e laranja para T. cruzi. Clique aqui para ver uma versão maior desta figura.

Tabela 1: Precisão média por classe e média Precisão média (mAP) do modelo de detecção. Clique aqui para baixar esta tabela.

Tabela 2: Comparação entre modelos de classificação. Oito métricas de avaliação foram utilizadas para medir o desempenho do modelo, incluindo acurácia, taxa de erro de classificação, recordação (taxa de verdadeiros positivos), especificidade (taxa de verdadeiros negativos), taxa de falsos positivos, taxa de falsos negativos, precisão e escore F1. O valor em negrito é representativo do maior valor por rótulo de classe. O valor em itálico é representativo do valor médio de cada métrica de avaliação. Clique aqui para baixar esta tabela.

Tabela 3: Validação cruzada de cinco vezes. O valor em negrito é representativo do valor médio por métrica de avaliação. Clique aqui para baixar esta tabela.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

A observação microscópica para a infecção por protozoários Trypanosoma é precoce e comumente usada, especialmente durante a vigilância em áreas remotas, onde há falta de técnicos qualificados e processos trabalhosos e demorados, que são obstáculos para relatar a organização de saúde em tempo hábil. Embora técnicas de biologia molecular, como imunologia e reação em cadeia da polimerase (PCR), tenham sido aprovadas como métodos de alta sensibilidade para apoiar a eficácia dos achados laboratoriais, produtos químicos, aparelhos e profissionais caros são necessários para lidar com eles, que estão localizados principalmente em um laboratório central em um grande centro de saúde. A morfologia compartilhada, a infecção mista e imatura e as características de três espécies de Trypanosoma são propensas a viés de usuário e identificação errônea, reduzindo a resposta a drogas e a medida de controle37. Usar os algoritmos modificados e híbridos entre dois modelos de aprendizagem profunda diferentes dentro do programa de IA proposto pode superar muitos desafios, tornando uma nova era de taxonomia padrão automática e alcançável. Publicações anteriores confirmaram o potencial dos modelos híbridos na identificação dos estágios sanguíneos da malária27,38. Aqui está a explicação do protocolo para treinamento, teste e avaliação dos modelos de IA propostos para reconhecer os estágios maduros de três espécies bem conhecidas de Trypanosoma com um processo simplificado de análise para identificação prática e posterior quantificação do protozoário parasita sob um campo microscópico.

O modelo proposto vai além do modelo de aprendizado de máquina usando o algoritmo de floresta aleatória, que tem sido aplicado para identificar a infecção de T. cruzi a partir de amostras de esfregaço sanguíneo. O modelo de aprendizado de máquina alcançou uma precisão de 87,6%, uma sensibilidade de 90,5% e uma área sob a curva característica de operação do receptor de 0,94239. Em 2015, dois métodos chamados aprendizagem AdaBoost e aprendizagem SVM foram conduzidos para distinguir T. cruzi da infecção por malária em esfregaços sanguíneos. Embora um alto grau de sensibilidade e especificidade tenha sido relatado, um conjunto limitado de dados de 120 imagens coloridas de baixa dimensão 256 × 256 pixels foi estudado, o que pode não ser representativo de toda a população40. Neste estudo, três espécies zoonóticas bem conhecidas de Trypanosoma (e.g., T. cruzi, T. brucei e T. evansi) foram separadas usando o modelo híbrido proposto, que superou os estudos anteriores descritos acima. Isso representa o custo-benefício do modelo de deep learning. No entanto, vários grandes conjuntos de dados podem requerer a validação do desempenho do modelo proposto para confirmar sua generalização41. O T. lewisi tem o potencial de infectar humanos oportunisticamente e é reconhecido como uma doença zoonótica emergente transmitida por ratos, muitas vezes ligada a condições empobrecidas. Casos têm sido documentados em alguns países, como Tailândia e China20,42. Além disso, as morfologias de T. evansi e T. lewisi guardam uma semelhança marcante17. Para melhorar o conjunto de dados e o modelo proposto, a inclusão de mais instâncias de T. lewisi poderia ser benéfica no desenvolvimento de um modelo de aprendizagem profunda no futuro. Para ampliar o escopo de potenciais técnicas de aprendizado profundo para o diagnóstico de tripanossomoses animais adicionais, é aconselhável reunir conjuntos de dados para outras espécies, como T. vivax, T. theileria e T. melophagium. Um desafio significativo a ser enfrentado é o diagnóstico de infecções mistas envolvendo várias espécies de Trypanosoma, uma vez que os métodos de detecção de anticorpos podem apresentar especificidade reduzida devido a reações cruzadas43. É essencial aprimorar e fortalecer as técnicas de diagnóstico para avançar nas aplicações de inteligência artificial e salvaguardar a saúde do gado, dos seres humanos e do meio ambiente.

Antes de treinar o programa de IA proposto para reconhecer a imagem 2D do protozoário parasita, os critérios importantes necessários para completá-la, como um grande tamanho de amostra, balanceamento de classe, aumento de dados e rotulagem de qualidade por especialistas. Como etapas críticas, o sinal de erro da fase de treinamento pode ser desvendado por profissionais para reproduzir os rótulos de verdade básicos para os algoritmos Darknet e Densenet. Uma grande vantagem do programa de IA proposto é seu uso amigável para usuários que não codificam através de etapas fáceis de arrastar e soltar. Outra característica importante é o módulo de combinação da versão de detecção e mapa de atenção integrado com os modelos de classificação, o que ajuda a facilitar o teste dos dados invisíveis o mais rápido possível sem se preocupar com o formato de arquivo de imagem bruta. Isso ocorre porque uma gama mais ampla de formatos de imagem pode ser usada, incluindo .jpeg, .jpg, .png, .tif, .tiff, .pdf e .bmp. A aplicação do programa de IA com um componente c-mount do microscópio pode levar à detecção em tempo real em áreas remotas.

Limitações do método podem afetar os protocolos propostos na fase pré-treinamento. Antes de começar a treinar um modelo de IA, alguns requisitos devem ser bem preparados, especificamente, qualidade do conjunto de dados e rótulos de especialistas. Dentro do conjunto de dados, um pequeno tamanho de amostra e o desbalanceamento de classes levaram o modelo a atingir os mínimos globais e ter dificuldade em atingir o estágio ótimo. O uso de um grande tamanho de amostra e o balanceamento dos dados ajudam a otimizar o modelo com alta precisão e baixa perda durante o treinamento. A variação das imagens, como o estágio de desenvolvimento através do período do ciclo de vida do protozoário e a cor variada pela coloração de Giemsa27,44, as escalas ambiental e de imagem, desejam ser normalizadas antes de alimentar o treinamento de ambos os modelos de aprendizagem profunda. Para corrigir os problemas propostos mencionados acima, várias funções de aumento, como ângulos de rotação, brilho e contraste, inversões verticais e horizontais, ruído gaussiano e desfoque gaussiano, podem ser usadas para lidar com a fase de pré-treinamento45.

A importante aplicação dos modelos híbridos de IA propostos é identificar o protozoário parasita em tempo real nos dados microscópicos como dados brutos do microscópio, imagens congeladas e videoclipes. Ele nos permite implantar o modelo treinado com dispositivos de borda incorporados46, aplicativo móvel baseado em nuvem47, interface de usuário do navegador (BUI)48 e implantação de modelo baseado na Web49. Como resultado, o modelo de IA tem o potencial de aplicar o aprendizado profundo híbrido à vigilância ativa e fornecer um resultado oportuno devido à sua capacidade de apoiar a decisão da equipe local em milissegundos, sugerindo tecnologia de triagem automática para epidemiologia auxiliar.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Todos os autores não têm informações financeiras e não há conflitos de interesse.

Acknowledgments

Este trabalho (Bolsa de Pesquisa para New Scholar, Grant No. RGNS 65 - 212) foi financiado pelo Gabinete do Secretário Permanente do Ministério do Ensino Superior, Ciência, Investigação e Inovação (OPS MHESI), Investigação e Inovação Científica da Tailândia (TSRI) e pelo Instituto de Tecnologia Ladkrabang do Rei Mongkut. Somos gratos ao Conselho Nacional de Pesquisa da Tailândia (NRCT) [NRCT5-RSA63001-10] pelo financiamento do projeto de pesquisa. M.K. foi financiado pelo Fundo de Pesquisa e Inovação Científica da Tailândia Chulalongkorn University. Também agradecemos ao College of Advanced Manufacturing Innovation, King Mongkut's Institute of Technology, Ladkrabang que forneceu a plataforma de aprendizado profundo e software para apoiar o projeto de pesquisa.

Materials

Name Company Catalog Number Comments
Darknet19, Darknet53 and Densenet201 Gao Huang, Z. L., Laurens van der Maaten. Densely Connected Convolutional Networks. arXiv:1608.06993 [cs.CV]. (2016) https://github.com/liuzhuang13/DenseNet  Deep convolutional neural network model that can function to  classification
Generic name: YOLO model/ detection model?
Olympus CX31 Model CX31RRBSFA  Olympus, Tokyo, Japan SN 4G42178  A light microscope 
Olympus DP21-SAL U-TV0.5XC-3  Olympus, Tokyo, Japan SN 3D03838 A digital camera
Generic name: Classification models/ densely CNNs
Window 10 Microsoft Window 10 Operation system in computers
YOLO v4-tiny  Naing, K. M. et al. Automatic recognition of parasitic products in stool examination using object detection approach. PeerJ Comput Sci. 8 e1065, (2022). https://git.cira-lab.com/users/sign_in Deep convolutional neural network model that can function to both localization and also classification 
https://git.cira-lab.com/users/sign_in

DOWNLOAD MATERIALS LIST

References

  1. Kasozi, K. I., et al. Epidemiology of trypanosomiasis in wildlife-implications for humans at the wildlife interface in Africa. Frontiers in Veterinary Science. 8, 621699 (2021).
  2. Ola-Fadunsin, S. D., Gimba, F. I., Abdullah, D. A., Abdullah, F. J. F., Sani, R. A. Molecular prevalence and epidemiology of Trypanosoma evansi among cattle in peninsular Malaysia. Acta Parasitologica. 65 (1), 165-173 (2020).
  3. Aregawi, W. G., Agga, G. E., Abdi, R. D., Buscher, P. Systematic review and meta-analysis on the global distribution, host range, and prevalence of Trypanosoma evansi. Parasites & Vectors. 12 (1), 67 (2019).
  4. Joshi, P. P., et al. Human trypanosomiasis caused by Trypanosoma evansi in India: the first case report. The Am Journal of Tropical Medicine and Hygiene. 73 (3), 491-495 (2005).
  5. Lidani, K. C. F., et al. Chagas disease: from discovery to a worldwide health problem. Frontiers in Public Health. 7, 166 (2019).
  6. Sazmand, A., Desquesnes, M., Otranto, D. Trypanosoma evansi. Trends in Parasitology. 38 (6), 489-490 (2022).
  7. Powar, R. M., et al. A rare case of human trypanosomiasis caused by Trypanosoma evansi.Indian. Journal of Medical Microbiology. 24 (1), 72-74 (2006).
  8. Shegokar, V. R., et al. Short report: Human trypanosomiasis caused by Trypanosoma evansi in a village in India: preliminary serologic survey of the local population. American Journal of Tropical Medicine and Hygiene. 75 (5), 869-870 (2006).
  9. Haridy, F. M., El-Metwally, M. T., Khalil, H. H., Morsy, T. A. Trypanosoma evansi in dromedary camel: with a case report of zoonosis in greater Cairo, Egypt. Journal of the Egyptian Society of Parasitology. 41 (1), 65-76 (2011).
  10. Dey, S. K. CATT/T.evansi antibody levels in patients suffering from pyrexia of unknown origin in a tertiary care hospital in Kolkata. Research Journal of Pharmaceutical, Biological and Chemical Sciences. 5, 334-338 (2014).
  11. Dakshinkar, N. P., et al. Aberrant trypanosomias in human. Royal Veterinary Journal of India. 3 (1), 6-7 (2007).
  12. Vn Vinh Chau, N., et al. A clinical and epidemiological investigation of the first reported human infection with the zoonotic parasite Trypanosoma evansi in Southeast Asia. Clinical Infectious Diseases. 62 (8), 1002-1008 (2016).
  13. Misra, K. K., Roy, S., Choudhary, A. Biology of Trypanosoma (Trypanozoon) evansi in experimental heterologous mammalian hosts. Journal of Parasitic Diseases. 40 (3), 1047-1061 (2016).
  14. Nakayima, J., et al. Molecular epidemiological studies on animal trypanosomiases in Ghana. Parasites & Vectors. 5, 217 (2012).
  15. Riana, E., et al. The occurrence of Trypanosoma in bats from Western Thailand. The 20th Chulalongkorn University Veterinary Conference CUVC 2021: Research in practice. 51, Bangkok, Thailand. (2021).
  16. Camoin, M., et al. The Indirect ELISA Trypanosoma evansi in equids: optimisation and application to a serological survey including racing horses, in Thailand. BioMed Research International. 2019, 2964639 (2019).
  17. Truc, P., et al. Atypical human infections by animal trypanosomes. PLoS Neglected Tropical Diseases. 7 (9), 2256 (2013).
  18. Desquesnes, M., et al. Diagnosis of animal trypanosomoses: proper use of current tools and future prospects. Parasites & Vectors. 15 (1), 235 (2022).
  19. Da Silva, A. S., et al. Trypanocidal activity of human plasma on Trypanosoma evansi in mice. Revista Brasileira de Parasitologia Veterinaria. 21 (1), 55-59 (2012).
  20. Desquesnes, M., et al. Trypanosoma evansi and surra: a review and perspectives on transmission, epidemiology and control, impact, and zoonotic aspects. BioMed Research International. 2013, 321237 (2013).
  21. World Health Organization. A new form of human trypanosomiasis in India. Description of the first human case in the world caused by Trypanosoma evansi. Weekly Epidemiological Record. 80 (7), 62-63 (2005).
  22. Naing, K. M., et al. Automatic recognition of parasitic products in stool examination using object detection approach. PeerJ Computer Science. 8, 1065 (2022).
  23. Wongsrichanalai, C., Barcus, M. J., Muth, S., Sutamihardja, A., Wernsdorfer, W. H. A review of malaria diagnostic tools: microscopy and rapid diagnostic test (RDT). American Journal of Tropical Medicine and Hygiene. 77, 119-127 (2007).
  24. Rostami, A., Karanis, P., Fallahi, S. Advances in serological, imaging techniques and molecular diagnosis of Toxoplasma gondii infection. Infection. 46 (3), 303-315 (2018).
  25. Ahmad, Z., Rahim, S., Zubair, M., Abdul-Ghafar, J. Artificial intelligence (AI) in medicine, current applications and future role with special emphasis on its potential and promise in pathology: present and future impact, obstacles including costs and acceptance among pathologists, practical and philosophical considerations. A comprehensive review. Diagnostic Pathology. 16 (1), 24 (2021).
  26. Sarker, I. H. Deep learning: a comprehensive overview on techniques, taxonomy, applications and research directions. SN Computer Science. 2 (6), 420 (2021).
  27. Kittichai, V., et al. Classification for avian malaria parasite Plasmodium gallinaceum blood stages by using deep convolutional neural networks. Scientific Reports. 11 (1), 16919 (2021).
  28. Baskota, S. U., Wiley, C., Pantanowitz, L. The next generation robotic microscopy for intraoperative teleneuropathology consultation. Journal of Pathology Informatics. 11, 13 (2020).
  29. Bochkovskiy, A., Wang, C. -Y., Liao, H. -Y. M. YOLOv4: optimal speed and accuracy of object detection. arXiv. , 10934 (2004).
  30. Huang, G., Liu, Z., vander Maaten, L., Weinberger, K. Q. Densely connected convolutional networks. arXiv. , 06993 (2018).
  31. CDC-DPDx. Diagnostic procedures - Blood specimens. , Available from: https://www.cdc.gov/dpdx/diagosticprocedures/blood/specimenproc.html#print (2020).
  32. World Health Organization. Control and surveillance of African trypanosomiasis: report of a WHO expert committee. WHO Technical Report Series 881. , Available from: https://iris.who.int/bitstream/handle/10665/42087/WHO_TRS_881.pdf?sequence=1 (1998).
  33. Leber, A. L. Detection of blood parasites. Clinical Microbiology Procedures Handbook. , ASM Press. Washington, DC. (2022).
  34. Huang, L. -P., Hong, M. -H., Luo, C. -H., Mahajan, S., Chen, L. -J. A vector mosquitoes classification system based on edge computing and deep learning. Proceedings-2018 Conmference on Technologies and Applications of Artifical Intelligence. , Taichung, Taiwan. 24-27 (2018).
  35. Cihan, P., Gökçe, E., Kalipsiz, O. A review of machine learning applications in veterinary field. Kafkas Universitesi Veteriner Fakultesi Dergisi. 23 (4), 673-680 (2017).
  36. Berrar, D. Cross-validation. Encyclopedia of Bioinformatics and Computational Biology. 1, 542-545 (2019).
  37. Gaithuma, A. K., et al. A single test approach for accurate and sensitive detection and taxonomic characterization of Trypanosomes by comprehensive analysis of internal transcribed spacer 1 amplicons. PLoS Neglected Tropical Diseases. 13 (2), 0006842 (2019).
  38. Vijayalakshmi, A., Rajesh Kanna, B. Deep learning approach to detect malaria from microscopic images. Multimedia Tools and Applications. 79 (21-22), 15297-15317 (2019).
  39. Morais, M. C. C., et al. Automatic detection of the parasite Trypanosoma cruzi in blood smears using a machine learning approach applied to mobile phone images. PeerJ. 10, 13470 (2022).
  40. Uc-Cetina, V., Brito-Loeza, C., Ruiz-Pina, H. Chagas parasite detection in blood images using AdaBoost. Computational and Mathematical Methods in Medicine. 2015, 139681 (2015).
  41. Zhang, C., et al. Deep learning for microscopic examination of protozoan parasites. Computational and Structural Biotechnology Journal. 20, 1036-1043 (2022).
  42. Sarataphan, N., et al. Diagnosis of a Trypanosoma lewisi-like (Herpetosoma) infection in a sick infant from Thailand. Journal of Medical Microbiology. 56, 1118-1121 (2007).
  43. Desquesnes, M., et al. A review on the diagnosis of animal trypanosomoses. Parasites & Vectors. 15 (1), 64 (2022).
  44. Fuhad, K. M. F., et al. Deep learning based automatic malaria parasite detection from blood smear and its smartphone based application. Diagnostics (Basel). 10 (5), 329 (2020).
  45. Christian Matek, S. S., Spiekermann, K., Marr, C. Human-level recognition of blast cells in acute myeloid leukaemia with convolutional neural networks. Nature Machine Intelligence. 1, 538-544 (2019).
  46. Hamdan, S., Ayyash, M., Almajali, S. Edge-computing architectures for internet of things applications: a survey. Sensors (Basel). 20 (22), 6441 (2020).
  47. Visser, T., et al. A comparative evaluation of mobile medical APPS (MMAS) for reading and interpreting malaria rapid diagnostic tests. Malaria Journal. 20 (1), 39 (2021).
  48. Giorgi, E., Macharia, P. M., Woodmansey, J., Snow, R. W., Rowlingson, B. Maplaria: a user friendly web-application for spatio-temporal malaria prevalence mapping. Malaria Journal. 20 (1), 471 (2021).
  49. Rajaraman, S., Jaeger, S., Antani, S. K. Performance evaluation of deep neural ensembles toward malaria parasite detection in thin-blood smear images. PeerJ. 7, 6977 (2019).

Tags

Auto-Identificação Superior Parasitas Tripanossomas Modelo Híbrido de Aprendizagem Profunda Tripanossomíase Problema de Saúde Pública Sul da Ásia Sudeste Asiático Áreas de Hotspot Vigilância Ativa Exame Microscópico Pessoal Qualificado Programa de Inteligência Artificial (IA) Técnica de Aprendizagem Profunda Híbrida Identificação de Objetos Classificação de Objetos Backbones de Redes Neurais Plataforma de IA Low-code (CIRA CORE) Espécies de Tripanossomas de Protozoários Trypanosoma cruzi T. Brucei T. Evansi Imersão em óleo Imagens microscópicas reconhecimento de padrões núcleo e cinetoplasto mapa de atenção medidas estatísticas acurácia recordação especificidade precisão escore F1 taxa de classificação incorreta curvas ROC (receiver operating characteristics) curvas de precisão versus recordação (PR)
Auto-Identificação Superior de Parasitas Tripanossomas Usando um Modelo Híbrido de Aprendizagem Profunda
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Kittichai, V., Kaewthamasorn, M.,More

Kittichai, V., Kaewthamasorn, M., Thanee, S., Sasisaowapak, T., Naing, K. M., Jomtarak, R., Tongloy, T., Chuwongin, S., Boonsang, S. Superior Auto-Identification of Trypanosome Parasites by Using a Hybrid Deep-Learning Model. J. Vis. Exp. (200), e65557, doi:10.3791/65557 (2023).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter