Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Bioengineering

Auto-identification supérieure des parasites trypanosomes à l’aide d’un modèle hybride d’apprentissage profond

Published: October 27, 2023 doi: 10.3791/65557

Summary

Les parasites sanguins médicaux du monde entier ont été automatiquement dépistés à l’aide d’étapes simples sur une plateforme d’IA low-code. Le diagnostic prospectif des films sanguins a été amélioré par l’utilisation d’une méthode de détection et de classification d’objets dans un modèle hybride d’apprentissage profond. La collaboration d’une surveillance active et de modèles bien entraînés permet d’identifier les points chauds de transmission des trypanosomes.

Abstract

La trypanosomiase est un problème de santé publique important dans plusieurs régions du monde, notamment en Asie du Sud et en Asie du Sud-Est. L’identification des zones à risque sous surveillance active est une procédure fondamentale pour contrôler la transmission de la maladie. L’examen microscopique est une méthode de diagnostic couramment utilisée. Néanmoins, elle s’appuie principalement sur un personnel qualifié et expérimenté. Pour résoudre ce problème, un programme d’intelligence artificielle (IA) a été introduit qui utilise une technique hybride d’apprentissage profond d’identification d’objets et de classification d’objets sur des dorsales de réseaux neuronaux à faible code (CiRA CORE). Le programme permet d’identifier et de classer les espèces de trypanosomes protozoaires, à savoir Trypanosoma cruzi, T. brucei et T. evansi, à partir d’images microscopiques par immersion dans l’huile. Le programme d’IA utilise la reconnaissance des formes pour observer et analyser plusieurs protozoaires dans un seul échantillon de sang et met en évidence le noyau et le kinétoplaste de chaque parasite en tant que caractéristiques spécifiques à l’aide d’une carte d’attention.

Pour évaluer les performances du programme d’IA, deux modules uniques sont créés qui fournissent une variété de mesures statistiques telles que l’exactitude, le rappel, la spécificité, la précision, le score F1, le taux d’erreur de classification, les courbes des caractéristiques de fonctionnement du récepteur (ROC) et les courbes de précision par rapport au rappel (PR). Les résultats de l’évaluation montrent que l’algorithme d’IA est efficace pour identifier et catégoriser les parasites. En fournissant un outil de dépistage rapide, automatisé et précis, cette technologie a le potentiel de transformer la surveillance et le contrôle des maladies. Cela pourrait également aider les responsables locaux à prendre des décisions plus éclairées sur les stratégies de blocage de la transmission des maladies.

Introduction

La trypanosomiase est un défi important pour les problèmes de santé mondiaux en raison d’une variété d’espèces zoonotiques causant des maladies humaines avec un large éventail de distributions géographiques en dehors des continents africain et américain, comme l’Asie du Sud et du Sud-Est 1,2,3. La trypanosomiase humaine africaine (THA), ou maladie du sommeil, est causée par Trypanosoma brucei gambiense et T. b. rhodesiense qui produisent respectivement les formes chroniques et aiguës, représentant la principale propagation en Afrique. Le parasite responsable appartient au groupe des Salivaria en raison de la transmission par la salive infectée des mouches tsé-tsé4. Attendu que la célèbre trypanosomiase américaine (maladie de Chagas) causée par T. cruzi a été un problème de santé publique pour les pays non endémiques ; y compris le Canada, les États-Unis, l’Europe, l’Australie et le Japon, en raison de la migration fréquente d’individus en provenance de zones endémiques5. L’infection à trypanosome appartient au groupe des Stercoraria car elle est transmise par les excréments infectés de punaises réduviides. Les trypanosomiases et les trypanosomoses (maladie de Surra) causées par l’infection à T. evansi sont endémiques en Afrique, en Amérique du Sud, en Asie occidentale et orientale et dans les pays d’Asie du Sud et du Sud-Est 3,6. Bien que des cas de trypanosomiase humaine causée par le trypanosome aient été rapportés 3,4,7,8,9,10,11,12, la voie de transmission de l’infection parasitaire est débattue : soit le sang mécanique, soit le sang infecté par des insectes hématophages tels que les mouches tsé-tsé et les tabanidés ou les taons 6,7, 8,9,10,12,13,14. Aucun cas n’a été signalé en Thaïlande, cependant, une prévalence élevée de l’infection à T. evansi chez les chiens15, les chevaux de course et les buffles d’eau dans la région orientale a été publiée16, ce qui suggère qu’une transmission acquise entre animaux domestiques se serait produite. Plusieurs infections humaines atypiques causées par des trypanosomes animaux (T. vivax, T. b. brucei, T. congolense, T. lewisi et T. evansi) ont été rapportées, qui ne sont pas les formes classiques des trypanosomes humains17. La sensibilisation aux infections humaines atypiques pourrait être sous-estimée, ce qui souligne la nécessité d’améliorer les tests de diagnostic et les enquêtes sur le terrain pour détecter et confirmer ces cas atypiques, et permettre un contrôle et un traitement appropriés des maladies pathogènes animales qui affectent le bétail mondial, la sécurité alimentaire18 et les soins de santé humaine. Cela a conduit à l’élaboration d’une stratégie potentielle intégrée à une méthode commune existante (examen microscopique) pour dépister rapidement des échantillons de sang dans des zones éloignées pendant la surveillance active, permettant d’identifier les zones à risque pour restreindre et contrôler la maladie.

L’incidence sporadique de la maladie de Surra chez un large éventail d’animaux domestiques tels que les dromadaires, les bovins, les équidés et les chiens qui évoquent un T. evansi euryxène peut être zoonotique pour les humains 1,4,13,14. L’infection humaine semble impossible parce qu’un facteur trypanolytique dans le sérum humain, exprimé à partir d’un gène de type sra, est capable de prévenir T. brucei et T. congolense humains 12,19. De plus, comme le montre le premier rapport de cas en Inde, la maladie n’est pas associée aux patients immunodéprimés atteints du VIH4. Comme décrit ci-dessus, l’infection humaine possible peut être liée à un déficit en lipoprotéines de haute densité avec une fonction anormale du facteur lytique trypanosome, qui est une maladie génétique autosomique récessive rare, à savoir la maladie de Tanger4. En 2016, on a découvert qu’un patient vietnamien possédait deux allèles APOL1 de type sauvage et une concentration sérique d’APOL1 dans la fourchette normale. Cependant, la théorie du déficit en APOL-1 n’est plus considérée comme valide12. Par conséquent, l’un des mécanismes possibles de l’infection à trypanosome est le contact direct d’une plaie avec du sang d’animal infecté lors d’un élevage professionnel 4,12. L’examen microscopique révèle que la morphologie de T. evansi est une forme monomorphe du trypomastigote comprenant un trypanosome prédominant, long, mince, flagellé et diviseur qui est similaire à leur espèce apparentée de T. brucei 1,12,13. Le noyau est en position centrale avec un petit kinétoplaste visible en position postérieure. Une étude antérieure a indiqué que le parasite peut exister sous deux formes comparables, connues sous le nom de formes classiques et tronquées. Cependant, il reste nécessaire de confirmer leurs effets pathogènes respectifs sur les hôtes20. L’évolution des symptômes varie allant de la fièvre intermittente associée à des frissons et à la transpiration. Heureusement, la suramine est un traitement de première intention efficace pour la trypanosomiase humaine africaine à un stade précoce sans invasion du système nerveux central (SNC), guérissant des patients en Inde et au Vietnam 4,12,21.

À l’exception de l’examen des signes cliniques, il existe plusieurs méthodes de diagnostic des parasites de T. evansi, notamment l’observation microscopique parasitologique 4,9,12, l’observation sérologique 4,8,9,10,12 et les tests de biologie moléculaire 4,12. Des films de sang mince colorés au Giemsa sont souvent utilisés pour visualiser le parasite présent lors d’un examen microscopique, qui est couramment utilisé22. Cependant, la procédure semble réalisable ; Néanmoins, elle prend beaucoup de temps et de main-d’œuvre, présente une variabilité d’évaluation inter-évaluateurs, n’est sensible qu’à une phase aiguë et nécessite un stagiaire personnel23. La biologie moléculaire et les tests sérologiques nécessitaient également un personnel hautement qualifié pour effectuer de multiples processus de préparation des échantillons, y compris l’extraction et la purification des échantillons avant de les tester avec des appareils coûteux, difficiles à normaliser, le risque de contamination par des matériaux extraparasitaires et les divergences dans les résultats24. Sur la base de la justification décrite ci-dessus, une technologie de dépistage rapide et précoce est nécessaire pour soutenir l’étude de surveillance sur le terrain et s’assurer que les résultats de l’enquête sont communiqués en temps opportun afin d’identifier la zone à risque pour un contrôle plus poussé de la transmission de la maladie 1,8. Les dispositifs informatisés (CAO) ont été proposés comme une technologie innovante pour les domaines médicaux, y compris les tâches histopathologiques et cytopathologiques25. La CAO mentionnée ci-dessus a été réalisée à grande vitesse et calculée à l’aide de la reconnaissance de formes, à savoir l’intelligence artificielle (IA). La méthode d’IA est réalisée à l’aide d’algorithmes de réseaux neuronaux convolutifs qui peuvent être utilisés pour traiter un grand nombre d’échantillons de jeux de données, en particulier une approche d’apprentissage supervisé qui entraîne un modèle bien entraîné lors de la consommation de données.

En général, l’IA est la capacité des ordinateurs à résoudre des tâches qui nécessitent une intelligence experte, comme l’étiquetage des données. L’apprentissage automatique (ML), un sous-domaine de l’IA, est représenté comme un système informatique avec deux processus différents comprenant l’extraction de caractéristiques et la reconnaissance de formes. L’apprentissage profond (DL), ou algorithmes avancés d’apprentissage automatique, fait référence au développement de programmes et d’appareils informatisés comparant des performances de type humain à des niveaux de précision supérieurs et égaux à ceux accomplis par des professionnels humains26. À l’heure actuelle, le rôle de la DL dans les domaines médical et vétérinaire est prometteur pour l’expansion et la révolution de la prévention des maladies transmissibles dans le but d’une prévention récente et de l’orientation vers le personnel de santé individuel22,27. L’application potentielle de DL est illimitée avec des labels de qualité et un grand nombre de jeux de données augmentés, libérant ainsi des spécialistes pour gérer la tâche du projet. Plus précisément, une avancée dans l’image numérique ainsi que l’analyse assistée par ordinateur ont amélioré le diagnostic et le dépistage automatiques dans cinq catégories de pathologies rapportées ; y compris les méthodes statiques, dynamiques, robotiques, d’imagerie de lames entières et hybrides28. Il est nécessaire de considérer que l’intégration d’approches d’algorithmes de DL et de données d’images numériques pourrait encourager le personnel local à utiliser la technologie dans ses pratiques quotidiennes.

Auparavant, l’augmentation de la précision de la prédiction de l’utilisation d’un modèle hybride avait été prouvée27. Afin d’identifier le parasite trypanosome dans des images microscopiques, cette recherche présente deux modèles hybrides, intégrant les algorithmes YOLOv4-tiny (détection d’objets) et Densenet201 (classification d’objets). Parmi plusieurs modèles de détection, YOLOv4-tiny avec un backbone CSPDarknet53 a montré des performances élevées en tant que résultat de prédiction en termes de localisation et de classification29. Étant donné que le détecteur en temps réel a modifié l’équilibre optimal entre la résolution du réseau d’entrée, la quantité de la couche convolutive, le paramètre total et le nombre de sorties de couche, il a amélioré la hiérarchisation des vitesses de fonctionnement rapides et l’optimisation des calculs parallèles par rapport aux versions précédentes. Le réseau convolutif dense (DenseNet) est un autre modèle populaire qui permet d’obtenir des résultats de pointe sur des ensembles de données concurrents. DenseNet201 a donné une erreur de validation similaire comparable à celle de ResNet101 ; cependant, DenseNet201 a moins de 20 millions de paramètres, ce qui est moins que les plus de 40 millions de paramètres de ResNet10130. Par conséquent, le modèle DenseNet pourrait améliorer la précision des prédictions avec un nombre croissant de paramètres sans aucun signe de surapprentissage. Ici, un programme d’intelligence artificielle (IA) utilise un algorithme hybride d’apprentissage profond avec des dorsales de réseau neuronal de détection et de classification approfondies sur la plate-forme interne CiRA CORE. Le programme développé permet d’identifier et de classer les espèces de trypanosomes protozoaires, à savoir Trypanosoma cruzi, T. brucei et T. evansi, à partir d’images microscopiques immergées dans l’huile. Cette technologie a le potentiel de révolutionner la surveillance et le contrôle des maladies en fournissant une méthode de dépistage rapide, automatisée et précise. Cela pourrait aider le personnel local à prendre des décisions plus éclairées sur les stratégies de blocage de la transmission de la maladie parasitaire à protozoaires.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Les films sanguins archivés et la conception du projet ont été approuvés par le Comité institutionnel de biosécurité, le Comité institutionnel de soins et d’utilisation des animaux de la Faculté des sciences vétérinaires de l’Université Chulalongkorn (IBC n° 2031033 et IACUC n° 1931027) et le Comité d’éthique de la recherche humaine de l’Institut de technologie du roi Mongkut à Ladkrabang (EC-KMITL_66_014).

1. Préparation des images brutes

  1. Préparation du jeu de données d’images
    1. Obtenir au moins 13 lames positives avec des infections parasitaires sanguines, y compris T. brucei, T. cruzi et T. evansi, confirmées par des experts parasitologues. Séparez les 13 diapositives pour la formation (10 diapositives) et les tests (trois diapositives).
    2. Acquérir des images des films sanguins minces de Giemsa décrits ci-dessus sous un champ d’immersion dans l’huile d’un microscope optique avec un appareil photo numérique. Obtenir des images contenant plusieurs objets des trypomastigotes des trois espèces de parasites sous examen microscopique ; Recherchez une forme élancée, de longues queues, une membrane ondulée et un kinétoplaste à l’extrémité antérieure.
      REMARQUE : La création de frottis épais et minces améliorerait la détection de la trypanosomiase en phase aiguë31. Le prélèvement sanguin par piqûre au doigt est recommandé par l’OMS32. Néanmoins, les couches minces sont plus efficaces pour identifier Trypanosoma cruzi et d’autres espèces, car ces organismes ont tendance à se déformer en couches épaisses33. À la lumière de cela, nous avons utilisé des images de film sanguin mince pour maintenir la morphologie appropriée des parasites pour cette étude.
    3. Stockez toutes les images dans un dossier spécifique au parasite avec les spécifications suivantes : 1 600 x 1 200 pixels, profondeur de 24 bits et format de fichier JPG. Divisez les images en ensembles d’entraînement et de test dans un rapport de ~6 :1.
      REMARQUE : Voir https://gitlab.com/parasite3/superior-auto-identification-of-medically-important-trypanosome-parasites-by-using-a-hybrid-deep-learning-model/-/blob/main/JOVEimage.zip ; 650 images ont été divisées pour entraîner (560 images) et tester (90 images) le modèle.
    4. Définissez la région d’intérêt sous la forme d’une étiquette rectangulaire pour deux classes : les trypanosomes et les non-trypanosomes. Utilisez le module de recadrage automatique pour recadrer toutes les images détectées à l’aide du modèle de détection d’objets bien entraîné. Le module de recadrage automatique est le module développé dans le cadre du programme interne CiRA CORE (voir le tableau des matériaux). Collectez un seul objet par image pour entraîner la classification des objets.
      REMARQUE : Pour cet article, 1 017 images ont été divisées à des fins d’entraînement (892 images) et de test (126 images). L’entraînement du modèle a été effectué avec quatre classes étiquetées, y compris leucocyte, T. brucei, T. cruzi et T. evansi.

2. Processus de formation avec la plateforme interne CiRA CORE

  1. Démarrage d’un nouveau projet
    1. Ouvrez l’application CiRA CORE à partir du bureau de l’ordinateur (voir Table des matériaux) et créez un nouveau projet en double-cliquant sur l’icône du programme.
    2. Cliquez sur l’icône d’opération dans la barre d’outils verticale de gauche pour sélectionner les outils requis.
  2. Entraînement du modèle de détection d’objets
    1. Sélectionnez la fonction de modèle training-DL pour l’étiquetage et l’entraînement des données à l’aide de la méthode glisser-déposer . Accédez à la barre d’outils Général | CiRA AI | Glisser DeepTrain | Déposez DeepTrain sur l’écran (à droite).
      REMARQUE : Pour des options supplémentaires, cliquez avec le bouton droit de la souris sur l’outil sélectionné et exécutez les fonctions appropriées : Copier, Couper ou Supprimer.
    2. Importez les images à l’aide des paramètres de l’outil DeepTrain. Cliquez sur le bouton Charger les images et accédez au répertoire des images. Étiquetez les objets en maintenant le clic gauche enfoncé et en nommant l’objet sélectionné. Ajustez l’épaisseur de la ligne rectangulaire et la taille de la police en cliquant sur le bouton Paramètres d’affichage et enregistrez GT en tant que fichier .gt dans le même répertoire.
      REMARQUE : Enregistrez au besoin pour éviter toute condition indésirable telle que les pannes de courant, les fermetures automatiques de programmes et le blocage dans le processus d’étiquetage.
    3. Avant l’entraînement du modèle, développez les données pour recueillir suffisamment d’informations à l’aide des quatre techniques d’augmentation : rotation, contraste, bruit et flou. Cliquez sur le bouton Gen Setting (Paramètres généraux ) pour accéder à cette fonctionnalité.
    4. Lancez l’entraînement du modèle en cliquant sur le bouton Entraînement dans l’outil DeepTrain . La partie formation a deux sous-fonctions : Générer des fichiers d’entraînement et Entraîner. Sous la fonction Générer des fichiers d’entraînement , sélectionnez les modèles, la taille de lot et les subdivisions souhaités. Cliquez sur le bouton Générer pour générer des données et les enregistrer dans le répertoire. Dans la fonction Entraîner , choisissez les options suivantes : i) utiliser un autre emplacement d’entraînement généré pour les conditions et la sauvegarde, ii) utiliser des poids prédéfinis pour l’entraînement continu ou iii) remplacer les paramètres pour la conception d’entraînement actuelle. Cela permettra de concevoir la configuration du modèle et les conditions d’entraînement.
      REMARQUE : La durée du processus de génération dépend de la taille du fichier image, de l’utilisation de l’augmentation et de l’espace mémoire disponible.
    5. Une fois toutes les configurations nécessaires terminées, commencez l’entraînement du modèle en cliquant sur le bouton Entraîner . Laissez le programme s’exécuter en continu, en évaluant la perte d’apprentissage et en ajustant le poids de l’ensemble de données pendant le processus d’apprentissage. Si le modèle atteint une perte optimale, enregistrez le fichier de poids entraîné dans le répertoire spécifié en cliquant sur le bouton Exporter .

3. Évaluation du modèle de détection d’objets

  1. Sélectionnez la fonction d’évaluation du modèle de détection d’objet pour l’évaluation du modèle à l’aide de la méthode glisser-déposer. Accédez à la barre d’outils Plugin | Évaluer | Faites glisser EvalDetect | Déposez EvalDetect sur l’écran (à droite).
  2. Cliquez sur Paramètres et attendez trois fonctions : Détection, Évaluation et Tracé. Lancez l’évaluation du modèle en important le fichier de poids entraîné à partir du répertoire (étape 2.2.5) en cliquant sur Charger la configuration.
  3. Sous la fonction Détection , sélectionnez la valeur de suppression non maximale (NMS) pour améliorer la précision en éliminant les détections de faux positifs (FP) redondantes. Le DDN supprime les détections générées par le modèle en double pour améliorer la fiabilité.
  4. Procédez comme suit dans la fonction d’évaluation :
    1. Importez des images de test à partir du répertoire du fichier image en cliquant sur Parcourir. Importez le fichier GT à partir du répertoire où il a été enregistré à l’étape 2.2.2 en cliquant sur Charger GT.
    2. Choisissez la valeur Intersection over Union (IoU) pour évaluer la précision du jeu de données de test d’image spécifique.
    3. Cliquez sur le bouton Evaluation (Évaluation ) pour évaluer le modèle de détection dans le répertoire spécifié. Une fois l’évaluation terminée, les résultats seront automatiquement enregistrés sous forme de fichier CSV dans le même répertoire, triés par nom de classe. Ce fichier CSV fournit des paramètres essentiels tels que True Positive (TP), False Positive (FP), False Negative (FN), Recall et Precision pour chaque classe.
  5. Pour tracer la courbe PR (Precision-Rappel), procédez comme suit dans la fonction Tracer : Importez les fichiers CSV du répertoire de la section précédente (étape 3.4) en cliquant sur Parcourir. Choisissez des classes dans la liste et cliquez sur le bouton Tracer pour afficher l’image de la courbe PR modifiable.
  6. Enfin, pour enregistrer une image avec les valeurs AUC de la courbe PR dans le format d’image requis dans le répertoire spécifié, cliquez sur le bouton Enregistrer de l’image.

4. Recadrage d’image pour un seul objet par image

  1. Avant de recadrer les images, procédez comme suit :
    1. Importez les images à partir du répertoire du fichier image en accédant aux paramètres de l’outil Diapositive d’image.
    2. Importez le fichier de poids entraîné (enregistré à l’étape 2.2.8) en accédant aux paramètres de l’outil Deep Detect. Cliquez sur le bouton Config | +, sélectionnez le backend (CUDA ou CPU), indiquez un nom, cliquez sur OK, choisissez le répertoire du fichier de poids, puis cliquez sur Choisir. Dans l’outil Détection approfondie, sélectionnez les paramètres de détection (suppression des seuils et des non-maxima (nms)) ; paramètres de dessin ; paramètres de suivi ; et les paramètres de région d’intérêt (ROI).
    3. Sélectionnez le répertoire dans lequel les images recadrées seront enregistrées en accédant aux paramètres de l’outil Recadrage profond. Cliquez sur Parcourir | choisissez le répertoire pour enregistrer les images recadrées | cliquez sur Choisir | sélectionnez le format d’image (jpg ou png) | activez l’option Enregistrement automatique.
  2. Recadrez les images pour obtenir un seul objet par image à des fins de classification et de segmentation des images. Pour effectuer ce processus, utilisez quatre outils et établissez des connexions entre eux : accédez à la barre d’outils Général | Généralités | Bouton Exécuter. Ensuite, accédez à Barre d’outils Général | CiRA AI | Détection profonde ; puis, allez dans Barre d’outils Général | CiRA AI | Recadrage profond. Enfin, allez dans Barre d’outils Image | L’acquisition | Diapositive d’image.
  3. Une fois que tous les paramètres nécessaires sont en place, lancez le processus de recadrage de l’image en cliquant sur l’outil Exécuter le bouton .
  4. Obtenez un nouveau jeu de données d’entraînement d’images composé d’images d’un seul objet d’une taille de 608 x 608.

5. Classification d’images en tant qu’entraînement de modèle

  1. Utilisez le glisser-déposer pour sélectionner la fonction d’entraînement du modèle de classification d’images pour l’entraînement des données. Accédez à la barre d’outils Image | DeepClassif | Drag ClassifTrain | Déposez ClassifTrain sur l’écran.
  2. Importez des images pour l’entraînement du modèle à l’aide des paramètres de l’outil ClassifTrain . Cliquez sur le bouton Ouvrir le dossier et accédez au répertoire d’images souhaité. Avant l’entraînement, développez les données en cliquant sur le bouton Augmentation pour plus d’informations à l’aide de techniques telles que la rotation, le contraste, le retournement (horizontal et/ou vertical), le bruit et le flou.
  3. Pour commencer l’entraînement du modèle, cliquez sur le bouton GenTrain de l’outil ClassifTrain . Sous la fonction GenTrain , sélectionnez les modèles, la taille du lot et les subdivisions. Attribuez un répertoire pour enregistrer le fichier généré. Cliquez sur le bouton Générer pour continuer avec les données de l’entraînement. Dans la fonction Entraîner , cochez les options appropriées : Continuer l’entraînement avec le poids par défaut ou le poids personnalisé.
    REMARQUE : Le processus de génération peut prendre du temps en fonction de facteurs tels que la taille du fichier image, l’utilisation de l’augmentation, l’équilibrage des classes et l’espace mémoire disponible.
  4. Une fois tous les préparatifs terminés, lancez l’entraînement du modèle en cliquant sur le bouton Démarrer . Laissez le programme s’exécuter en continu, en évaluant la perte d’apprentissage et en ajustant le poids de l’ensemble de données pendant le processus d’apprentissage. Si le modèle atteint le niveau de perte souhaité, enregistrez le fichier de poids entraîné dans le répertoire spécifié en cliquant sur le bouton Exporter .

6. Évaluation du modèle de classification

  1. Sélectionnez la fonction d’évaluation du modèle de classification d’images pour l’évaluation du modèle à l’aide de la méthode glisser-déposer . Accédez à la barre d’outils Plugin | Évaluer | Faites glisser EvaluateClassif | Déposez EvaluateClassif sur l’écran (à droite).
  2. Cliquez sur Paramètre pour accéder à des fonctions supplémentaires dans l’outil EvaluateClassif , à savoir Evaluate et PlotROC.
  3. Pour lancer l’évaluation du modèle, cliquez sur le bouton Évaluer dans l’outil EvaluateClassif . Suivez ces étapes sous la fonction Évaluer .
    1. Importez les images de test à partir du répertoire du fichier image en cliquant sur l’image du dossier Charger. Importez le fichier de poids entraîné à partir du répertoire (enregistré à l’étape 5.4) en cliquant sur Charger la configuration. Cliquez sur le bouton Démarrer pour évaluer le modèle de classification.
    2. Une fois l’évaluation terminée, enregistrez le fichier évalué au format CSV dans le répertoire spécifié en cliquant sur le bouton Exporter au format CSV . Pour l’évaluation des données à chaque seuil, enregistrez le fichier CSV avec les noms de classe dans le répertoire spécifié en cliquant sur Démarrer tout seuil. Le fichier CSV enregistré inclut des paramètres tels que Rappel (taux de vrais positifs), Taux de faux positifs et Précision pour chaque classe.
  4. Pour tracer la courbe des caractéristiques de fonctionnement du récepteur (ROC), cliquez sur le bouton PlotROC dans l’outil EvaluateClassif . Suivez ces étapes sous la fonction PlotROC .
    1. Importez les fichiers CSV du répertoire obtenu précédemment en cliquant sur Parcourir. Inspectez la liste des classes importées et sélectionnez chaque étiquette de classe pour tracer la courbe ROC.
    2. Cliquez sur le bouton Tracer pour visualiser la courbe ROC sous forme d’image. Apportez les modifications souhaitées pour ajuster les propriétés de l’image, notamment la taille et les couleurs de la police, l’arrondi de la décimale, les styles de ligne et les couleurs de ligne.
  5. Enfin, enregistrez une image de la courbe ROC avec les valeurs AUC dans le format d’image requis dans le répertoire spécifié en cliquant sur le bouton Enregistrer .

7. Tester le processus avec l’application CiRA CORE

  1. Détection d’objets en tant que test de modèle
    1. Pour effectuer des tests de modèle, utilisez quatre outils et établissez des connexions entre eux. Accédez à la barre d’outils Général | Généralités | Bouton Exécuter. Ensuite, Barre d’outils Général | Généralités | Débogage. Après cela, cliquez sur Barre d’outils Général | CiRA AI | DeepDetect, et enfin la barre d’outils Image | L’acquisition | Diapositive d’image.
    2. Avant de tester les images, procédez comme suit :
      1. Importez les images de test à partir du répertoire du fichier image en cliquant sur l’option Paramètres dans l’outil Diapositive d’image .
      2. Importez le fichier de poids entraîné enregistré à partir de l’étape 2.2.8 en cliquant sur l’option Paramètres dans l’outil DeepDetect . Cliquez sur le bouton Config , puis sur le bouton +, sélectionnez le backend (CUDA ou CPU), indiquez un nom, cliquez sur OK, choisissez le répertoire du fichier de poids, puis cliquez sur Choisir. Sous l’outil DeepDetect , sélectionnez les paramètres de détection (seuil et nms), les paramètres de dessin, les paramètres de suivi et les paramètres de retour sur investissement.
      3. Affichez les résultats de l’image de test en cliquant sur la fonction d’image dans l’outil Débogage .
    3. Enfin, vérifiez les résultats prévus pour chaque image en cliquant sur le bouton Exécuter de l’outil Exécuter le bouton .
  2. Classification d’images en tant que test de modèle
    1. Pour effectuer des tests de modèle, utilisez quatre outils et établissez des connexions entre eux. Accédez à la barre d’outils Général | Généralités | Bouton d’exécution ; puis, Barre d’outils Général | Débogage. Après cela, accédez à la barre d’outils Image | L’acquisition | ImageSlide, et enfin, Barre d’outils Image | DeepClassif | DeepClassif.
    2. Avant de tester les images, procédez comme suit :
      1. Importez les images de test à partir du répertoire du fichier image en cliquant sur l’option Paramètres dans l’outil Diapositive d’image .
      2. Importez le fichier de poids entraîné enregistré à partir de la section 5.5 en cliquant sur l’option Paramètres dans l’outil DeepClassif . Cliquez sur le bouton Config | bouton + | sélectionnez le backend (CUDA ou CPU) | Donnez un nom | cliquez sur OK | Choisissez le répertoire du fichier de poids | cliquez sur Choisir. Sous l’outil DeepClassif , sélectionnez les paramètres de classification (seuil et nombre de prédictions de classe supérieure), les paramètres de la carte de guide (seuil, alpha, bêta et palette de couleurs) et divers paramètres de la palette de couleurs.
      3. Affichez les résultats de l’image de test en cliquant sur la fonction d’image dans l’outil Débogage .
    3. Enfin, vérifiez les résultats prévus pour chaque image en cliquant sur le bouton Exécuter de l’outil Exécuter le bouton .

8. Hybride (détection et classification) comme test de modèle

  1. Pour effectuer ce test de modèle, utilisez quatre outils et établissez des connexions entre eux. Accédez à la barre d’outils Général | Généralités | ButtonRun. Ensuite, Barre d’outils Général | Généralités | Débogage. Après cela, Barre d’outils Image | L’acquisition | ImageSlide, et enfin, Barre d’outils Image | Composite profond | ProfondD->C.
  2. Avant de tester les images, procédez comme suit : Importez des images de test à partir du répertoire du fichier image en cliquant sur l’option Paramètres dans l’outil Diapositive d’image . Importez les deux fichiers de poids entraînés enregistrés à partir de la section 2.1.5 et de la section 4.4 en cliquant sur l’option Réglage dans l’outil DeepD->C :
    1. Pour la fonction Détecter, cliquez sur le bouton Config |+, sélectionnez le backend (CUDA ou CPU) | Donnez un nom | cliquez sur OK | choisissez le répertoire du fichier de poids | cliquez sur Choisir. Sous la fonction Détecter, sélectionnez les paramètres de détection (Seuil et nms), les paramètres de dessin, les paramètres de suivi et les paramètres de retour sur investissement.
    2. Pour la fonction Classif, cliquez sur le bouton Config |+, sélectionnez le backend (CUDA ou CPU) | Donnez un nom | cliquez sur OK | choisissez le répertoire du fichier de poids | cliquez sur Choisir. Sous la fonction Classif, sélectionnez les paramètres de classification (Seuil et nombre de prédictions de classe supérieure) et les paramètres de la carte Guide (seuil, alpha, bêta et carte de couleurs).
  3. Affichez les résultats de l’image de test en cliquant sur la fonction d’image dans l’outil Débogage . Enfin, vérifiez les résultats prévus pour chaque image en cliquant sur le bouton Exécuter de l’outil Exécuter le bouton .

9. Validation croisée en cinq étapes

REMARQUE : Pour valider plus efficacement les performances du modèle proposé, la validation croisée K-fold est utilisée.

  1. Divisez le jeu de données en cinq sections, correspondant aux cinq plis de validation croisée. Au cours de chaque itération de l’entraînement et des tests du modèle, utilisez une section comme jeu de validation pour les tests et les quatre sections restantes pour l’entraînement. Répétez ce processus cinq fois, chaque pli étant utilisé une fois comme jeu de validation.
  2. Pour les plis 1 à 5 :
    1. Répétez la section 5 pour entraîner le modèle à l’aide des données d’apprentissage des quatre plis.
    2. Répétez la section 7.2 pour tester le modèle en utilisant le pli restant comme jeu de test.

10. Évaluation du modèle

  1. Matrice de confusion
    1. Sur la base des résultats des tests, les quatre conditions se produiront comme suit :
      1. Vrai positif (TP) : lorsque l’image d’entrée est vraie et que la prédiction est également vraie.
      2. Faux positif (FP) : lorsque l’image d’entrée est fausse, mais que la prédiction est vraie.
      3. Faux négatif (FN) : lorsque l’image d’entrée est vraie, mais que la prédiction est fausse.
      4. Vrai négatif (TN) : lorsque l’image d’entrée est fausse et que la prédiction est également fausse.
    2. À l’aide de ces quatre conditions, évaluez les performances à l’aide de la matrice de confusion.
  2. Évaluations de la performance
    1. Les mesures de performance de classification les plus couramment utilisées sont l’exactitude, la précision, le rappel, la spécificité et les valeurs de score F1. Calculez toutes les mesures d’évaluation dans les équations (1 à 6) utilisées pour évaluer les performances du modèle à partir des valeurs de la matrice de confusion.
      Equation 1(1)
      Equation 2(2)
      Equation 3(3)
      Equation 4(4)
      Equation 5(5)
      Equation 6(6)
  3. Courbe ROC
    REMARQUE : La courbe ROC est une mesure de performance pour les problèmes de classification avec des paramètres de seuil différents. L’aire sous la courbe ROC (AUC) représente le degré ou la mesure de la séparabilité, tandis que la ROC est une courbe de probabilité.
    1. La courbe ROC est un graphique bidimensionnel avec les valeurs du taux de vrais positifs (TPR) et du taux de faux positifs (FPR) tracées sur les axes Y et X, respectivement. Construisez les courbes ROC à l’aide des valeurs TPR et TFR obtenues à partir de la matrice de confusion. La valeur TPR est la même que la sensibilité ; calculer la valeur FPR à l’aide de l’équation (7).
      Equation 7(7)
    2. Après avoir obtenu les valeurs TPR et FPR, tracez la courbe ROC à l’aide de l’outil Web open source Jupyter Notebook dans un environnement Python. L’ASC est un moyen efficace d’évaluer la performance du modèle proposé dans l’analyse de la courbe ROC.
  4. Courbe PR
    1. Utilisez la courbe PR pour évaluer les modèles en mesurant l’aire sous la courbe PR. Construisez la courbe PR en traçant la précision et le rappel des modèles à l’aide des fonctions de seuil de confiance du modèle. Étant donné que la courbe PR est également un graphique bidimensionnel, tracez Rappel sur l’axe des x et Précision sur l’axe des y.
    2. Tracez la courbe PR, comme la courbe ROC, à l’aide de l’outil Web open source Jupyter Notebook dans un environnement Python. L’aire sous le score de la courbe de précision et de rappel (ASC) est également utile dans la classification multi-étiquettes.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Dans cette étude, des algorithmes hybrides d’apprentissage profond ont été proposés pour aider à prédire automatiquement la positivité d’un échantillon de sang avec une infection par le parasite trypanosome. Des films sanguins archivés et colorés par Giemsa ont été triés pour localiser et classer les parasitaires par rapport aux non-parasites en utilisant l’algorithme de détection d’objets basé sur un réseau neuronal de base du darknet. Dans tous les résultats de prédiction de boîtes rectangulaires obtenus par le modèle précédent, le modèle de classification le mieux sélectionné a été développé pour classer les trois espèces de trypanosomes importants sur le plan médical et vétérinaire, y compris T. brucei, T. cruzi et T. evansi. Le résultat final des modèles hybrides utilisés a révélé la robustesse des modèles proposés par rapport à la variation d’images microscopiques 100x qui pourraient affecter le résultat de la prédiction, y compris la morphologie du parasite au stade sanguin. De plus, les facteurs environnementaux peuvent perturber la qualité de l’image du changement de couleur de coloration en stockant le temps, l’intensité des sources lumineuses du microscope et les compétences de préparation du film sanguin. Néanmoins, le modèle le mieux sélectionné peut atteindre l’objectif avec des performances élevées.

Localisation et classification d’étiquettes multi-classes
Étant donné que la détection de protozoaires parasites à partir de la coloration du film sanguin par Giemsa par microscopie à immersion dans l’huile est fastidieuse et allonge le délai d’exécution, cela conduit à un biais d’erreur sujett. Les approches d’IA bien entraînées nécessitent un grand nombre de données d’image avec une mise à l’échelle de 416 x 416 pixels et des caractéristiques variables des canaux de couleur 3-RVB pour augmenter la prédiction correcte de la localisation et de la classification. Le nombre de paramètres pendant l’entraînement et l’optimisation des modèles est configuré avec un taux d’apprentissage de 0,002, un rodage de 1 000 et des pas compris entre 400 000 et 450 000. Une faible perte d’entraînement mais une précision d’entraînement élevée ont été considérées comme le niveau optimal ou la saturation sous une quantité de mouvement de 0,9, une teinte de 0,1 et une décroissance de 0,0005. Dans la phase de test avec des données invisibles, la localisation et la classification correctes ont été effectuées en utilisant les concepts d’intersection sur l’union (IOU) et de pourcentage de probabilité. Le résultat de l’interprétation du test a été effectué à un seuil de 50 % et à une suppression non maximale (NMS) de 0,4, ce qui a donné la bonne réponse avec un % de probabilité.

Comme pour tous les films sanguins parasités étudiés, la discrimination du trypanosome par rapport au non-trypanosome a été réalisée à l’aide d’un modèle de réseau neuronal de détection qui peut fonctionner à la fois pour la localisation et la classification (Figure 1)22. Le résultat de prédiction de la tâche de détection proposée a révélé un résultat exceptionnel avec une précision moyenne moyenne de 93,10 % (Tableau 1). Bien que le modèle de détection entraîné puisse être utilisé pour identifier la classe des non-trypanosomes plus que celui utilisé pour identifier le parasite trypanosome, il nous apporte une précision supérieure à 91% pour les étiquettes des deux classes. De plus, la courbe de précision en fonction du rappel a montré une valeur AUC très moyenne de 0,969, ce qui a donné les valeurs d’ASC pour le parasite et le non-parasite à 0,976 et 0,961, respectivement (Figure 2). Cela nous a amenés à nous assurer que le modèle entraîné pouvait être digne de confiance. La boîte rectangulaire du premier résultat de détection a été recadrée à l’aide du module de capture d’image du programme interne CiRA CORE. Les images recadrées mentionnées ci-dessus ont été triées dans trois dossiers spécifiques aux espèces de trypanosomes. Ce processus a été préparé pour entrer des données pour le modèle de classification de l’apprentissage illustré dans la sous-section suivante.

Classification par modèle
Afin de trouver un modèle approprié pour classer les espèces bien connues du parasite, T. brucei, T. cruzi et T. evansi ont été conservés dans des dossiers auxquels ont été attribués leurs noms de classe relatifs. Au cours de l’entraînement de l’IA, des images redimensionnées de 256 x 256 pixels ont été introduites dans trois canaux RVB, avec un taux d’apprentissage de 0,1, un burn-in de 1000, une quantité de mouvement de 0,9, une teinte de 0,1 et une décroissance de 0,0005. La perte d’apprentissage et la précision d’entraînement ont été utilisées pour trouver le modèle d’entraînement optimal. La prédiction de la classification a été analysée à l’aide des concepts de détermination au pixel près et de pourcentage de probabilité à un seuil de 50 %.

La comparaison de trois algorithmes de réseaux neuronaux de classification populaires a été étudiée pour trouver le meilleur27,30. Ces trois réseaux de neurones ont été largement utilisés dans la classification des étiquettes multiclasses dans les domaines médical et vétérinaire 27,34,35. Le résultat d’inférence du modèle entraîné avec un pourcentage de probabilité de 0 à 1 était justifié au-dessus du seuil de 50 %. De plus, différentes reconnaissances de formes de chaque parasite ont été mises en évidence et spécifiques au noyau de la partie médiane de T. evansi par la carte d’attention. Le plus grand organite kinétoplaste de la partie antérieure de T. cruzi par rapport aux deux autres espèces a également été mis en évidence. La nucléase et le kinétoplaste ont tous deux été mis en évidence par la carte d’attention trouvée pour T. brucei (Figure 3).

Plusieurs paramètres statistiques ont été utilisés pour mesurer les trois modèles proposés, notamment l’exactitude, le taux d’erreur de classification, le rappel (taux de vrais positifs), la spécificité (taux de vrais négatifs), le taux de faux positifs, le taux de faux négatifs, la précision et le score F1. En conséquence, presque toutes les mesures d’évaluation utilisant le réseau neuronal Densenet201 ont montré des valeurs supérieures aux autres. En moyenne, les valeurs métriques de l’exactitude, du rappel, de la spécificité, de la précision et du score F1 étaient remarquablement supérieures et égales à 98 %. Cependant, l’importance de la performance du modèle a révélé que les taux d’erreurs de classification, de faux positifs et de faux négatifs étaient inférieurs ou égaux à 1,5 % (tableau 2). Compte tenu de la comparaison par classe, le modèle Densenet201 semble identifier correctement T. evansi sans erreur tout en le faisant avec des données de test invisibles, ce qui suggère que le modèle potentiellement entraîné est destiné à distinguer les espèces de parasites.

Dans la figure 4A-C, l’ASC sous la courbe ROC a donné le plus haut degré de précision moyenne à 0,931 obtenu à partir du meilleur modèle de classification (figure 4C), ce qui était représentatif de la confirmation du meilleur modèle sélectionné étudié. L’ASC de T. evansi était de 0,817, ce qui est inférieur aux autres (0,980-1,00 pour T. brucei et 0,955-0,977 pour T. cruzi) et contraste avec les mesures statistiques ci-dessus. Cela peut être dû au fait que ces deux valeurs sont calculées par des formules différentes. L’ASC a été obtenue à partir de tous les seuils, mais les mesures statistiques à partir d’un seuil de seulement 50 %, ce qui suggère que ces deux valeurs ne peuvent pas être comparées. Par conséquent, les valeurs cohérentes de l’ASC par nom de classe obtenues à partir des trois modèles indiquent la précision générale de T. brucei > de T. cruzi > de T. evansi, respectivement.

Validation croisée K-Fold
Pour évaluer la robustesse du modèle de classification le mieux sélectionné étudié en termes d’estimation de l’erreur de prédiction réelle et d’ajustement des paramètres du modèle comme décrit ci-dessus36, la technique de validation croisée en cinq volets a été utilisée. Une division aléatoire des données en cinq dossiers a été effectuée. Les données entraînées affectées par quatre dossiers et les données testées pour le dossier rest ont été préparées avant l’entraînement avec l’algorithme de classification sélectionné.

Par conséquent, les mesures statistiques moyennes ; l’exactitude, le rappel (taux de vrais positifs), la spécificité (taux de vrais négatifs), la précision et le score F1, ont fourni des valeurs similaires des paramètres statistiques étudiés qui ont montré plus de 98 % (tableau 3). En tenant compte de chaque métrique étudiée, un classement de 0,992 à 1,000 en termes de précision a été trouvé. Des valeurs de spécificité élevées allant de 0,994 à 1,000 ont été fournies. Les scores de rappel et de F1 allant de 0,988 à 1,000 ont été montrés, de même, 0,989-1,000 ont été étudiés avec précision. Il est intéressant de noter que les taux d’erreurs de classification, de faux négatifs et de faux positifs étaient inférieurs à 1,2 %. Cette performance de qualité a soutenu le modèle entraîné exceptionnel avec des plis de données variés et représentait la robustesse.

Accompagnant les métriques proposées, l’ASC moyenne sous la courbe ROC obtenue a révélé des valeurs fermées allant de 0,937 à 0,944, ce qui donne des valeurs similaires de précision générale entre les cinq plis des données (Figure 5). La comparaison par classe a fourni une ASC variée de 0,831 pour T. evansi, de 0,982 à 1,000 pour T. cruzi et de 1,000 pour T. brucei. Bien que la valeur de l’ASC de T. evansi soit inférieure à celle des autres, les valeurs peuvent être exposées au degré élevé de taux de faux positifs (~33 %) appartenant aux seuils de 1 % à 97 %, ce qui se traduit par des valeurs d’ASC plus faibles par rapport à celles des deux autres classes (Figure 6).

Le deep learning hybride : une sélection pratique
Dans cette section, la contribution de l’approche hybride d’apprentissage profond entre la détection d’objets et, d’autre part, la technique de classification est illustrée à la figure 7. Les caractéristiques parasitaires et non parasitaires ont été distinguées et leurs classes relatives identifiées à l’intérieur de la boîte englobante rose à l’aide du premier modèle de détection. Ensuite, les espèces spécifiques du parasite ont été diagnostiquées dans différentes couleurs à l’aide d’un modèle de classification bien entraîné. L’étiquette verte était pour T. evansi, l’étiquette rose pour T. brucei et l’étiquette orange pour T. cruzi. La deuxième étiquette de classification ne serait pas affichée si le premier modèle de détection échouait, ce qui suggère les fonctions bien connectées entre ces deux épines dorsales de réseau neuronal différentes dans le module D-C de la plateforme interne CORE de l’ACEI.

Figure 1
Figure 1 : Architecture d’un modèle hybride. Les trois espèces parasitaires de trypanosomes (y compris Trypanosoma evansi, T. brucei et T. cruzi) ont été utilisées comme intrants. Plusieurs objets dans une image microscopique 100x ont été détectés à l’aide du modèle de détection. Un seul objet recadré du modèle précédent a ensuite été classé en fonction de son espèce relative en utilisant le modèle de classification le plus élevé. Une carte d’attention intégrée au meilleur modèle de classification a mis en évidence les zones spécifiques à chaque étiquette de classe. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 2
Figure 2 : Courbe PR. L’aire sous la courbe PR, ou valeur de l’ASC, dans cette étude, est utilisée pour mesurer la capacité à discriminer entre les classes de non-trypanosome et de trypanosome. Tous les échantillons peuvent être détectés sur les étiquettes des deux classes. Une ASC de 1 est une prédiction parfaite, tandis qu’une ASC de 0,5 est une prédiction aléatoire. La courbe est utilisée pour mesurer les performances du modèle de détection proposé. Ce modèle peut détecter la classe des trypanosomes à un taux plus élevé (ASC = 0,976) que la classe des non-trypanosomes (ASC = 0,961). La valeur moyenne de l’ASC de 0,969 a été obtenue à partir du résultat binaire de deux étiquettes de classe, le non-trypanosome et le trypanosome. Abréviations : PR = précision versus rappel ; ASC = aire sous la courbe. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 3
Figure 3 : Résultat prédictif du modèle de classification. Les trois espèces de trypanosomes ont été utilisées pour tester les modèles entraînés les mieux proposés. Des images en sortie de cartes de probabilité et d’attention basées sur la classification des espèces sont affichées. Plus précisément, les cartes d’attention ont mis en évidence les zones significatives à l’intérieur de l’objet invisible qui guidaient la discrimination des espèces parasites. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 4
Figure 4 : Courbes ROC basées sur des comparaisons de modèles. L’ASC sous la courbe ROC est un graphique de la performance d’un système de classification en fonction de son seuil de discrimination variable. Semblable à la courbe AUC-PR, l’AUC-ROC de 1 est une prédiction parfaite, tandis que l’ASC de 0,5 est une prédiction aléatoire, qui est indiquée par des lignes pointillées dans chaque graphique. Trois modèles de classification ont été comparés, y compris (A) le1er modèle de classification avec une ASC moyenne de 0,925, (B) la 2ème classification avec une ASC moyenne de 0,924 et (C) la meilleure classification avec une ASC moyenne de 0,931. Par conséquent, plus l’ASC est élevée, meilleures sont les performances. Abréviations : ROC = caractéristiques de fonctionnement du récepteur ; ASC = aire sous la courbe. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 5
Figure 5 : Validation croisée en cinq étapes. Toutes les expériences basées sur les meilleurs modèles de réseaux neuronaux de classification ont été comparées. Des valeurs d’ASC similaires pour les données quintuples comprenaient (A) 0,944, (B) 0,944, (C) 0,937, (D) 0,941 et (E) 0,938, ce qui suggère la robustesse du modèle entraîné proposé utilisé par rapport à la variation des données biologiques. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 6
Figure 6 : taux de vrais positifs et taux de faux positifs par nom de classe. L’axe des abscisses est représentatif des seuils de 1 % à 97 %. L’axe des Y est représentatif des degrés des mesures statistiques. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 7
Figure 7 : Rendement final des modèles hybrides. La dernière étape de la contribution du modèle hybride peut être appliquée avec des données d’entrée sous forme d’image microscopique brute de 20 μm. Le résultat prédictif peut être obtenu à partir des modèles de détection d’objets et de classification. Le premier résultat prédictif a permis de savoir si l’image de test invisible contenait des parasites trypanosomes avec un rectangle (étiquettes de couleur rose). Ensuite, les résultats de classification spécifiques à l’espèce parasitaire seront suivis d’une première détection avec des étiquettes multicolores ; vert pour T. evansi, rose pour T. brucei et orange pour T. cruzi. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Tableau 1 : Précision moyenne par classe et précision moyenne (mAP) du modèle de détection. Veuillez cliquer ici pour télécharger ce tableau.

Tableau 2 : Comparaison du modèle de classification. Huit paramètres d’évaluation ont été utilisés pour mesurer la performance du modèle, notamment l’exactitude, le taux d’erreur de classification, le rappel (taux de vrais positifs), la spécificité (taux de vrais négatifs), le taux de faux positifs, le taux de faux négatifs, la précision et le score F1. La valeur en gras est représentative de la valeur la plus élevée par étiquette de classe. La valeur en italique est représentative de la valeur moyenne de chaque métrique d’évaluation. Veuillez cliquer ici pour télécharger ce tableau.

Tableau 3 : Validation croisée en cinq étapes. La valeur en gras est représentative de la valeur moyenne par mesure d’évaluation. Veuillez cliquer ici pour télécharger ce tableau.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

L’observation microscopique de l’infection par les protozoaires à Trypanosoma est précoce et couramment utilisée, en particulier lors de la surveillance dans les zones reculées où il y a un manque de techniciens qualifiés et des processus à forte intensité de main-d’œuvre et de temps qui sont autant d’obstacles à la déclaration de l’organisation sanitaire en temps opportun. Bien que les techniques de biologie moléculaire telles que l’immunologie et la réaction en chaîne par polymérase (PCR) aient été approuvées en tant que méthodes à haute sensibilité pour soutenir l’efficacité des résultats de laboratoire, des produits chimiques, des appareils et des professionnels coûteux sont nécessaires pour les traiter, qui sont principalement situés dans un laboratoire central d’un grand centre de santé. La morphologie commune, l’infection mixte et immature et les caractéristiques de trois espèces de Trypanosoma sont sujettes à des biais d’utilisation et à des erreurs d’identification, ce qui réduit la réponse au médicament et la mesure de contrôle37. L’utilisation d’algorithmes modifiés et hybrides entre deux modèles d’apprentissage profond différents au sein du programme d’IA proposé peut surmonter de nombreux défis, rendant une nouvelle ère de taxonomie standard automatique et réalisable. Des publications antérieures ont confirmé le potentiel des modèles hybrides dans l’identification des stades sanguins du paludisme27,38. Voici l’explication du protocole d’entraînement, de test et d’évaluation des modèles d’IA proposés pour reconnaître les stades matures de trois espèces de Trypanosoma bien connues avec un processus simplifié d’analyse pour l’identification pratique et la quantification ultérieure des protozoaires parasites dans un champ microscopique.

Le modèle proposé va au-delà du modèle d’apprentissage automatique utilisant l’algorithme de forêt aléatoire, qui a été appliqué pour identifier l’infection de T. cruzi à partir d’échantillons de frottis sanguins. Le modèle d’apprentissage automatique a atteint une précision de 87,6 %, une sensibilité de 90,5 % et une aire sous la courbe caractéristique de fonctionnement du récepteur de 0,94239. En 2015, deux méthodes d’apprentissage AdaBoost et d’apprentissage SVM ont été menées pour distinguer T. cruzi de l’infection par le paludisme dans les frottis sanguins. Bien qu’un degré élevé de sensibilité et de spécificité ait été rapporté, un ensemble de données limité de 120 images en couleur de faible dimension de 256 × 256 pixels a été étudié, ce qui peut ne pas être représentatif de l’ensemble de la population40. Dans cette étude, trois espèces zoonotiques bien connues de Trypanosoma (p. ex., T. cruzi, T. brucei et T. evansi) ont été séparées à l’aide du modèle hybride proposé, qui a surpassé les études précédentes décrites ci-dessus. Cela représente la rentabilité du modèle d’apprentissage profond. Néanmoins, plusieurs grands ensembles de données peuvent nécessiter une validation de la performance du modèle proposé pour confirmer sa généralisation41. T. lewisi a le potentiel d’infecter les humains de manière opportuniste, et il est reconnu comme une maladie zoonotique émergente transmise par les rats, souvent liée à des conditions de pauvreté. Des cas ont été documentés dans certains pays, comme la Thaïlande et la Chine20,42. De plus, les morphologies de T. evansi et de T. lewisi présentent une ressemblance frappante17. Afin d’améliorer l’ensemble de données et le modèle proposé, l’inclusion d’un plus grand nombre d’instances de T. lewisi pourrait être bénéfique dans le développement d’un modèle d’apprentissage profond à l’avenir. Afin d’élargir la portée des techniques potentielles d’apprentissage profond pour le diagnostic d’autres trypanosomoses animales, il est conseillé de rassembler des ensembles de données pour d’autres espèces telles que T. vivax, T. theileria et T. melophagium. L’un des défis importants à relever est le diagnostic des infections mixtes impliquant diverses espèces de Trypanosoma, car les méthodes de détection des anticorps peuvent présenter une spécificité réduite en raison de réactions croisées43. Il est essentiel d’améliorer et de renforcer les techniques de diagnostic pour faire progresser les applications de l’intelligence artificielle et protéger la santé du bétail, des humains et de l’environnement.

Avant d’entraîner le programme d’IA proposé à reconnaître l’image 2D des protozoaires parasites, les critères importants nécessaires pour le compléter, tels qu’une grande taille d’échantillon, l’équilibrage des classes, l’augmentation des données et l’étiquetage de la qualité par des experts. En tant qu’étapes critiques, le signal d’erreur de la phase d’apprentissage peut être démêlé par des professionnels pour reproduire les étiquettes de vérité terrain pour les algorithmes Darknet et Densenet. L’un des principaux avantages du programme d’IA proposé est son utilisation conviviale pour les utilisateurs non codants grâce à des étapes faciles de glisser-déposer. Une autre caractéristique importante est le module combiné de la version de détection et de la carte d’attention intégrée aux modèles de classification, qui permet de tester les données invisibles le plus rapidement possible sans se soucier du format de fichier d’image brute. En effet, un plus large éventail de formats d’image peut être utilisé, notamment .jpeg, .jpg, .png, .tif, .tiff, .pdf et .bmp. L’application du programme d’IA avec un composant à monture C du microscope peut conduire à une détection en temps réel dans des zones éloignées.

Les limites de la méthode peuvent affecter les protocoles proposés dans la phase de pré-formation. Avant de commencer l’entraînement d’un modèle d’IA, certaines exigences doivent être bien préparées, en particulier la qualité de l’ensemble de données et les étiquettes d’experts. Dans l’ensemble de données, une petite taille d’échantillon et un déséquilibre de classe ont conduit le modèle à atteindre les minima globaux et à avoir du mal à atteindre le stade optimal. L’utilisation d’un échantillon de grande taille et l’équilibrage des données permettent d’optimiser le modèle avec une grande précision et une faible perte pendant l’entraînement. La variation des images, telle que le stade de développement au cours de la période du cycle de vie des protozoaires et la couleur variée par coloration de Giemsa27,44, les échelles environnementale et d’image, souhaitent être normalisées avant d’alimenter l’entraînement des deux modèles d’apprentissage profond. Pour résoudre les problèmes proposés mentionnés ci-dessus, diverses fonctions d’augmentation telles que les angles de rotation, la luminosité et le contraste, les retournements verticaux et horizontaux, le bruit gaussien et le flou gaussien, peuvent être utilisées pour traiter la phase de pré-entraînement45.

L’application importante des modèles d’IA hybrides proposés est d’identifier les protozoaires parasites en temps réel dans les données microscopiques sous forme de données brutes provenant du microscope, d’images figées et de clips vidéo. Il nous permet de déployer le modèle entraîné avec des appareils de périphérie intégrés46, une application mobile basée sur le cloud47, une interface utilisateur de navigateur (BUI)48 et un déploiement de modèle basé sur le Web49. Par conséquent, le modèle d’IA a le potentiel d’appliquer l’apprentissage profond hybride à la surveillance active et de fournir un résultat rapide en raison de sa capacité à soutenir la décision du personnel local en quelques millisecondes, suggérant une technologie de dépistage automatique pour l’épidémiologie auxiliaire.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Tous les auteurs n’ont aucune divulgation financière et aucun conflit d’intérêts.

Acknowledgments

Ce travail (Bourse de recherche pour les nouveaux chercheurs, subvention no. RGNS 65 - 212) a été soutenu financièrement par le Bureau du Secrétaire permanent du Ministère de l’enseignement supérieur, de la science, de la recherche et de l’innovation (OPS MHESI), la Thaïlande de la recherche scientifique et de l’innovation (TSRI) et l’Institut de technologie du roi Mongkut à Ladkrabang. Nous sommes reconnaissants au Conseil national de recherches de Thaïlande (NRCT) [NRCT5-RSA63001-10] pour le financement du projet de recherche. M.K. a été financé par le Fonds thaïlandais de recherche scientifique et d’innovation de l’Université Chulalongkorn. Nous remercions également le College of Advanced Manufacturing Innovation, l’Institut de technologie du roi Mongkut, à Ladkrabang, qui a fourni la plate-forme d’apprentissage profond et le logiciel pour soutenir le projet de recherche.

Materials

Name Company Catalog Number Comments
Darknet19, Darknet53 and Densenet201 Gao Huang, Z. L., Laurens van der Maaten. Densely Connected Convolutional Networks. arXiv:1608.06993 [cs.CV]. (2016) https://github.com/liuzhuang13/DenseNet  Deep convolutional neural network model that can function to  classification
Generic name: YOLO model/ detection model?
Olympus CX31 Model CX31RRBSFA  Olympus, Tokyo, Japan SN 4G42178  A light microscope 
Olympus DP21-SAL U-TV0.5XC-3  Olympus, Tokyo, Japan SN 3D03838 A digital camera
Generic name: Classification models/ densely CNNs
Window 10 Microsoft Window 10 Operation system in computers
YOLO v4-tiny  Naing, K. M. et al. Automatic recognition of parasitic products in stool examination using object detection approach. PeerJ Comput Sci. 8 e1065, (2022). https://git.cira-lab.com/users/sign_in Deep convolutional neural network model that can function to both localization and also classification 
https://git.cira-lab.com/users/sign_in

DOWNLOAD MATERIALS LIST

References

  1. Kasozi, K. I., et al. Epidemiology of trypanosomiasis in wildlife-implications for humans at the wildlife interface in Africa. Frontiers in Veterinary Science. 8, 621699 (2021).
  2. Ola-Fadunsin, S. D., Gimba, F. I., Abdullah, D. A., Abdullah, F. J. F., Sani, R. A. Molecular prevalence and epidemiology of Trypanosoma evansi among cattle in peninsular Malaysia. Acta Parasitologica. 65 (1), 165-173 (2020).
  3. Aregawi, W. G., Agga, G. E., Abdi, R. D., Buscher, P. Systematic review and meta-analysis on the global distribution, host range, and prevalence of Trypanosoma evansi. Parasites & Vectors. 12 (1), 67 (2019).
  4. Joshi, P. P., et al. Human trypanosomiasis caused by Trypanosoma evansi in India: the first case report. The Am Journal of Tropical Medicine and Hygiene. 73 (3), 491-495 (2005).
  5. Lidani, K. C. F., et al. Chagas disease: from discovery to a worldwide health problem. Frontiers in Public Health. 7, 166 (2019).
  6. Sazmand, A., Desquesnes, M., Otranto, D. Trypanosoma evansi. Trends in Parasitology. 38 (6), 489-490 (2022).
  7. Powar, R. M., et al. A rare case of human trypanosomiasis caused by Trypanosoma evansi.Indian. Journal of Medical Microbiology. 24 (1), 72-74 (2006).
  8. Shegokar, V. R., et al. Short report: Human trypanosomiasis caused by Trypanosoma evansi in a village in India: preliminary serologic survey of the local population. American Journal of Tropical Medicine and Hygiene. 75 (5), 869-870 (2006).
  9. Haridy, F. M., El-Metwally, M. T., Khalil, H. H., Morsy, T. A. Trypanosoma evansi in dromedary camel: with a case report of zoonosis in greater Cairo, Egypt. Journal of the Egyptian Society of Parasitology. 41 (1), 65-76 (2011).
  10. Dey, S. K. CATT/T.evansi antibody levels in patients suffering from pyrexia of unknown origin in a tertiary care hospital in Kolkata. Research Journal of Pharmaceutical, Biological and Chemical Sciences. 5, 334-338 (2014).
  11. Dakshinkar, N. P., et al. Aberrant trypanosomias in human. Royal Veterinary Journal of India. 3 (1), 6-7 (2007).
  12. Vn Vinh Chau, N., et al. A clinical and epidemiological investigation of the first reported human infection with the zoonotic parasite Trypanosoma evansi in Southeast Asia. Clinical Infectious Diseases. 62 (8), 1002-1008 (2016).
  13. Misra, K. K., Roy, S., Choudhary, A. Biology of Trypanosoma (Trypanozoon) evansi in experimental heterologous mammalian hosts. Journal of Parasitic Diseases. 40 (3), 1047-1061 (2016).
  14. Nakayima, J., et al. Molecular epidemiological studies on animal trypanosomiases in Ghana. Parasites & Vectors. 5, 217 (2012).
  15. Riana, E., et al. The occurrence of Trypanosoma in bats from Western Thailand. The 20th Chulalongkorn University Veterinary Conference CUVC 2021: Research in practice. 51, Bangkok, Thailand. (2021).
  16. Camoin, M., et al. The Indirect ELISA Trypanosoma evansi in equids: optimisation and application to a serological survey including racing horses, in Thailand. BioMed Research International. 2019, 2964639 (2019).
  17. Truc, P., et al. Atypical human infections by animal trypanosomes. PLoS Neglected Tropical Diseases. 7 (9), 2256 (2013).
  18. Desquesnes, M., et al. Diagnosis of animal trypanosomoses: proper use of current tools and future prospects. Parasites & Vectors. 15 (1), 235 (2022).
  19. Da Silva, A. S., et al. Trypanocidal activity of human plasma on Trypanosoma evansi in mice. Revista Brasileira de Parasitologia Veterinaria. 21 (1), 55-59 (2012).
  20. Desquesnes, M., et al. Trypanosoma evansi and surra: a review and perspectives on transmission, epidemiology and control, impact, and zoonotic aspects. BioMed Research International. 2013, 321237 (2013).
  21. World Health Organization. A new form of human trypanosomiasis in India. Description of the first human case in the world caused by Trypanosoma evansi. Weekly Epidemiological Record. 80 (7), 62-63 (2005).
  22. Naing, K. M., et al. Automatic recognition of parasitic products in stool examination using object detection approach. PeerJ Computer Science. 8, 1065 (2022).
  23. Wongsrichanalai, C., Barcus, M. J., Muth, S., Sutamihardja, A., Wernsdorfer, W. H. A review of malaria diagnostic tools: microscopy and rapid diagnostic test (RDT). American Journal of Tropical Medicine and Hygiene. 77, 119-127 (2007).
  24. Rostami, A., Karanis, P., Fallahi, S. Advances in serological, imaging techniques and molecular diagnosis of Toxoplasma gondii infection. Infection. 46 (3), 303-315 (2018).
  25. Ahmad, Z., Rahim, S., Zubair, M., Abdul-Ghafar, J. Artificial intelligence (AI) in medicine, current applications and future role with special emphasis on its potential and promise in pathology: present and future impact, obstacles including costs and acceptance among pathologists, practical and philosophical considerations. A comprehensive review. Diagnostic Pathology. 16 (1), 24 (2021).
  26. Sarker, I. H. Deep learning: a comprehensive overview on techniques, taxonomy, applications and research directions. SN Computer Science. 2 (6), 420 (2021).
  27. Kittichai, V., et al. Classification for avian malaria parasite Plasmodium gallinaceum blood stages by using deep convolutional neural networks. Scientific Reports. 11 (1), 16919 (2021).
  28. Baskota, S. U., Wiley, C., Pantanowitz, L. The next generation robotic microscopy for intraoperative teleneuropathology consultation. Journal of Pathology Informatics. 11, 13 (2020).
  29. Bochkovskiy, A., Wang, C. -Y., Liao, H. -Y. M. YOLOv4: optimal speed and accuracy of object detection. arXiv. , 10934 (2004).
  30. Huang, G., Liu, Z., vander Maaten, L., Weinberger, K. Q. Densely connected convolutional networks. arXiv. , 06993 (2018).
  31. CDC-DPDx. Diagnostic procedures - Blood specimens. , Available from: https://www.cdc.gov/dpdx/diagosticprocedures/blood/specimenproc.html#print (2020).
  32. World Health Organization. Control and surveillance of African trypanosomiasis: report of a WHO expert committee. WHO Technical Report Series 881. , Available from: https://iris.who.int/bitstream/handle/10665/42087/WHO_TRS_881.pdf?sequence=1 (1998).
  33. Leber, A. L. Detection of blood parasites. Clinical Microbiology Procedures Handbook. , ASM Press. Washington, DC. (2022).
  34. Huang, L. -P., Hong, M. -H., Luo, C. -H., Mahajan, S., Chen, L. -J. A vector mosquitoes classification system based on edge computing and deep learning. Proceedings-2018 Conmference on Technologies and Applications of Artifical Intelligence. , Taichung, Taiwan. 24-27 (2018).
  35. Cihan, P., Gökçe, E., Kalipsiz, O. A review of machine learning applications in veterinary field. Kafkas Universitesi Veteriner Fakultesi Dergisi. 23 (4), 673-680 (2017).
  36. Berrar, D. Cross-validation. Encyclopedia of Bioinformatics and Computational Biology. 1, 542-545 (2019).
  37. Gaithuma, A. K., et al. A single test approach for accurate and sensitive detection and taxonomic characterization of Trypanosomes by comprehensive analysis of internal transcribed spacer 1 amplicons. PLoS Neglected Tropical Diseases. 13 (2), 0006842 (2019).
  38. Vijayalakshmi, A., Rajesh Kanna, B. Deep learning approach to detect malaria from microscopic images. Multimedia Tools and Applications. 79 (21-22), 15297-15317 (2019).
  39. Morais, M. C. C., et al. Automatic detection of the parasite Trypanosoma cruzi in blood smears using a machine learning approach applied to mobile phone images. PeerJ. 10, 13470 (2022).
  40. Uc-Cetina, V., Brito-Loeza, C., Ruiz-Pina, H. Chagas parasite detection in blood images using AdaBoost. Computational and Mathematical Methods in Medicine. 2015, 139681 (2015).
  41. Zhang, C., et al. Deep learning for microscopic examination of protozoan parasites. Computational and Structural Biotechnology Journal. 20, 1036-1043 (2022).
  42. Sarataphan, N., et al. Diagnosis of a Trypanosoma lewisi-like (Herpetosoma) infection in a sick infant from Thailand. Journal of Medical Microbiology. 56, 1118-1121 (2007).
  43. Desquesnes, M., et al. A review on the diagnosis of animal trypanosomoses. Parasites & Vectors. 15 (1), 64 (2022).
  44. Fuhad, K. M. F., et al. Deep learning based automatic malaria parasite detection from blood smear and its smartphone based application. Diagnostics (Basel). 10 (5), 329 (2020).
  45. Christian Matek, S. S., Spiekermann, K., Marr, C. Human-level recognition of blast cells in acute myeloid leukaemia with convolutional neural networks. Nature Machine Intelligence. 1, 538-544 (2019).
  46. Hamdan, S., Ayyash, M., Almajali, S. Edge-computing architectures for internet of things applications: a survey. Sensors (Basel). 20 (22), 6441 (2020).
  47. Visser, T., et al. A comparative evaluation of mobile medical APPS (MMAS) for reading and interpreting malaria rapid diagnostic tests. Malaria Journal. 20 (1), 39 (2021).
  48. Giorgi, E., Macharia, P. M., Woodmansey, J., Snow, R. W., Rowlingson, B. Maplaria: a user friendly web-application for spatio-temporal malaria prevalence mapping. Malaria Journal. 20 (1), 471 (2021).
  49. Rajaraman, S., Jaeger, S., Antani, S. K. Performance evaluation of deep neural ensembles toward malaria parasite detection in thin-blood smear images. PeerJ. 7, 6977 (2019).

Tags

Auto-identification supérieure Parasites trypanosomes Modèle hybride d’apprentissage profond Trypanosomiase Problème de santé publique Asie du Sud Asie du Sud-Est Zones à risque Surveillance active Examen microscopique Personnel qualifié Programme d’intelligence artificielle (IA) Technique hybride d’apprentissage profond Identification d’objets Classification d’objets Squelettes de réseaux neuronaux Plateforme d’IA low-code (CiRA CORE) Espèces de trypanosomes protozoaires Trypanosoma Cruzi T. Brucei T. Evansi Immersion dans l’huile Images microscopiques Reconnaissance de formes Noyau et kinétoplaste Carte d’attention Mesures statistiques Exactitude Rappel Spécificité Précision Score F1 Taux d’erreur de classification Courbes des caractéristiques de fonctionnement du récepteur (ROC) Courbes de précision en fonction du rappel (PR)
Auto-identification supérieure des parasites trypanosomes à l’aide d’un modèle hybride d’apprentissage profond
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Kittichai, V., Kaewthamasorn, M.,More

Kittichai, V., Kaewthamasorn, M., Thanee, S., Sasisaowapak, T., Naing, K. M., Jomtarak, R., Tongloy, T., Chuwongin, S., Boonsang, S. Superior Auto-Identification of Trypanosome Parasites by Using a Hybrid Deep-Learning Model. J. Vis. Exp. (200), e65557, doi:10.3791/65557 (2023).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter