Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Bioengineering

Overlegen automatisk identifikation af trypanosomparasitter ved hjælp af en hybrid dyb læringsmodel

Published: October 27, 2023 doi: 10.3791/65557

Summary

Verdensomspændende medicinske blodparasitter blev automatisk screenet ved hjælp af enkle trin på en AI-platform med lav kode. Den potentielle diagnose af blodfilm blev forbedret ved hjælp af en objektdetekterings- og klassificeringsmetode i en hybrid dyb læringsmodel. Samarbejdet mellem aktiv overvågning og veltrænede modeller hjælper med at identificere hotspots for trypanosomtransmission.

Abstract

Trypanosomiasis er et væsentligt folkesundhedsproblem i flere regioner over hele verden, herunder Sydasien og Sydøstasien. Identifikation af hotspotområder under aktiv overvågning er en grundlæggende procedure til kontrol af overførsel af sygdomme. Mikroskopisk undersøgelse er en almindeligt anvendt diagnostisk metode. Det er ikke desto mindre primært afhængigt af kvalificeret og erfarent personale. For at løse dette problem blev der introduceret et program for kunstig intelligens (AI), der gør brug af en hybrid dyb læringsteknik til objektidentifikation og objektklassificering neurale netværksrygrad på den interne AI-platform med lav kode (CiRA CORE). Programmet kan identificere og klassificere protozoerne trypanosomarter, nemlig Trypanosoma cruzi, T. brucei og T. evansi, fra olie-nedsænkning mikroskopiske billeder. AI-programmet bruger mønstergenkendelse til at observere og analysere flere protozoer inden for en enkelt blodprøve og fremhæver kernen og kinetoplasten af hver parasit som specifikke karakteristiske træk ved hjælp af et opmærksomhedskort.

For at vurdere AI-programmets ydeevne oprettes to unikke moduler, der giver en række statistiske målinger såsom nøjagtighed, tilbagekaldelse, specificitet, præcision, F1-score, fejlklassificeringshastighed, kurver for modtagerens driftsegenskaber (ROC) og præcision versus tilbagekaldelse (PR) kurver. Vurderingsresultaterne viser, at AI-algoritmen er effektiv til at identificere og kategorisere parasitter. Ved at levere et hurtigt, automatiseret og præcist screeningsværktøj har denne teknologi potentialet til at transformere sygdomsovervågning og -kontrol. Det kunne også hjælpe lokale embedsmænd med at træffe mere informerede beslutninger om strategier til blokering af sygdomsoverførsel.

Introduction

Trypanosomiasis er en betydelig udfordring for globale sundhedsproblemer på grund af en række zoonotiske arter, der forårsager menneskelig sygdom med en bred vifte af geografisk fordeling uden for de afrikanske og amerikanske kontinenter, såsom Syd- og Sydøstasien 1,2,3. Human afrikansk trypanosomiasis (HAT) eller sovesyge, er forårsaget af Trypanosoma brucei gambiense og TB rhodesiense, der producerer henholdsvis kroniske og akutte former, der repræsenterer den største spredning i Afrika. Den forårsagende parasit tilhører Salivaria-gruppen på grund af transmissionen af inficeret spyt af Tsetse-fluer4. den velkendte amerikanske trypanosomiasis (Chagas' sygdom) forårsaget af T. cruzi har været et folkesundhedsproblem for ikke-endemiske lande; herunder Canada, USA, Europa, Australien og Japan på grund af den hyppige migration af individer fra endemiske områder5. Trypanosominfektionen tilhører Stercoraria-gruppen, fordi den overføres af de inficerede afføring af reduviid bugs. Trypanosomiaserne og trypanosomoserne (Surra sygdom) forårsaget af T. evansi-infektionen er endemiske i Afrika, Sydamerika, Vest- og Østasien og Syd- og Sydøstasiatiske lande 3,6. Selvom human trypanosomiasis forårsaget af trypanosomet er blevet rapporteret 3,4,7,8,9,10,11,12, diskuteres overførselsvejen for parasitinfektionen: enten det mekaniske eller inficerede blod gennem hæmatofagiske insekter såsom tsetsefluer og tabanider eller hestefluer 6,7, 8,9,10,12,13,14. Der er ikke fundet nogen caserapport i Thailand, men en høj forekomst af T. evansi-infektionen hos hund15, væddeløbsheste og vandbøffel i den østlige region er blevet offentliggjort16, hvilket tyder på, at en erhvervet transmission mellem husdyr ville have fundet sted. Flere atypiske humane infektioner forårsaget af dyretrypanosomer (T. vivax, T. b. brucei, T. congolense, T. lewisi og T. evansi) blev rapporteret, som ikke er de klassiske former for humane trypanosomer17. Bevidstheden om atypiske infektioner hos mennesker kan undervurderes, hvilket understreger behovet for forbedrede diagnostiske test og feltundersøgelser til påvisning og bekræftelse af disse atypiske tilfælde og giver mulighed for korrekt kontrol og behandling af dyrepatogene sygdomme, der påvirker globale husdyr, fødevaresikkerhed18 og menneskers sundhedspleje. Dette førte til udviklingen af en potentiel strategi integreret med en eksisterende fælles metode (mikroskopisk undersøgelse) til hurtigt at screene blodprøver i fjerntliggende områder under aktiv overvågning, hvilket gør det muligt at identificere hotspotzoner til begrænsning og bekæmpelse af sygdommen.

At have en sporadisk forekomst af Surra sygdom i en bred vifte af husdyr såsom dromedarer, kvæg, heste og hunde, der fremkalder en euryxenous T. evansi, kan være zoonotisk for mennesker 1,4,13,14. Menneskelig infektion synes umulig, fordi en trypanolytisk faktor i humant serum, udtrykt fra et sra-lignende gen, er i stand til at forhindre human T. brucei og T. congolense12,19. Som den første caserapport fra Indien viser, har sygdommen desuden ingen sammenhæng med immunkompromitterede hiv-patienter4. Som beskrevet ovenfor kan den mulige humane infektion være relateret til en lipoproteinmangel med høj densitet med unormal funktion af trypanosomlytisk faktor, som er en sjælden autosomal recessiv genetisk lidelse, nemlig Tanger sygdom4. I 2016 blev en vietnamesisk patient opdaget at besidde to vildtype APOL1-alleler og en serum-APOL1-koncentration inden for normalområdet. Imidlertid betragtes teorien om APOL-1-mangel ikke længere som gyldig12. Derfor er en mulig mekanisme for trypanosominfektion direkte kontakt mellem et sår og inficeret dyreblod under erhvervsmæssig husdyrbrug 4,12. Mikroskopisk undersøgelse afslører, at T. evansi-morfologi er en monomorf form af trypomastigote, herunder et overvejende lang, slankt, flagelleret og delende trypanosom, der ligner deres relative arter af T. brucei 1,12,13. Kernen er i den centrale position med en synlig lille kinetoplast i den bageste position. En tidligere undersøgelse viste, at parasitten kan eksistere i to sammenlignelige former, kendt som de klassiske og afkortede former. Det er dog fortsat nødvendigt at bekræfte deres respektive patogene virkninger på værter20. Forløbet af symptomer varierer lige fra intermitterende feber forbundet med kulderystelser og svedtendens. Suramin, heldigvis, er en vellykket første-linje terapi for tidlig fase human afrikansk trypanosomiasis uden invasion af centralnervesystemet (CNS), helbredende patienter i Indien og Vietnam 4,12,21.

Bortset fra klinisk tegnundersøgelse findes der flere diagnostiske metoder for T. evansi-parasitter, herunder parasitologisk mikroskopisk observation 4,9,12, serologisk 4,8,9,10,12 og molekylærbiologiske test 4,12. Tyndblodsfilm farvet med Giemsa bruges ofte til at visualisere parasitten, der er til stede under mikroskopisk undersøgelse, som rutinemæssigt og almindeligt anvendes22. Proceduren ser imidlertid ud til at være mulig. Ikke desto mindre er det tidskrævende og arbejdskrævende, har interrater vurderingsvariation, er følsomt over for kun en akut fase og kræver en personlig praktikant23. Både molekylærbiologi og serologisk testning havde også brug for højt kvalificeret personale til at udføre flere processer til prøveforberedelse, herunder ekstraktion og rensning af prøverne, før de testes med dyrt apparatur, hvilket er vanskeligt at standardisere, risiko for kontaminering med ekstraparasitære materialer og uoverensstemmelser i resultaterne24. På grundlag af ovennævnte rationale er der behov for hurtig og tidlig screeningteknologi til støtte for feltovervågningsundersøgelsen og sikre, at undersøgelsesresultatet indberettes rettidigt med henblik på at identificere hotspotzonen med henblik på yderligere kontrol med sygdomsoverførslen 1,8. Computerbaserede enheder (CAD) er blevet foreslået som en innovativ teknologi til medicinske områder, herunder histopatologiske og cytopatologiske opgaver25. CAD nævnt ovenfor blev udført med høj hastighed og beregnet ved hjælp af mønstergenkendelse, nemlig kunstig intelligens (AI). AI-metoden opnås ved hjælp af convolutional neurale netværksalgoritmer, der kan bruges til at håndtere et stort antal datasætprøver, især en overvåget læringstilgang, der træner en veltrænet model efter dataforbrug.

Generelt er AI computerens evne til at løse opgaver, der kræver ekspertintelligens, såsom datamærkning. Machine learning (ML), et underfelt af AI, er repræsenteret som et computersystem med to forskellige processer, der består af funktionsekstraktion og mønstergenkendelse. Deep learning (DL) eller avancerede ML-algoritmer henviser til udviklingen af computeriserede programmer og enheder, der sammenligner menneskelignende ydeevne med nøjagtighedsniveauer, der er større og lig med den, der opnås af menneskelige fagfolk26. I øjeblikket er DL's rolle på medicinske og veterinære områder lovende at udvide og revolutionere forebyggelse af smitsomme sygdomme med det formål at forebygge nyere og lede det til individuelt sundhedspersonale 22,27. Den potentielle DL-applikation er ubegrænset med kvalitetsmærker og et stort antal udvidede datasæt, hvilket frigør specialister til at styre projektopgaven. Specifikt forbedrede et fremskridt i det digitale billede sammen med computerassisteret analyse den automatiske diagnostik og screening i fem rapporterede kategorier af patologi; herunder statiske, dynamiske, robotiske, hele diasbilleddannelse og hybride metoder28. Det er nødvendigt at overveje, at integrationen af DL-algoritmemetoder og digitale billeddata kan tilskynde lokalt personale til at bruge teknologien i deres daglige praksis.

Tidligere var stigningen i forudsigelsesnøjagtighed ved brug af en hybridmodel blevet bevist27. For at identificere trypanosomparasitten i mikroskopiske billeder præsenterer denne forskning to hybridmodeller, der inkorporerer YOLOv4-tiny (objektdetektion) og Densenet201 (objektklassificering) algoritmer. Blandt flere detektionsmodeller viste YOLOv4-tiny med en CSPDarknet53-rygrad høj ydeevne som et forudsigelsesresultat med hensyn til lokalisering og klassificering29. Da realtidsdetektoren har ændret den optimale balance mellem inputnetværksopløsningen, mængden af det konvolutionelle lag, den samlede parameter og antallet af lagudgange, har den forbedret prioritering af hurtige driftshastigheder og optimering til parallelle beregninger sammenlignet med tidligere versioner. Dense Convolutional Network (DenseNet) er en anden populær model, der opnår state-of-the-art resultater på tværs af konkurrencedygtige datasæt. DenseNet201 gav en lignende valideringsfejl, der kan sammenlignes med ResNet101; DenseNet201 har dog færre end 20 millioner parametre, hvilket er mindre end ResNet101's mere end 40 millioner parametre30. Derfor kunne DenseNet-modellen forbedre forudsigelsesnøjagtigheden med et stigende antal parametre uden tegn på overfitting. Her anvender et program for kunstig intelligens (AI) en hybrid deep learning-algoritme med dyb detektions- og klassificeringsneurale netværksrygrad på den interne CiRA CORE-platform. Det udviklede program kan identificere og klassificere de protozoiske trypanosomarter, nemlig Trypanosoma cruzi, T. brucei og T. evansi, fra olie-nedsænkningsmikroskopiske billeder. Denne teknologi har potentialet til at revolutionere sygdomsovervågning og -kontrol ved at levere en hurtig, automatiseret og nøjagtig screeningsmetode. Det kunne hjælpe lokalt personale med at træffe mere informerede beslutninger om transmissionsblokerende strategier for parasitisk protozosygdom.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Arkiverede blodfilm og projektdesign blev godkendt af Institutional Biosafety Committee, Institutional Animal Care and Use Committee ved Det Veterinærvidenskabelige Fakultet, Chulalongkorn University (IBC nr. 2031033 og IACUC nr. 1931027) og Human Research Ethics Committee of King Mongkut's Institute of Technology Ladkrabang (EC-KMITL_66_014).

1. Forberedelse af råbilleder

  1. Forberedelse af billeddatasæt
    1. Få mindst 13 positive dias med blodparasitinfektioner, herunder T. brucei, T. cruzi og T. evansi, bekræftet af parasitologeksperter. Adskil de 13 dias til træning (10 dias) og test (tre dias).
    2. Få billeder af Giemsa-farvede tynde blodfilm beskrevet ovenfor under et olienedsænkningsfelt i et lysmikroskop med et digitalt kamera. Få billeder, der indeholder flere objekter af trypomastigoterne af alle tre parasitarter under mikroskopisk undersøgelse; Se efter en slank form, lange haler, en bølgende membran og en kinetoplast i den forreste ende.
      BEMÆRK: Oprettelse af både tykke og tynde udstrygninger ville forbedre påvisningen af akut fase trypanosomiasis31. Blodtapningen med fingerprik anbefales af WHO32. Ikke desto mindre er tynde film mere effektive til at identificere Trypanosoma cruzi og andre arter, da disse organismer har tendens til at blive forvrænget i tykke film33. I lyset af dette brugte vi tynde blodfilmbilleder til at opretholde den passende morfologi af parasitterne til denne undersøgelse.
    3. Gem alle billeder i en parasitspecifik mappe med følgende specifikationer: 1.600 x 1.200 pixel, 24-bit dybde og JPG-filformat. Opdel billederne i trænings- og testsættene i et ~ 6: 1-forhold.
      BEMÆRK: Se https://gitlab.com/parasite3/superior-auto-identification-of-medically-important-trypanosome-parasites-by-using-a-hybrid-deep-learning-model/-/blob/main/JOVEimage.zip; 650 billeder blev opdelt til træningsmodel (560 billeder) og testmodel (90 billeder).
    4. Definer interesseområdet som en rektangulær etiket for to klasser: trypanosomer og ikke-trypanosomer. Brug modulet til automatisk beskæring til at beskære alle registrerede billeder ved hjælp af den veltrænede objektregistreringsmodel. Auto-cropping modulet er det modul, der er udviklet i det interne CiRA CORE-program (se materialetabel). Indsaml et enkelt objekt pr. billede for at træne objektklassificeringen.
      BEMÆRK: Til dette papir blev 1.017 billeder opdelt til træning (892 billeder) og test (126 billeder). Modeltræningen blev udført med fire mærkede klasser, herunder leukocyt, T. brucei, T. cruzi og T. evansi.

2. Træningsproces med intern CiRA CORE-platform

  1. Start af et nyt projekt
    1. Åbn CiRA CORE-applikationen fra computerens skrivebord (se materialetabel), og opret et nyt projekt ved at dobbeltklikke på programmets ikon.
    2. Vælg betjeningsikonet på venstre lodrette værktøjslinje for at vælge de nødvendige værktøjer.
  2. Træning i objektregistreringsmodel
    1. Vælg funktionen training-DL-model til datamærkning og træning ved hjælp af træk og slip-metoden . Gå til værktøjslinjen Generelt | CiRA AI | Træk DeepTrain | Slip DeepTrain på skærmen (højre side).
      BEMÆRK: For yderligere muligheder skal du højreklikke på det valgte værktøj og udføre de relevante funktioner: Kopier, Klip eller Slet.
    2. Importer billederne ved hjælp af DeepTrain-værktøjets indstillinger. Klik på knappen Indlæs billeder , og naviger til billedmappen. Navngiv objekterne ved at holde venstreklikket nede og navngive det markerede objekt. Juster rektangellinjetykkelsen og skriftstørrelsen ved at klikke på knappen Skærmindstilling og Gem GT som en .gt-fil i samme mappe.
      BEMÆRK: Gem efter behov for at undgå uønskede forhold såsom strømmangel, automatiske programlukninger og hængende i mærkningsprocessen.
    3. Før modeltræning skal du udvide dataene for at indsamle tilstrækkelige oplysninger ved hjælp af de fire forstærkningsteknikker: Rotation, Kontrast, Støj og Sløring. Klik på knappen Genindstilling for at få adgang til denne funktion.
    4. Start modeltræning ved at klikke på knappen Træning i DeepTrain-værktøjet . Træningsdelen har to underfunktioner: Generer træningsfiler og Træn. Under funktionen Generer træningsfiler skal du vælge de ønskede modeller, batchstørrelse og underinddelinger. Klik på knappen Generer for at generere data og gemme dem i biblioteket. I funktionen Træning skal du vælge følgende indstillinger: i) bruge et andet genereret træningssted til betingelser og backup, ii) bruge færdigbyggede vægte til fortsat træning eller iii) tilsidesætte parametre til det aktuelle træningsdesign. Dette vil designe modelkonfigurationen og træningsbetingelserne.
      BEMÆRK: Genereringsprocestiden afhænger af billedfilens størrelse, augmentationsbrug og tilgængelig hukommelsesplads.
    5. Når alle nødvendige konfigurationer er fuldført, skal du starte modeltræningen ved at klikke på knappen Oplær . Lad programmet udføre kontinuerligt, evaluere træningstabet og justere vægten af datasættet under træningsprocessen. Hvis modellen opnår optimalt tab, skal du gemme den trænede vægtfil i den angivne mappe ved at klikke på knappen Eksporter .

3. Evaluering af objektdetekteringsmodel

  1. Vælg funktionen til evaluering af objektregistreringsmodel til modelevaluering ved hjælp af træk og slip-metoden. Gå til værktøjslinjen Plugin | Evaluer | Træk EvalDetect | Slip EvalDetect på skærmen (højre side).
  2. Klik på Indstilling og vent på tre funktioner: Detektion, Evaluer og Plot. Start modelevaluering ved at importere den trænede vægtfil fra mappen (trin 2.2.5) ved at klikke på Indlæs konfiguration.
  3. Under funktionen Registrering skal du vælge NMS-værdi (ikke-maksimal undertrykkelse) for at forbedre nøjagtigheden ved at eliminere redundante registreringer af falsk positiv (FP). NMS fjerner dublerede modelgenererede registreringer for forbedret pålidelighed.
  4. Fortsæt med følgende trin under evalueringsfunktionen :
    1. Importer testbilleder fra billedfilmappen ved at klikke på Gennemse. Importer GT-filen fra den mappe, hvor den blev gemt i trin 2.2.2 ved at klikke på Indlæs GT.
    2. Vælg værdien Intersection over Union (IoU) for at vurdere nøjagtigheden af det specifikke billedtestdatasæt.
    3. Klik på knappen Evaluering for at vurdere registreringsmodellen i den angivne mappe. Når evalueringen er afsluttet, gemmes resultaterne automatisk som en CSV-fil i samme mappe, sorteret efter klassenavn. Denne CSV-fil indeholder vigtige parametre som True Positive (TP), False Positive (FP), False Negative (FN), Recall og Precision for hver klasse.
  5. For at plotte PR-kurven (Precision-Recall ) skal du følge disse trin under funktionen Afbildning : Importer CSV-filerne fra den forrige sektion (trin 3.4) mappe ved at klikke på Gennemse. Vælg klasser på listen, og klik på knappen Plot for at få vist det redigerbare PR-kurvebillede.
  6. Endelig, for at gemme et billede med AUC-værdierne for PR-kurven i det krævede billedformat i den angivne mappe, skal du klikke på knappen Gem på billedet.

4. Billedbeskæring for et enkelt objekt pr. billede

  1. Før du beskærer billederne, skal du udføre følgende trin:
    1. Importer billederne fra billedfilmappen ved at åbne indstillingerne for billeddiasværktøjet.
    2. Importer den trænede vægtfil (gemt i trin 2.2.8) ved at åbne indstillingerne for værktøjet Deep Detect. Klik på knappen Config | +, vælg backend (CUDA eller CPU), angiv et navn, klik på OK, vælg vægtfilmappen, og klik på Vælg. I værktøjet Deep Detect skal du vælge detektionsparametrene (tærskel- og ikke-maksimaundertrykkelse (nms)); tegning parametre; sporing af parametre; og parametre for interesseområde (ROI).
    3. Vælg den mappe, hvor de beskårne billeder gemmes, ved at få adgang til indstillingerne for Deep Crop-værktøjet. Klik på Gennemse | vælg mappen for at gemme de beskårne billeder | klik på Vælg | Vælg billedformatet (JPG eller PNG) | aktiver indstillingen Gem automatisk.
  2. Beskær billeder for at få et enkelt objekt pr. billede til billedklassificering og segmentering. For at udføre denne proces skal du bruge fire værktøjer og etablere forbindelser mellem dem: Gå til værktøjslinjen Generelt | Generelt | Knap Kør. Gå derefter til værktøjslinjen Generelt | CiRA AI | DeepDetect; Gå derefter til værktøjslinjen Generelt | CiRA AI | DeepCrop. Endelig skal du gå til værktøjslinjen Billede | Erhvervelse | ImageSlide.
  3. Når alle de nødvendige indstillinger er på plads, skal du starte billedbeskæringsprocessen ved at klikke på værktøjet Button Run .
  4. Få et nyt billedtræningsdatasæt, der består af enkeltobjektbilleder med en størrelse på 608 x 608.

5. Billedklassificering som modeltræning

  1. Brug træk og slip til at vælge billedklassificeringsmodeltræningsfunktionen til datatræning. Gå til værktøjslinjen Billede | DeepClassif | Træk ClassifTrain | Slip ClassifTrain på skærmen.
  2. Importer billeder til modeltræning ved hjælp af indstillingerne for ClassifTrain-værktøjet . Klik på knappen Åbn mappe , og naviger til den ønskede billedmappe. Før træning skal du udvide dataene ved at klikke på knappen Forstørrelse for at få flere oplysninger ved hjælp af teknikker som rotation, kontrast, vending (vandret og/eller lodret), støj og sløring.
  3. For at starte modeltræning skal du klikke på knappen GenTrain i ClassifTrain-værktøjet . Under funktionen GenTrain skal du vælge modeller, batchstørrelse og underinddelinger. Tildel en mappe for at gemme den genererede fil. Klik på knappen Generer for at fortsætte med data til træning. I funktionen Træning skal du markere de relevante indstillinger: Fortsæt træningen med standardvægt eller tilpasset vægt.
    BEMÆRK: Genereringsprocessen kan tage tid afhængigt af faktorer som billedfilstørrelse, augmentationsbrug, klassebalancering og tilgængelig hukommelsesplads.
  4. Når alle forberedelser er færdige, skal du starte modeltræningen ved at klikke på knappen Start . Tillad programmet at udføre kontinuerligt, evaluere træningstabet og justere vægten af datasættet under træningsprocessen. Hvis modellen opnår det ønskede tabsniveau, skal du gemme den trænede vægtfil i den angivne mappe ved at klikke på knappen Eksporter .

6. Evaluering af klassificeringsmodel

  1. Vælg billedklassificeringsmodelevalueringsfunktionen til modelevaluering ved hjælp af træk og slip-metoden . Gå til værktøjslinjen Plugin | Evaluer | Træk Evaluate Classif | Slip EvaluationClassif på skærmen (højre side).
  2. Klik på Indstilling for at få adgang til yderligere funktioner i værktøjet EvaluationClassif , nemlig Evaluate og PlotROC.
  3. For at starte modelevaluering skal du klikke på knappen Evaluer i værktøjet Evaluate Classif . Følg disse trin under funktionen Evaluer .
    1. Importer testbillederne fra billedfilmappen ved at klikke på billedet Indlæs mappe. Importer den trænede vægtfil fra mappen (gemt i trin 5.4) ved at klikke på Indlæs konfiguration. Klik på knappen Start for at evaluere klassificeringsmodellen.
    2. Når evalueringen er fuldført, skal du gemme den evaluerede fil som CSV i den angivne mappe ved at klikke på knappen Eksporter til CSV . For evaluering af data ved hver tærskel skal du gemme CSV-filen med klassenavne i den angivne mappe ved at klikke på Start alle tærskler. Den gemte CSV-fil indeholder parametre som Recall (True Positive Rate), False Positive Rate og Precision for hver klasse.
  4. For at plotte kurven for modtagerens driftsegenskaber (ROC) skal du klikke på knappen PlotROC i værktøjet EvaluationClassif . Følg disse trin under funktionen PlotROC .
    1. Importer CSV-filer fra den tidligere opnåede mappe ved at klikke på Gennemse. Undersøg den importerede klasseliste, og vælg hver klasseetiket for at afbilde ROC-kurven.
    2. Klik på knappen Afbild for at visualisere ROC-kurven som et billede. Foretag de ønskede redigeringer for at justere billedegenskaber, herunder skriftstørrelse, skriftfarver, afrunding af decimalen, linjeformater og stregfarver.
  5. Til sidst skal du gemme et billede af ROC-kurven med AUC-værdierne i det krævede billedformat i den angivne mappe ved at klikke på knappen Gem .

7. Test af processen med CiRA CORE-applikationen

  1. Objektregistrering som modeltest
    1. For at udføre modeltest skal du bruge fire værktøjer og etablere forbindelser mellem dem. Gå til værktøjslinjen Generelt | Generelt | Knap Kør. Derefter værktøjslinjen Generelt | Generelt | Fejlfinding. Klik derefter på Generel værktøjslinje | CiRA AI | DeepDetect, og endelig Image værktøjslinje | Erhvervelse | ImageSlide.
    2. Før du tester billederne, skal du følge disse trin:
      1. Importer testbillederne fra billedfilmappen ved at klikke på indstillingen Indstilling i billeddiasværktøjet .
      2. Importer den gemte trænede vægtfil fra trin 2.2.8 ved at klikke på indstillingen Indstilling i DeepDetect-værktøjet. Klik på knappen Config, derefter knappen +, vælg backend (CUDA eller CPU), angiv et navn, klik på OK, vælg vægtfilmappen, og klik på Vælg. Under DeepDetect-værktøjet skal du vælge detektionsparametre (tærskel og nms), tegningsparametre, sporingsparametre og ROI-parametre.
      3. Se testbilledresultaterne ved at klikke på billedfunktionen i fejlfindingsværktøjet .
    3. Til sidst skal du kontrollere de forudsagte resultater for hvert billede ved at klikke på knappen Kør knappen på knappen Kør værktøj.
  2. Billedklassificering som modeltest
    1. For at udføre modeltest skal du bruge fire værktøjer og etablere forbindelser mellem dem. Gå til værktøjslinjen Generelt | Generelt | knap Kør; derefter, Generel værktøjslinje | Fejlfinding. Derefter skal du navigere til værktøjslinjen Billede | Erhvervelse | ImageSlide, og endelig, værktøjslinjen Billede | DeepClassif | DeepClassif.
    2. Før du tester billederne, skal du følge disse trin:
      1. Importer testbillederne fra billedfilmappen ved at klikke på indstillingen Indstilling i billeddiasværktøjet .
      2. Importer den gemte trænede vægtfil fra afsnit 5.5 ved at klikke på indstillingen Indstilling i værktøjet DeepClassif . Klik på knappen Konfigurer | + knap | vælg backend (CUDA eller CPU) | Angiv et navn | klik på OK | Vælg mappen Vægtfil | klik på Vælg. Under værktøjet DeepClassif skal du vælge klassificeringsparametrene (tærskel og antal forudsigelser i topklasse), guidekortparametre (tærskel-, alfa-, beta- og farvekort) og forskellige parametre i farveoversigten.
      3. Se testbilledresultaterne ved at klikke på billedfunktionen i fejlfindingsværktøjet .
    3. Til sidst skal du kontrollere de forudsagte resultater for hvert billede ved at klikke på knappen Kør knappen på knappen Kør værktøj.

8. Hybrid (detektion og klassificering) som modelprøvning

  1. For at udføre denne modeltest skal du bruge fire værktøjer og etablere forbindelser mellem dem. Gå til værktøjslinjen Generelt | Generelt | ButtonRun. Derefter værktøjslinjen Generelt | Generelt | Fejlfinding. Derefter værktøjslinjen Billede | Erhvervelse | ImageSlide, og endelig, værktøjslinjen Billede | DeepComposite | DeepD->C.
  2. Før du tester billederne, skal du følge disse trin: Importer testbilleder fra billedfilmappen ved at klikke på indstillingen Indstilling i billeddiasværktøjet . Importer de to gemte trænede vægtfiler fra afsnit 2.1.5 og afsnit 4.4 ved at klikke på indstillingen Indstilling i DeepD->C-værktøjet :
    1. For funktionen Detect skal du klikke på knappen Config |+ knappen, vælge backend (CUDA eller CPU) | Angiv et navn | klik på OK | vælg mappen med vægtfilen | klik på Vælg. Under funktionen Detekter skal du vælge registreringsparametre (tærskel og nms), tegningsparametre, sporingsparametre og ROI-parametre.
    2. For funktionen Classif skal du klikke på knappen Konfigurer |+, vælge backend (CUDA eller CPU) | Angiv et navn | klik på OK | vælg mappen med vægtfilen | klik på Vælg. Under funktionen Classif skal du vælge klassificeringsparametrene (tærskel og antal forudsigelser i topklasse) og programguidekortparametre (tærskel-, alfa-, beta- og farvekort).
  3. Se testbilledresultaterne ved at klikke på billedfunktionen i fejlfindingsværktøjet . Til sidst skal du kontrollere de forudsagte resultater for hvert billede ved at klikke på knappen Kør knappen på knappen Kør værktøj.

9. Fem gange krydsvalidering

BEMÆRK: For at validere ydeevnen for den foreslåede model mere effektivt anvendes K-fold krydsvalidering.

  1. Opdel datasættet i fem sektioner, der svarer til de fem gange krydsvalidering. Under hver gentagelse af modeltræning og test skal du bruge et afsnit som valideringssæt til test og de resterende fire sektioner til træning. Gentag denne proces fem gange, hvor hver fold bruges som valideringssæt én gang.
  2. For fold 1 til 5:
    1. Gentag afsnit 5 for at træne modellen ved hjælp af træningsdataene fra de fire fold.
    2. Gentag afsnit 7.2 for at teste modellen ved hjælp af den resterende foldning som testsæt.

10. Evaluering af modeller

  1. Forvirring matrix
    1. Baseret på testresultaterne vil de fire betingelser ske som følger:
      1. Sandt positivt (TP): Når inputbilledet er sandt, og forudsigelsen også er sand.
      2. Falsk positiv (FP): Når inputbilledet er falsk, men forudsigelsen er sand.
      3. Falsk negativ (FN): Når inputbilledet er sandt, men forudsigelsen er falsk.
      4. Sandt negativt (TN): Når inputbilledet er falsk, og forudsigelsen også er falsk.
    2. Brug disse fire betingelser til at evaluere forestillingerne med forvirringsmatrixen.
  2. Evaluering af ydeevne
    1. De mest almindeligt anvendte målinger af klassificeringsydeevne er nøjagtighed, præcision, tilbagekaldelse, specificitet og F1-scoreværdier. Beregn alle evalueringsmetrikker i ligninger (1-6), der bruges til at evaluere modellens ydeevne ud fra værdier fra forvirringsmatrixen.
      Equation 1(1)
      Equation 2(2)
      Equation 3(3)
      Equation 4(4)
      Equation 5(5)
      Equation 6(6)
  3. ROC-kurve
    BEMÆRK: ROC-kurven er et præstationsmål for klassificeringsproblemer med forskellige tærskelindstillinger. Arealet under ROC-kurven (AUC) repræsenterer graden eller målet for separabilitet, mens ROC er en sandsynlighedskurve.
    1. ROC-kurven er en todimensionel graf med værdierne for den sande positive rate (TPR) og falsk positiv rate (FPR) afbildet på henholdsvis Y- og X-akserne. Konstruer ROC-kurverne ved hjælp af TPR- og TFR-værdierne opnået fra forvirringsmatrixen. TPR-værdien er den samme som følsomheden; FPR-værdien beregnes ved hjælp af ligningen (7).
      Equation 7(7)
    2. Når du har opnået TPR- og FPR-værdierne, skal du plotte ROC-kurven ved hjælp af Jupyter Notebook open source-webværktøjet i et Python-miljø. AUC er en effektiv måde at vurdere ydeevnen af den foreslåede model i ROC-kurveanalyse.
  4. PR-kurve
    1. Brug PR-kurven til at evaluere modeller ved at måle arealet under PR-kurven. Konstruer PR-kurven ved at plotte modellernes præcision og tilbagekaldelse ved hjælp af modellens konfidenstærskelfunktioner. Da PR-kurven også er en todimensionel graf, afbildes Genkaldelse x-aksen og Præcisiony-aksen.
    2. Afbild PR-kurven, ligesom ROC-kurven, ved hjælp af open source Jupyter Notebook-webværktøjet i et Python-miljø. Området under AUC-scoren (Precision-Recall Curve) er også nyttigt ved klassificering med flere etiketter.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

I denne undersøgelse blev hybride deep learning-algoritmer foreslået for automatisk at hjælpe med at forudsige positiviteten af en blodprøve med en trypanosomparasitinfektion. Arkiverede, Giemsa-farvede blodfilm blev sorteret for at lokalisere og klassificere de parasiterede versus ikke-parasitære ved hjælp af objektdetekteringsalgoritmen baseret på et darknet backbone neuralt netværk. Inden for ethvert rektangulært kasseforudsigelsesresultat opnået ved den foregående model blev den bedst valgte klassifikationsmodel udviklet til at klassificere alle tre arter af medicinsk og veterinære vigtige trypanosomer, herunder T. brucei, T. cruzi og T. evansi. Det endelige output af de anvendte hybridmodeller afslørede robustheden af de foreslåede modeller mod variationen af 100x mikroskopiske billeder, der kan påvirke forudsigelsesresultatet, herunder parasittens blodstadiemorfologi. Derudover kan miljøfaktorer forstyrre billedkvaliteten ved farvning af farveændring ved at opbevare tid, intensitet fra mikroskopets lyskilder og blodfilmforberedelsesfærdigheder. Ikke desto mindre kan den bedst valgte model nå målet med høj ydeevne.

Lokalisering og klassificering af etiketter i flere klasser
Da påvisning af parasitære protozoer fra Giemsa-farvning af blodfilm under olienedsænkningsmikroskopi er kedelig og forlænger omdrejningstiden, fører dette til tilbøjelig fejlbias. Veltrænede AI-tilgange kræver en stor pulje af billeddata med nyskalering af 416 x 416 pixel og varierende funktionsegenskaber for 3-RGB-farvekanaler for at øge den korrekte forudsigelse af lokalisering og klassificering. Antallet af parametre under træning og optimering af modeller er sat op med en indlæringshastighed på 0,002, burn-in på 1.000 og varierende trin mellem 400.000 og 450.000. Lavt træningstab, men høj træningsnøjagtighed blev betragtet som det optimale niveau eller mætning under momentum på 0,9, nuance på 0,1 og henfald på 0,0005. I testfasen med usete data blev korrekt lokalisering og klassificering udført ved hjælp af begreberne skæringspunkt over union (IOU) og procentdel af sandsynligheden. Testfortolkningsresultatet blev udført ved en tærskel på 50% og en ikke-maksimal suppression (NMS) på 0,4, hvilket gav det korrekte svar med en % sandsynlighed.

Som med alle undersøgte parasiterede blodfilm er diskrimination af trypanosomet ud af ikke-trypanosomet blevet udført ved hjælp af en detekteringsneurale netværksmodel, der kan fungere til både lokalisering og klassificering (figur 1)22. Resultatet af den foreslåede detektionsopgave viste et fremragende resultat med en gennemsnitlig gennemsnitspræcision på 93,10% (tabel 1). Selvom den trænede detektionsmodel kan bruges til at identificere ikke-trypanosomklassen mere end den, der bruges til at identificere trypanosomparasitten, giver den os større præcision end 91% for begge klasseetiketter. Desuden viste præcisions- versus tilbagekaldelseskurven en meget gennemsnitlig AUC-værdi på 0,969, hvilket gav AUC-værdierne for parasitten og ikke-parasitten på henholdsvis 0,976 og 0,961 (figur 2). Dette fik os til at forsikre os om, at den trænede model kunne være troværdig. Den rektangulære boks med det første detekteringsresultat blev beskåret ved hjælp af billedoptagelsesmodulet under det interne CiRA CORE-program. De beskårne billeder, der er nævnt ovenfor, blev sorteret i tre mapper, der er specifikke for trypanosomarterne. Denne proces blev forberedt til at indlæse data til træningsklassifikationsmodellen, der er illustreret i næste underafsnit.

Klassifikation modelvis klassifikation
For at finde en passende uddannet model til klassificering af parasitens velkendte arter blev T. brucei, T. cruzi og T. evansi opbevaret i mapper, der blev tildelt deres relative klassenavne. Under AI-træning blev reskalerede 256 x 256 pixels billeder indført i tre RGB-kanaler, indlæringshastighed på 0,1, indbrænding på 1000, momentum på 0,9, nuance på 0,1 og forfald på 0,0005. Træningstabet og træningsnøjagtigheden blev brugt til at finde den optimale trænede model. Klassificeringsforudsigelsen blev analyseret ved hjælp af begreberne pixelvis bestemmelse og % sandsynlighed ved en tærskel på 50%.

Sammenligningen af tre populære klassifikationsneurale netværksalgoritmer blev undersøgt for at finde den bedste27,30. Disse tre neurale netværk er blevet brugt i vid udstrækning til klassificering af multiclass etiketter inden for medicinske og veterinære områder 27,34,35. Inferensresultatet af den trænede model med en % sandsynlighed, der rangerede 0 til 1, var berettiget over tærsklen på 50%. Derudover blev forskellige mønstergenkendelser af hver parasit fremhævet og specifikke for kernen i den midterste del af T. evansi af opmærksomhedskortet. Den største kinetoplastorganel af den forreste del af T. cruzi sammenlignet med de to andre arter blev også fremhævet. Både nuklease og kinetoplast blev understreget af opmærksomhedskortet fundet for T. brucei (figur 3).

Flere statistiske målinger blev brugt til at måle de tre foreslåede modeller, herunder nøjagtighed, fejlklassificeringsrate, tilbagekaldelse (sand positiv sats), specificitet (ægte negativ sats), falsk positiv sats, falsk negativ sats, præcision og F1-score. Som et resultat viste næsten alle evalueringsmålinger ved hjælp af Densenet201 neurale netværk overlegne værdier i forhold til de andre. I gennemsnit var de metriske værdier for nøjagtighed, tilbagekaldelse, specificitet, præcision og F1-score bemærkelsesværdigt større og lig med 98%. Modellens præstationsbetydning afslørede imidlertid mindre end og lig med 1,5 % af fejlklassificeringen, falsk positive og falsk negative rater (tabel 2). I betragtning af den klassemæssige sammenligning synes Densenet201-modellen korrekt at identificere T. evansi uden fejl, mens den gør dette med usete testdata, hvilket tyder på, at den potentielle trænede model er til at skelne parasitarterne.

I figur 4A-C gav AUC under ROC-kurven den største grad af gennemsnitlig nøjagtighed på 0,931 opnået fra den bedste klassificeringsmodel (figur 4C), hvilket var repræsentativt for at bekræfte den bedst valgte undersøgte model. AUC for T. evansi var 0,817, hvilket er lavere end andre (0,980-1,00 for T. brucei og 0,955-0,977 for T. cruzi) og en kontrast til de statistiske målinger ovenfor. Dette kan skyldes, at disse to værdier beregnes ved hjælp af forskellige formler. AUC blev indhentet fra alle tærskler, men de statistiske målinger fra kun en tærskel på 50%, hvilket tyder på, at disse to værdier ikke kan sammenlignes. Derfor indikerer konsistente AUC-værdier efter klassenavne opnået fra alle tre modeller den generelle nøjagtighed af henholdsvis T. brucei > T. cruzi > T. evansi.

K-fold krydsvalidering
For at vurdere robustheden af den bedst udvalgte klassificeringsmodel, der blev undersøgt med hensyn til estimering af den sande forudsigelsesfejl og indstilling af modelparametrene som beskrevet ovenfor36, blev den femdobbelte krydsvalideringsteknik anvendt. En tilfældig opdeling af dataene i fem mapper blev udført. Tildelte trænede data med fire mapper og testede data til resten mappe blev udarbejdet før træning med den valgte klassificeringsalgoritme.

Som følge heraf er de gennemsnitlige statistiske målinger; nøjagtighed, tilbagekaldelse (sand positiv rate), specificitet (sand negativ rate), præcision og F1-score gav lignende værdier af de undersøgte statistiske målinger, der viste større end 98% (tabel 3). I betragtning af hver undersøgt måling blev der fundet en rangordning på 0.992-1.000 i nøjagtighed. Der blev leveret høje specificitetsværdier fra 0,994 til 1,000. Både tilbagekaldelse og F1-score fra 0,988 til 1,000 blev vist, ligesom 0,989-1,000 blev undersøgt med præcision. Interessant nok blev lave fejlklassificeringsrater, falske negativer og falske positive fundet på mindre end 1,2%. Denne kvalitetsydelse understøttede den fremragende trænede model med varierede datafolder og repræsenterede robusthed.

Sammen med de foreslåede parametre afslørede den gennemsnitlige AUC under ROC-kurven opnåede lukkede værdier fra 0,937 til 0,944, hvilket giver lignende værdier af generel nøjagtighed blandt de fem gange af dataene (figur 5). Den klassemæssige sammenligning gav en varieret AUC på 0,831 for T. evansi, 0,982-1,000 for T. cruzi og 1,000 for T. brucei. Selvom T. evansis AUC-værdi var lavere end de andre, kan værdierne blive udsat for den høje grad af falsk positiv rate (~33%), der tilhører tærsklerne 1% til 97%, hvilket resulterer i mindre AUC-værdier sammenlignet med de to andre klasser (figur 6).

Den hybride dybe læring: en praktisk screening
I dette afsnit er bidraget fra hybrid deep learning-tilgangen mellem objektdetektion og på den anden side klassificeringsteknikken vist i figur 7. Der blev skelnet mellem parasitegenskaber og ikke-parasitegenskaber, og deres relative klasser blev identificeret inden for den lyserøde afgrænsningsramme ved hjælp af den første detektionsmodel. Dernæst blev parasitens specifikke arter diagnosticeret i forskellige farver ved hjælp af den veluddannede klassifikationsmodel. Den grønne etiket var til T. evansi, den lyserøde etiket til T. brucei og den orange etiket til T. cruzi. Den anden klassifikationsetiket ville ikke blive vist, hvis den første detektionsmodel mislykkedes, hvilket tyder på de godt forbundne funktioner mellem disse to forskellige neurale netværksrygraden i DC-modulet på den interne CIRA CORE-platform.

Figure 1
Figur 1: Arkitektur for en hybridmodel. Alle tre parasitarter af trypanosomer (herunder Trypanosoma evansi, T. brucei og T. cruzi) blev brugt som input. Multiobjekter i et 100x mikroskopisk billede blev detekteret ved hjælp af detektionsmodellen. Et enkelt beskåret objekt fra den tidligere model blev derefter klassificeret efter dets relative art ved hjælp af den bedste klassificeringsmodel. Et opmærksomhedskort integreret med den bedste klassificeringsmodel fremhævede områder, der var specifikke for hver klasseetiket. Klik her for at se en større version af denne figur.

Figure 2
Figur 2: PR-kurve. Arealet under PR-kurven, eller AUC-værdien, i dette studie bruges til at måle evnen til at skelne mellem ikke-trypanosom- og trypanosomklasser. Alle prøver kan detekteres på begge klasseetiketter. En AUC på 1 er en perfekt forudsigelse, mens en AUC på 0,5 er en tilfældig forudsigelse. Kurven bruges til at måle ydeevnen for den foreslåede detektionsmodel. Denne model kan detektere trypanosomklassen med en højere hastighed (AUC = 0,976) end ikke-trypanosomklassen (AUC = 0,961). Den gennemsnitlige AUC-værdi på 0,969 blev opnået ud fra det binære resultat af to klasseetiketter, ikke-trypanosomet og trypanosomet. Forkortelser: PR = præcision versus tilbagekaldelse; AUC = areal under kurven. Klik her for at se en større version af denne figur.

Figure 3
Figur 3: Forudsigelsesresultat af klassificeringsmodellen. Alle tre trypanosomarter blev brugt til at teste de bedst foreslåede trænede modeller. Outputbilleder af artsklassificeringsbaserede sandsynligheds- og opmærksomhedskort vises. Specifikt fremhævede opmærksomhedskortene de betydelige områder inden for det usete objekt, der styrede diskriminationen af parasitarterne. Klik her for at se en større version af denne figur.

Figure 4
Figur 4: Modelmæssige sammenligningsbaserede ROC-kurver. AUC under ROC-kurven er et grafisk plot af et klassificeringssystems ydeevne baseret på dets varierede tærskel for forskelsbehandling. I lighed med AUC-PR-kurven er AUC-ROC på 1 en perfekt forudsigelse, mens AUC på 0,5 er en tilfældig forudsigelse, som er angivet med stiplede linjer i hver graf. Tre klassifikationsmodeller blev sammenlignet, herunder (A) 1. klassifikationsmodel med en gennemsnitlig AUC på 0,925, (B) 2. klassifikation med en gennemsnitlig AUC på 0,924 og (C) den bedste klassifikation med en gennemsnitlig AUC på 0,931. Jo højere AUC, jo bedre ydeevne. Forkortelser: ROC = modtagerens driftsegenskaber; AUC = areal under kurven. Klik her for at se en større version af denne figur.

Figure 5
Figur 5: Femdobbelt krydsvalidering. Alle eksperimenter baseret på de bedste klassificering neurale netværksmodeller blev sammenlignet. Lignende AUC-værdier for femdobbelte data omfattede (A) 0,944, (B) 0,944, (C) 0,937, (D) 0,941 og (E) 0,938, hvilket tyder på robustheden af den foreslåede trænede model, der anvendes mod variationen af de biologiske data. Klik her for at se en større version af denne figur.

Figure 6
Figur 6: sand positiv rate og falsk positiv rate pr. holdnavn. X-aksen er repræsentativ for tærskler fra 1% til 97%. Y-aksen er repræsentativ for graderne af de statistiske målinger. Klik her for at se en større version af denne figur.

Figure 7
Figur 7: Hybridmodellernes endelige output. Det sidste trin i hybridmodelbidraget kan anvendes med inputdata som et rå mikroskopisk billede med 20 μm. Det prædiktive resultat kan opnås fra både objektdetekterings- og klassificeringsmodellerne. Det første prædiktive resultat viste, om det usete testbillede indeholdt trypanosomparasitter med et rektangel (lyserøde etiketter). Derefter vil klassificeringsresultaterne, der er specifikke for parasitarterne, blive efterfulgt af den første påvisning med flerfarvede etiketter; grøn for T. evansi, lyserød for T. brucei og orange for T. cruzi. Klik her for at se en større version af denne figur.

Tabel 1: Gennemsnitlig præcision efter klasse og gennemsnitlig gennemsnitlig præcision (mAP) for detektionsmodellen. Klik her for at downloade denne tabel.

Tabel 2: Sammenligning modelmæssigt med klassificering. Otte evalueringsmålinger blev brugt til at måle modellens ydeevne, herunder nøjagtighed, fejlklassificeringsrate, tilbagekaldelse (sand positiv rate), specificitet (ægte negativ rate), falsk positiv rate, falsk negativ rate, præcision og F1-score. Den fede værdi er repræsentativ for den største værdi pr. klasseetiket. Den kursive værdi er repræsentativ for gennemsnitsværdien af hver evalueringsmetrik. Klik her for at downloade denne tabel.

Tabel 3: Femdobbelt krydsvalidering. Den fede værdi er repræsentativ for gennemsnitsværdien pr. evalueringsmetric. Klik her for at downloade denne tabel.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Mikroskopisk observation for Trypanosoma protozoer infektion er tidligt og almindeligt anvendt, især under overvågning i fjerntliggende områder, hvor der er mangel på dygtige teknikere og arbejdskrævende og tidskrævende processer, der alle er hindringer for at rapportere sundhedsorganisationen rettidigt. Selvom molekylærbiologiske teknikker som immunologi og polymerasekædereaktion (PCR) er blevet godkendt som højfølsomme metoder til at understøtte effektiviteten af laboratoriefund, er der behov for dyre kemikalier, apparater og fagfolk til at håndtere dem, som for det meste er placeret i et centralt laboratorium på et stort sundhedscenter. Fælles morfologi, blandet og umoden infektion, og karakteristika for tre Trypanosoma arter er tilbøjelige til bruger bias og fejlidentifikation, reducere lægemiddelrespons og kontrol foranstaltning37. Brug af de modificerede og hybride algoritmer mellem to forskellige deep learning-modeller inden for det foreslåede AI-program kan overvinde mange udfordringer, hvilket gør en ny æra med standardtaksonomi automatisk og opnåelig. Tidligere publikationer har bekræftet hybridmodellernes potentiale til at identificere malariale blodstadier27,38. Her er forklaringen på protokollen til træning, test og evaluering af de foreslåede AI-modeller for at genkende de modne stadier af tre velkendte Trypanosoma-arter med en forenklet proces til analyse til praktisk identifikation og yderligere kvantificering af de parasitære protozoer under et mikroskopisk felt.

Den foreslåede model ser ud over maskinlæringsmodellen ved hjælp af den tilfældige skovalgoritme, som er blevet anvendt til at identificere infektionen af T. cruzi fra blodudstrygningsprøver. Machine learning-modellen opnåede en præcision på 87,6%, en følsomhed på 90,5% og et område under modtagerens driftskarakteristikkurve på 0,94239. I 2015 blev to metoder kaldet AdaBoost-læring og SVM-læring udført for at skelne T. cruzi fra malariainfektion i blodudstrygninger. Selvom der blev rapporteret en høj grad af både følsomhed og specificitet, blev et begrænset datasæt på 120 farvebilleder med lav dimension 256 × 256 pixels undersøgt, hvilket muligvis ikke er repræsentativt for hele befolkningen40. I denne undersøgelse blev tre velkendte zoonotiske Trypanosoma arter (fx T. cruzi, T. brucei og T. evansi) adskilt ved hjælp af den foreslåede hybridmodel, som overgik tidligere undersøgelser beskrevet ovenfor. Dette repræsenterer omkostningseffektiviteten af deep learning-modellen. Ikke desto mindre kan flere store datasæt kræve validering af den foreslåede models ydeevne for at bekræfte dens generalisering41. T. lewisi har potentialet til at inficere mennesker opportunistisk, og det anerkendes som en ny zoonotisk sygdom, der overføres af rotter, ofte forbundet med fattige forhold. Tilfælde er blevet dokumenteret i nogle lande, såsom Thailand og Kina20,42. Desuden har morfologierne af T. evansi og T. lewisi en slående lighed17. For at forbedre datasættet og den foreslåede model kan inkluderingen af flere forekomster af T. lewisi være gavnlig i udviklingen af en dyb læringsmodel i fremtiden. For at udvide omfanget af potentielle deep learning-teknikker til diagnosticering af yderligere trypanosomoser hos dyr anbefales det at indsamle datasæt for andre arter såsom T. vivax, T. theileria og T. melophagium. En væsentlig udfordring at løse er diagnosticering af blandede infektioner, der involverer forskellige Trypanosoma arter, da antistofdetektionsmetoder kan udvise reduceret specificitet på grund af krydsreaktioner43. Det er vigtigt at forbedre og styrke diagnostiske teknikker for at fremme applikationer med kunstig intelligens og beskytte husdyrs, menneskers og miljøets sundhed.

Før træning af det foreslåede AI-program til at genkende 2D-billedet af parasitprotozoerne, er de vigtige kriterier, der er nødvendige for at fuldføre det, såsom en stor prøvestørrelse, klassebalancering, dataforøgelse og kvalitetsmærkning af eksperter. Som kritiske trin kan fejlsignalet i træningsfasen afsløres af fagfolk for at gengive de grundlæggende sandhedsetiketter for både Darknet- og Densenet-algoritmerne. En stor fordel ved det foreslåede AI-program er dets venlige brug for ikke-kodende brugere gennem nemme træk-og-slip-trin. En anden vigtig funktion er kombinationsmodulet i detektionsversionen og opmærksomhedskortet integreret med klassificeringsmodellerne, hvilket hjælper med at lette test af de usete data så hurtigt som muligt uden at bekymre sig om det rå billedfilformat. Dette skyldes, at et bredere udvalg af billedformater kan bruges, herunder .jpeg, .jpg, .png, .tif, .tiff, .pdf og .bmp. Anvendelse af AI-programmet med en c-mount-komponent i mikroskopet kan føre til realtidsdetektion i fjerntliggende områder.

Begrænsninger i metoden kan påvirke de foreslåede protokoller i føruddannelsesfasen. Før oplæringen af en AI-model begynder, bør nogle krav være velforberedte, navnlig datasætkvalitet og ekspertetiketter. Inden for datasættet førte en lille stikprøvestørrelse og klasseafvigelse modellen til at nå de globale minima og har svært ved at nå det optimale stadium. Brugen af en stor stikprøvestørrelse og afbalancering af dataene hjælper med at optimere modellen med høj nøjagtighed og lavt tab under træning. Variationen af billeder, såsom udviklingsstadiet gennem protozoernes livscyklusperiode og varieret farve ved Giemsa-farvning27,44, miljø- og billedskalaerne, ønsker at blive normaliseret, inden de indgår i træningen af begge deep learning-modeller. For at løse de foreslåede problemer, der er nævnt ovenfor, kan forskellige forstærkningsfunktioner såsom rotationsvinkler, lysstyrke og kontrast, lodrette og vandrette flips, Gaussisk støj og Gaussisk sløring bruges til at håndtere fortræningsfasen45.

Den vigtige anvendelse af de foreslåede hybride AI-modeller er at identificere den parasitære protozo i realtid i de mikroskopiske data som rådata fra mikroskopet, frosne billeder og videoklip. Det giver os mulighed for at implementere den trænede model med integrerede grænseenheder46, skybaseret mobilapplikation47, browserbrugergrænseflade (BUI)48 og webbaseret modeludrulning49. Som et resultat har AI-modellen potentialet til at anvende hybrid dyb læring til aktiv overvågning og give et rettidigt resultat på grund af dets evne til at understøtte det lokale personales beslutning inden for millisekunder, hvilket tyder på automatisk screeningsteknologi til hjælpeepidemiologi.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Alle forfattere har ingen finansielle oplysninger og ingen interessekonflikter.

Acknowledgments

Dette arbejde (Forskningsbevilling til New Scholar, bevillingsnr. RGNS 65 - 212) blev støttet økonomisk af departementschefen, ministeriet for videregående uddannelse, videnskab, forskning og innovation (OPS MHESI), Thailand Science Research and Innovation (TSRI) og King Mongkut's Institute of Technology Ladkrabang. Vi er taknemmelige for National Research Council of Thailand (NRCT) [NRCT5-RSA63001-10] for finansiering af forskningsprojektet. M.K. blev finansieret af Thailand Science Research and Innovation Fund Chulalongkorn University. Vi takker også College of Advanced Manufacturing Innovation, King Mongkut's Institute of Technology, Ladkrabang, der har leveret deep learning-platformen og softwaren til støtte for forskningsprojektet.

Materials

Name Company Catalog Number Comments
Darknet19, Darknet53 and Densenet201 Gao Huang, Z. L., Laurens van der Maaten. Densely Connected Convolutional Networks. arXiv:1608.06993 [cs.CV]. (2016) https://github.com/liuzhuang13/DenseNet  Deep convolutional neural network model that can function to  classification
Generic name: YOLO model/ detection model?
Olympus CX31 Model CX31RRBSFA  Olympus, Tokyo, Japan SN 4G42178  A light microscope 
Olympus DP21-SAL U-TV0.5XC-3  Olympus, Tokyo, Japan SN 3D03838 A digital camera
Generic name: Classification models/ densely CNNs
Window 10 Microsoft Window 10 Operation system in computers
YOLO v4-tiny  Naing, K. M. et al. Automatic recognition of parasitic products in stool examination using object detection approach. PeerJ Comput Sci. 8 e1065, (2022). https://git.cira-lab.com/users/sign_in Deep convolutional neural network model that can function to both localization and also classification 
https://git.cira-lab.com/users/sign_in

DOWNLOAD MATERIALS LIST

References

  1. Kasozi, K. I., et al. Epidemiology of trypanosomiasis in wildlife-implications for humans at the wildlife interface in Africa. Frontiers in Veterinary Science. 8, 621699 (2021).
  2. Ola-Fadunsin, S. D., Gimba, F. I., Abdullah, D. A., Abdullah, F. J. F., Sani, R. A. Molecular prevalence and epidemiology of Trypanosoma evansi among cattle in peninsular Malaysia. Acta Parasitologica. 65 (1), 165-173 (2020).
  3. Aregawi, W. G., Agga, G. E., Abdi, R. D., Buscher, P. Systematic review and meta-analysis on the global distribution, host range, and prevalence of Trypanosoma evansi. Parasites & Vectors. 12 (1), 67 (2019).
  4. Joshi, P. P., et al. Human trypanosomiasis caused by Trypanosoma evansi in India: the first case report. The Am Journal of Tropical Medicine and Hygiene. 73 (3), 491-495 (2005).
  5. Lidani, K. C. F., et al. Chagas disease: from discovery to a worldwide health problem. Frontiers in Public Health. 7, 166 (2019).
  6. Sazmand, A., Desquesnes, M., Otranto, D. Trypanosoma evansi. Trends in Parasitology. 38 (6), 489-490 (2022).
  7. Powar, R. M., et al. A rare case of human trypanosomiasis caused by Trypanosoma evansi.Indian. Journal of Medical Microbiology. 24 (1), 72-74 (2006).
  8. Shegokar, V. R., et al. Short report: Human trypanosomiasis caused by Trypanosoma evansi in a village in India: preliminary serologic survey of the local population. American Journal of Tropical Medicine and Hygiene. 75 (5), 869-870 (2006).
  9. Haridy, F. M., El-Metwally, M. T., Khalil, H. H., Morsy, T. A. Trypanosoma evansi in dromedary camel: with a case report of zoonosis in greater Cairo, Egypt. Journal of the Egyptian Society of Parasitology. 41 (1), 65-76 (2011).
  10. Dey, S. K. CATT/T.evansi antibody levels in patients suffering from pyrexia of unknown origin in a tertiary care hospital in Kolkata. Research Journal of Pharmaceutical, Biological and Chemical Sciences. 5, 334-338 (2014).
  11. Dakshinkar, N. P., et al. Aberrant trypanosomias in human. Royal Veterinary Journal of India. 3 (1), 6-7 (2007).
  12. Vn Vinh Chau, N., et al. A clinical and epidemiological investigation of the first reported human infection with the zoonotic parasite Trypanosoma evansi in Southeast Asia. Clinical Infectious Diseases. 62 (8), 1002-1008 (2016).
  13. Misra, K. K., Roy, S., Choudhary, A. Biology of Trypanosoma (Trypanozoon) evansi in experimental heterologous mammalian hosts. Journal of Parasitic Diseases. 40 (3), 1047-1061 (2016).
  14. Nakayima, J., et al. Molecular epidemiological studies on animal trypanosomiases in Ghana. Parasites & Vectors. 5, 217 (2012).
  15. Riana, E., et al. The occurrence of Trypanosoma in bats from Western Thailand. The 20th Chulalongkorn University Veterinary Conference CUVC 2021: Research in practice. 51, Bangkok, Thailand. (2021).
  16. Camoin, M., et al. The Indirect ELISA Trypanosoma evansi in equids: optimisation and application to a serological survey including racing horses, in Thailand. BioMed Research International. 2019, 2964639 (2019).
  17. Truc, P., et al. Atypical human infections by animal trypanosomes. PLoS Neglected Tropical Diseases. 7 (9), 2256 (2013).
  18. Desquesnes, M., et al. Diagnosis of animal trypanosomoses: proper use of current tools and future prospects. Parasites & Vectors. 15 (1), 235 (2022).
  19. Da Silva, A. S., et al. Trypanocidal activity of human plasma on Trypanosoma evansi in mice. Revista Brasileira de Parasitologia Veterinaria. 21 (1), 55-59 (2012).
  20. Desquesnes, M., et al. Trypanosoma evansi and surra: a review and perspectives on transmission, epidemiology and control, impact, and zoonotic aspects. BioMed Research International. 2013, 321237 (2013).
  21. World Health Organization. A new form of human trypanosomiasis in India. Description of the first human case in the world caused by Trypanosoma evansi. Weekly Epidemiological Record. 80 (7), 62-63 (2005).
  22. Naing, K. M., et al. Automatic recognition of parasitic products in stool examination using object detection approach. PeerJ Computer Science. 8, 1065 (2022).
  23. Wongsrichanalai, C., Barcus, M. J., Muth, S., Sutamihardja, A., Wernsdorfer, W. H. A review of malaria diagnostic tools: microscopy and rapid diagnostic test (RDT). American Journal of Tropical Medicine and Hygiene. 77, 119-127 (2007).
  24. Rostami, A., Karanis, P., Fallahi, S. Advances in serological, imaging techniques and molecular diagnosis of Toxoplasma gondii infection. Infection. 46 (3), 303-315 (2018).
  25. Ahmad, Z., Rahim, S., Zubair, M., Abdul-Ghafar, J. Artificial intelligence (AI) in medicine, current applications and future role with special emphasis on its potential and promise in pathology: present and future impact, obstacles including costs and acceptance among pathologists, practical and philosophical considerations. A comprehensive review. Diagnostic Pathology. 16 (1), 24 (2021).
  26. Sarker, I. H. Deep learning: a comprehensive overview on techniques, taxonomy, applications and research directions. SN Computer Science. 2 (6), 420 (2021).
  27. Kittichai, V., et al. Classification for avian malaria parasite Plasmodium gallinaceum blood stages by using deep convolutional neural networks. Scientific Reports. 11 (1), 16919 (2021).
  28. Baskota, S. U., Wiley, C., Pantanowitz, L. The next generation robotic microscopy for intraoperative teleneuropathology consultation. Journal of Pathology Informatics. 11, 13 (2020).
  29. Bochkovskiy, A., Wang, C. -Y., Liao, H. -Y. M. YOLOv4: optimal speed and accuracy of object detection. arXiv. , 10934 (2004).
  30. Huang, G., Liu, Z., vander Maaten, L., Weinberger, K. Q. Densely connected convolutional networks. arXiv. , 06993 (2018).
  31. CDC-DPDx. Diagnostic procedures - Blood specimens. , Available from: https://www.cdc.gov/dpdx/diagosticprocedures/blood/specimenproc.html#print (2020).
  32. World Health Organization. Control and surveillance of African trypanosomiasis: report of a WHO expert committee. WHO Technical Report Series 881. , Available from: https://iris.who.int/bitstream/handle/10665/42087/WHO_TRS_881.pdf?sequence=1 (1998).
  33. Leber, A. L. Detection of blood parasites. Clinical Microbiology Procedures Handbook. , ASM Press. Washington, DC. (2022).
  34. Huang, L. -P., Hong, M. -H., Luo, C. -H., Mahajan, S., Chen, L. -J. A vector mosquitoes classification system based on edge computing and deep learning. Proceedings-2018 Conmference on Technologies and Applications of Artifical Intelligence. , Taichung, Taiwan. 24-27 (2018).
  35. Cihan, P., Gökçe, E., Kalipsiz, O. A review of machine learning applications in veterinary field. Kafkas Universitesi Veteriner Fakultesi Dergisi. 23 (4), 673-680 (2017).
  36. Berrar, D. Cross-validation. Encyclopedia of Bioinformatics and Computational Biology. 1, 542-545 (2019).
  37. Gaithuma, A. K., et al. A single test approach for accurate and sensitive detection and taxonomic characterization of Trypanosomes by comprehensive analysis of internal transcribed spacer 1 amplicons. PLoS Neglected Tropical Diseases. 13 (2), 0006842 (2019).
  38. Vijayalakshmi, A., Rajesh Kanna, B. Deep learning approach to detect malaria from microscopic images. Multimedia Tools and Applications. 79 (21-22), 15297-15317 (2019).
  39. Morais, M. C. C., et al. Automatic detection of the parasite Trypanosoma cruzi in blood smears using a machine learning approach applied to mobile phone images. PeerJ. 10, 13470 (2022).
  40. Uc-Cetina, V., Brito-Loeza, C., Ruiz-Pina, H. Chagas parasite detection in blood images using AdaBoost. Computational and Mathematical Methods in Medicine. 2015, 139681 (2015).
  41. Zhang, C., et al. Deep learning for microscopic examination of protozoan parasites. Computational and Structural Biotechnology Journal. 20, 1036-1043 (2022).
  42. Sarataphan, N., et al. Diagnosis of a Trypanosoma lewisi-like (Herpetosoma) infection in a sick infant from Thailand. Journal of Medical Microbiology. 56, 1118-1121 (2007).
  43. Desquesnes, M., et al. A review on the diagnosis of animal trypanosomoses. Parasites & Vectors. 15 (1), 64 (2022).
  44. Fuhad, K. M. F., et al. Deep learning based automatic malaria parasite detection from blood smear and its smartphone based application. Diagnostics (Basel). 10 (5), 329 (2020).
  45. Christian Matek, S. S., Spiekermann, K., Marr, C. Human-level recognition of blast cells in acute myeloid leukaemia with convolutional neural networks. Nature Machine Intelligence. 1, 538-544 (2019).
  46. Hamdan, S., Ayyash, M., Almajali, S. Edge-computing architectures for internet of things applications: a survey. Sensors (Basel). 20 (22), 6441 (2020).
  47. Visser, T., et al. A comparative evaluation of mobile medical APPS (MMAS) for reading and interpreting malaria rapid diagnostic tests. Malaria Journal. 20 (1), 39 (2021).
  48. Giorgi, E., Macharia, P. M., Woodmansey, J., Snow, R. W., Rowlingson, B. Maplaria: a user friendly web-application for spatio-temporal malaria prevalence mapping. Malaria Journal. 20 (1), 471 (2021).
  49. Rajaraman, S., Jaeger, S., Antani, S. K. Performance evaluation of deep neural ensembles toward malaria parasite detection in thin-blood smear images. PeerJ. 7, 6977 (2019).

Tags

Overlegen automatisk identifikation trypanosomparasitter hybrid dyb læringsmodel trypanosomiasis folkesundhedsproblem Sydasien Sydøstasien hotspotområder aktiv overvågning mikroskopisk undersøgelse faglært personale kunstig intelligens (AI) -program hybrid dyb læringsteknik objektidentifikation objektklassificering neurale netværksrygrad AI-platform med lav kode (CiRA CORE) protozoan trypanosomarter trypanosoma cruzi T. Brucei T. Evansi olie-nedsænkning Mikroskopiske billeder mønstergenkendelse kerne og kinetoplast opmærksomhedskort statistiske mål nøjagtighed tilbagekaldelse specificitet præcision F1-score fejlklassificeringshastighed ROC-kurver (receiver operating characteristics) præcisions- versus tilbagekaldelseskurver (PR)
Overlegen automatisk identifikation af trypanosomparasitter ved hjælp af en hybrid dyb læringsmodel
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Kittichai, V., Kaewthamasorn, M.,More

Kittichai, V., Kaewthamasorn, M., Thanee, S., Sasisaowapak, T., Naing, K. M., Jomtarak, R., Tongloy, T., Chuwongin, S., Boonsang, S. Superior Auto-Identification of Trypanosome Parasites by Using a Hybrid Deep-Learning Model. J. Vis. Exp. (200), e65557, doi:10.3791/65557 (2023).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter