Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Bioengineering

Overlegen automatisk identifisering av trypanosomparasitter ved hjelp av en hybrid dyplæringsmodell

Published: October 27, 2023 doi: 10.3791/65557

Summary

Verdensomspennende medisinske blodparasitter ble automatisk screenet ved hjelp av enkle trinn på en AI-plattform med lav kode. Den prospektive diagnosen av blodfilmer ble forbedret ved å bruke en objektdeteksjons- og klassifiseringsmetode i en hybrid dyplæringsmodell. Samarbeidet mellom aktiv overvåking og godt trente modeller bidrar til å identifisere hotspots av trypanosomoverføring.

Abstract

Trypanosomiasis er et betydelig folkehelseproblem i flere regioner over hele verden, inkludert Sør-Asia og Sørøst-Asia. Identifisering av hotspot-områder under aktiv overvåking er en grunnleggende prosedyre for å kontrollere sykdomsoverføring. Mikroskopisk undersøkelse er en ofte brukt diagnostisk metode. Det er likevel først og fremst avhengig av dyktig og erfarent personell. For å løse dette problemet ble det introdusert et kunstig intelligens (AI) -program som bruker en hybrid dyp læringsteknikk for objektidentifikasjon og objektklassifisering nevrale nettverksryggrader på den interne lavkodede AI-plattformen (CiRA CORE). Programmet kan identifisere og klassifisere protozoan trypanosomarter, nemlig Trypanosoma cruzi, T. brucei og T. evansi, fra olje-nedsenking mikroskopiske bilder. AI-programmet bruker mønstergjenkjenning for å observere og analysere flere protozoer i en enkelt blodprøve og fremhever kjernen og kinetoplasten til hver parasitt som spesifikke karakteristiske trekk ved hjelp av et oppmerksomhetskart.

For å vurdere AI-programmets ytelse opprettes to unike moduler som gir en rekke statistiske målinger som nøyaktighet, tilbakekalling, spesifisitet, presisjon, F1-poengsum, feilklassifiseringshastighet, ROC-kurver (mottakerens driftsegenskaper) og PR-kurver (presisjon versus tilbakekalling). Vurderingsfunnene viser at AI-algoritmen er effektiv til å identifisere og kategorisere parasitter. Ved å levere et raskt, automatisert og nøyaktig screeningverktøy, har denne teknologien potensial til å transformere sykdomsovervåking og kontroll. Det kan også hjelpe lokale tjenestemenn med å ta mer informerte beslutninger om sykdomsoverføringsblokkerende strategier.

Introduction

Trypanosomiasis er en betydelig utfordring for globale helseproblemer på grunn av en rekke zoonotiske arter som forårsaker menneskelig sykdom med et bredt spekter av geografisk distribusjon utenfor de afrikanske og amerikanske kontinentene, som Sør- og Sørøst-Asia 1,2,3. Human afrikansk trypanosomiasis (HAT) eller sovesyke, er forårsaket av Trypanosoma brucei gambiense og T. b. rhodesiense som produserer henholdsvis kroniske og akutte former, som representerer den største spredningen i Afrika. Den forårsakende parasitten tilhører Salivaria-gruppen på grunn av overføring av infisert spytt av Tsetse-fluer4. Mens den velkjente amerikanske trypanosomiasis (Chagas sykdom) forårsaket av T. cruzi har vært et folkehelseproblem for ikke-endemiske land; inkludert Canada, USA, Europa, Australia og Japan, på grunn av den hyppige migrasjonen av individer fra endemiske områder5. Trypanosominfeksjonen tilhører Stercoraria-gruppen fordi den overføres av infiserte avføring av reduviid bugs. Trypanosomiasene og trypanosomosene (Surra sykdom) forårsaket av T. evansi-infeksjonen er endemiske i Afrika, Sør-Amerika, Vest- og Øst-Asia og Sør- og Sørøstasiatiske land 3,6. Selv om human trypanosomiasis forårsaket av trypanosomet har blitt rapportert 3,4,7,8,9,10,11,12, diskuteres overføringsveien for parasittinfeksjonen: enten mekanisk eller infisert blod gjennom hematofagøse insekter som tsetsefluer og tabanider eller hestefluer 6,7, 8,9,10,12,13,14. Ingen saksrapport er funnet i Thailand, men en høy forekomst av T. evansi-infeksjonen hos hund15, veddeløpshester og vannbøffel i den østlige regionen har blitt publisert16, noe som tyder på at en ervervet overføring mellom husdyr ville ha skjedd. Flere atypiske humane infeksjoner forårsaket av dyretrypanosomer (T. vivax, T. b. brucei, T. congolense, T. lewisi og T. evansi) ble rapportert, som ikke er de klassiske formene for humane trypanosomer17. Bevissthet om atypiske menneskelige infeksjoner kan undervurderes, og fremhever behovet for forbedrede diagnostiske tester og feltundersøkelser for påvisning og bekreftelse av disse atypiske tilfellene, og muliggjør riktig kontroll og behandling av dyrepatogene sykdommer som påvirker globale husdyr, matsikkerhet18 og menneskers helsetjenester. Dette førte til utviklingen av en potensiell strategi integrert med en eksisterende felles metode (mikroskopisk undersøkelse) for raskt å screene blodprøver i avsidesliggende områder under aktiv overvåking, noe som muliggjør identifisering av hotspot-sonene for å begrense og kontrollere sykdommen.

Å ha en sporadisk forekomst av Surra sykdom i et bredt spekter av husdyr som dromedarer, storfe, hester og hunder som fremkaller en euryxenous T. evansi kan være zoonotisk for mennesker 1,4,13,14. Menneskelig infeksjon virker umulig fordi en trypanolytisk faktor i humant serum, uttrykt fra et sra-lignende gen, er i stand til å forhindre humant T. brucei og T. congolense12,19. Videre, som den første kasuistikken fra India viser, har sykdommen ingen tilknytning til immunkompromitterte HIV-pasienter4. Som beskrevet ovenfor kan mulig human infeksjon være relatert til en lipoproteinmangel med høy tetthet med unormal funksjon av trypanosomets lytiske faktor, som er en sjelden autosomal recessiv genetisk lidelse, nemlig Tangers sykdom4. I 2016 ble det oppdaget at en vietnamesisk pasient hadde to villtype APOL1-alleler og en serumkonsentrasjon av APOL1 innenfor normalområdet. Teorien om APOL-1-mangel anses imidlertid ikke lenger som gyldig12. Derfor er en mulig mekanisme for trypanosominfeksjon direkte kontakt av et sår med infisert dyreblod under husdyrhold 4,12. Mikroskopisk undersøkelse avslører at T. evansi-morfologi er en monomorf form av trypomastigoten, inkludert et dominerende langt, slankt, flagellert og delende trypanosom som ligner deres relative art av T. brucei 1,12,13. Kjernen er i sentral posisjon med en synlig liten kinetoplast i bakre posisjon. En tidligere studie indikerte at parasitten kan eksistere i to sammenlignbare former, kjent som de klassiske og avkortede former. Det er imidlertid fortsatt nødvendig å bekrefte deres respektive patogene effekter på vertene20. Forløpet av symptomene varierer alt fra intermitterende feber forbundet med frysninger og svette. Suramin er heldigvis en vellykket førstelinjebehandling for tidlig stadium human afrikansk trypanosomiasis uten invasjon av sentralnervesystemet (CNS), helbredende pasienter i India og Vietnam 4,12,21.

Bortsett fra klinisk tegnundersøkelse finnes det flere diagnostiske metoder for T. evansi-parasitter, inkludert parasitologisk mikroskopisk observasjon 4,9,12, serologisk 4,8,9,10,12 og molekylærbiologiske tester 4,12. Tynnblodsfilmer farget med Giemsa brukes ofte til å visualisere parasitten som er tilstede under mikroskopisk undersøkelse, som rutinemessig og vanlig brukes22. Prosedyren synes imidlertid å være gjennomførbar; Likevel er det tid- og arbeidskrevende, har variasjon i vurdering mellom rater, er følsomt for bare en akutt fase og krever en personlig trainee23. Både molekylærbiologi og serologisk testing trengte også høyt kvalifisert personell til å utføre flere prosesser for prøvepreparering, inkludert ekstrahering og rensing av prøvene før de ble testet med dyre apparater, noe som er vanskelig å standardisere, risiko for forurensning med ekstraparasittiske materialer og avvik i resultater24. Basert på begrunnelsen beskrevet ovenfor, er rask og tidlig screeningteknologi nødvendig for å støtte feltovervåkingsstudien og sikre at undersøkelsesresultatet rapporteres i tide for å identifisere hotspot-sonen for videre kontroll av sykdomsoverføringen 1,8. Datastyrte enheter (CAD) har blitt foreslått som en innovativ teknologi for medisinske felt, inkludert histopatologiske og cytopatologiske oppgaver25. CAD nevnt ovenfor ble utført i høy hastighet og beregnet ved hjelp av mønstergjenkjenning, nemlig kunstig intelligens (AI). AI-metoden oppnås ved hjelp av konvolusjonelle nevrale nettverksalgoritmer som kan brukes til å håndtere et stort antall datasettprøver, spesielt en veiledet læringstilnærming som trener en godt trent modell på dataforbruk.

Generelt er AI datamaskinens evne til å løse oppgaver som krever ekspertintelligens, for eksempel datamerking. Maskinlæring (ML), et underfelt av AI, er representert som et datasystem med to forskjellige prosesser som består av funksjonsutvinning og mønstergjenkjenning. Dyp læring (DL), eller avanserte ML-algoritmer, refererer til utviklingen av datastyrte programmer og enheter som sammenligner menneskelig ytelse med nøyaktighetsnivåer som er større og lik den som oppnås av menneskelige fagfolk26. For tiden utvider og revolusjonerer DLs rolle innen medisinske og veterinære felt lovende og revolusjonerer forebygging av smittsomme sykdommer med sikte på nylig forebygging og veiledning til det enkelte helsepersonell22,27. Den potensielle DL-applikasjonen er ubegrenset med kvalitetsetiketter og et stort antall utvidede datasett, noe som frigjør spesialister til å administrere prosjektoppgaven. Spesielt forbedret et fremskritt i det digitale bildet sammen med datamaskinassistert analyse automatisk diagnostisering og screening i fem kategorier av patologi rapportert; inkludert statiske, dynamiske, robotiske, hele lysbildebilder og hybridmetoder28. Det er nødvendig å vurdere at integrering av DL-algoritmetilnærminger og digitale bildedata kan oppmuntre lokalt ansatte til å utnytte teknologien i sin daglige praksis.

Tidligere hadde økningen i prediksjonsnøyaktighet ved bruk av en hybridmodell blitt bevist27. For å identifisere trypanosomparasitten i mikroskopiske bilder, presenterer denne forskningen to hybridmodeller, som inkorporerer algoritmene YOLOv4-tiny (objektdeteksjon) og Densenet201 (objektklassifisering). Blant flere deteksjonsmodeller viste YOLOv4-tiny med CSPDarknet53-ryggrad høy ytelse som prediksjonsresultat når det gjelder lokalisering og klassifisering29. Siden sanntidsdetektoren har endret den optimale balansen mellom inngangsnettverksoppløsningen, mengden av det konvolusjonelle laget, den totale parameteren og antall lagutganger, har den forbedret prioritering av raske driftshastigheter og optimalisering for parallelle beregninger sammenlignet med tidligere versjoner. Dense Convolutional Network (DenseNet) er en annen populær modell som oppnår toppmoderne resultater på tvers av konkurrerende datasett. DenseNet201 ga en lignende valideringsfeil som kan sammenlignes med ResNet101. DenseNet201 har imidlertid færre enn 20 millioner parametere, noe som er mindre enn ResNet101s mer enn 40 millioner parametere30. Derfor kan DenseNet-modellen forbedre prediksjonsnøyaktigheten med et økende antall parametere uten tegn til overtilpasning. Her bruker et kunstig intelligens (AI) -program en hybrid dyp læringsalgoritme med dyp deteksjons- og klassifisering nevrale nettverksryggrader på den interne CiRA CORE-plattformen. Det utviklede programmet kan identifisere og klassifisere protozoan trypanosomarter, nemlig Trypanosoma cruzi, T. brucei og T. evansi, fra olje-nedsenking mikroskopiske bilder. Denne teknologien har potensial til å revolusjonere sykdomsovervåking og kontroll ved å tilby en rask, automatisert og nøyaktig screeningsmetode. Det kan hjelpe lokalt ansatte til å ta mer informerte beslutninger om overføringsblokkerende strategier for parasittisk protozosykdom.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Arkiverte blodfilmer og prosjektdesign ble godkjent av Institutional Biosafety Committee, Institutional Animal Care and Use Committee ved Fakultet for veterinærvitenskap, Chulalongkorn University (IBC nr. 2031033 og IACUC nr. 1931027), og Human Research Ethics Committee of King Mongkut's Institute of Technology Ladkrabang (EC-KMITL_66_014).

1. Utarbeidelse av råbilder

  1. Klargjøring av bildedatasettet
    1. Få minst 13 positive lysbilder med blodparasittinfeksjoner, inkludert T. brucei, T. cruzi og T. evansi, bekreftet av parasitologeksperter. Skill de 13 lysbildene for opplæring (10 lysbilder) og testing (tre lysbilder).
    2. Få bilder av Giemsa-fargede tynne blodfilmer beskrevet ovenfor under et olje-nedsenkningsfelt av et lysmikroskop med et digitalt kamera. Få bilder som inneholder flere objekter av trypomastigotene av alle tre parasittarter under mikroskopisk undersøkelse; Se etter en slank form, lange haler, en bølgende membran og en kinetoplast i den fremre enden.
      MERK: Å lage både tykke og tynne utstryk vil forbedre påvisningen av akuttfase trypanosomiasis31. Blodoppsamlingen med fingerstikk anbefales av WHO32. Likevel er tynne filmer mer effektive for å identifisere Trypanosoma cruzi og andre arter, da disse organismene har en tendens til å bli forvrengt i tykke filmer33. I lys av dette benyttet vi tynne blodfilmbilder for å opprettholde riktig morfologi av parasittene for denne studien.
    3. Lagre alle bildene i en parasittspesifikk mappe med følgende spesifikasjoner: 1 600 x 1 200 piksler, 24-biters dybde og JPG-filformat. Del bildene inn i trenings- og testsettene i forholdet ~6:1.
      MERK: Se https://gitlab.com/parasite3/superior-auto-identification-of-medically-important-trypanosome-parasites-by-using-a-hybrid-deep-learning-model/-/blob/main/JOVEimage.zip; 650 bilder ble delt for å trene (560 bilder) og teste (90 bilder) modell.
    4. Definer interesseområdet som en rektangulær etikett for to klasser: trypanosomer og ikke-trypanosomer. Bruk den automatiske beskjæringsmodulen til å beskjære alle oppdagede bilder ved hjelp av den godt trente objektgjenkjenningsmodellen. Den automatiske beskjæringsmodulen er modulen som er utviklet i det interne CiRA CORE-programmet (se Materialfortegnelse). Samle et enkelt objekt per bilde for å trene objektklassifiseringen.
      MERK: For denne artikkelen ble 1017 bilder delt for opplæring (892 bilder) og testing (126 bilder). Modellopplæringen ble utført med fire merkede klasser, inkludert leukocytt, T. brucei, T. cruzi og T. evansi.

2. Opplæringsprosess med intern CiRA CORE-plattform

  1. Starte et nytt prosjekt
    1. Åpne CiRA CORE-programmet fra skrivebordet på datamaskinen (se Materialfortegnelse) og opprett et nytt prosjekt ved å dobbeltklikke på programmets ikon.
    2. Velg operasjonsikonet på venstre vertikale verktøylinje for å velge de nødvendige verktøyene.
  2. Opplæring i objektdeteksjonsmodeller
    1. Velg funksjonen training-DL-modell for datamerking og opplæring ved hjelp av dra-og-slipp-metoden . Gå til verktøylinjen Generelt | CiRA AI | Dra DeepTrain | Dropp DeepTrain på skjermen (høyre side).
      MERK: For flere alternativer, høyreklikk på det valgte verktøyet og utfør de riktige funksjonene: Kopier, Klipp ut eller Slett.
    2. Importer bildene ved hjelp av innstillingene for DeepTrain-verktøyet. Klikk på Last inn bilder-knappen og naviger til bildekatalogen. Merk objektene ved å holde venstreklikket og gi navn til det merkede objektet. Juster rektangellinjetykkelsen og skriftstørrelsen ved å klikke på Skjerminnstilling-knappen og Lagre GT som en .gt-fil i samme katalog.
      MERK: Lagre etter behov for å unngå uønskede forhold som strømbrudd, automatiske programlukkinger og hengende i merkingsprosessen.
    3. Før modellopplæring bør du utvide dataene for å samle inn tilstrekkelig informasjon ved hjelp av de fire forstørrelsesteknikkene: Rotasjon, Kontrast, Støy og Uskarphet. Klikk på Gen Setting-knappen for å få tilgang til denne funksjonen.
    4. Start modelltrening ved å klikke Trening-knappen i DeepTrain-verktøyet . Opplæringsdelen har to underfunksjoner: Generer treningsfiler og Tren. Under funksjonen Generer treningsfiler velger du ønskede modeller, batchstørrelse og underinndelinger. Klikk på Generer-knappen for å generere data og lagre dem i katalogen. I Train-funksjonen velger du følgende alternativer: i) bruke et annet generert treningssted for forhold og sikkerhetskopiering, ii) bruke forhåndsbygde vekter for videre trening, eller iii) overstyre parametere for gjeldende treningsdesign. Dette vil utforme modellkonfigurasjonen og opplæringsbetingelsene.
      MERK: Behandlingstiden for generering avhenger av bildefilens størrelse, forstørrelsesbruk og tilgjengelig minneplass.
    5. Når alle nødvendige konfigurasjoner er fullført, kan du starte modellopplæringen ved å klikke på Tog-knappen . La programmet kjøre kontinuerlig, evaluere treningstapet og justere vekten på datasettet under treningsprosessen. Hvis modellen oppnår optimalt tap, lagrer du den opplærte vektfilen i den angitte katalogen ved å klikke på Eksporter-knappen .

3. Evaluering av objektdeteksjonsmodell

  1. Velg evalueringsfunksjonen for objektgjenkjenningsmodell for modellevaluering ved hjelp av dra-og-slipp-metoden. Gå til Plugin-verktøylinjen | Evaluere | Dra EvalDetect | Slipp EvalDetect på skjermen (høyre side).
  2. Klikk på Innstilling og vent på tre funksjoner: Deteksjon, Evaluer og Plott. Start modellevaluering ved å importere den opplærte vektfilen fra katalogen (trinn 2.2.5) ved å klikke på Load Config.
  3. Under gjenkjenningsfunksjonen velger du ikke-maksimal undertrykkelsesverdi (NMS) for å forbedre nøyaktigheten ved å eliminere overflødige falske positive (FP)-deteksjoner. NMS fjerner dupliserte modellgenererte deteksjoner for forbedret pålitelighet.
  4. Fortsett med følgende trinn under funksjonen Evaluering :
    1. Importer testbilder fra bildefilkatalogen ved å klikke på Bla gjennom. Importer GT-filen fra katalogen der den ble lagret i trinn 2.2.2 ved å klikke på Last inn GT.
    2. Velg verdien Intersection over Union (IoU) for å vurdere nøyaktigheten på det spesifikke bildetestdatasettet.
    3. Klikk på Evaluering-knappen for å vurdere deteksjonsmodellen i den angitte katalogen. Når evalueringen er fullført, lagres resultatene automatisk som en CSV-fil i samme katalog, sortert etter klassenavn. Denne CSV-filen vil gi viktige parametere som True Positive (TP), False Positive (FP), False Negative (FN), Recall og Precision for hver klasse.
  5. For å tegne PR-kurven (Precision-Recall), følg disse trinnene under Plott-funksjonen : Importer CSV-filene fra forrige seksjon (trinn 3.4) katalog ved å klikke på Bla gjennom. Velg klasser fra listen og klikk på Plot-knappen for å vise det redigerbare PR-kurvebildet.
  6. Til slutt, for å lagre et bilde med AUC-verdiene til PR-kurven i ønsket bildeformat i den angitte katalogen, klikk på Lagre-knappen på bildet.

4. Bildebeskjæring for et enkelt objekt per bilde

  1. Før du beskjærer bildene, må du fullføre følgende trinn:
    1. Importer bildene fra bildefilkatalogen ved å åpne innstillingene for bildelysbildeverktøyet.
    2. Importer filen med opplært vekt (lagret i trinn 2.2.8) ved å gå til innstillingene for Deep Detect-verktøyet. Klikk på Config-knappen | +, velg backend (CUDA eller CPU), oppgi et navn, klikk OK, velg vektfilkatalogen og klikk Velg. I Deep Detect-verktøyet velger du deteksjonsparametrene (terskel og ikke-maksimal undertrykkelse (nms)); tegning parametere; sporing parametere; og parametere for interesseområde (ROI).
    3. Velg katalogen der de beskårne bildene skal lagres ved å gå til innstillingene for Deep Crop-verktøyet. Klikk Bla gjennom | velg katalogen for å lagre beskårne bilder | klikk Velg | Velg bildeformat (jpg eller png) | aktiver alternativet Automatisk lagring.
  2. Beskjær bilder for å få et enkelt objekt per bilde for bildeklassifisering og segmentering. For å utføre denne prosessen, bruk fire verktøy og etabler forbindelser mellom dem: gå til verktøylinjen Generelt | Generelt | Knapp Kjør. Deretter navigerer du til Generell verktøylinje | CiRA AI | DeepDetect; Gå deretter til Generell verktøylinje | CiRA AI | DeepCrop. Til slutt, gå til bildeverktøylinjen | Oppkjøp | ImageSlide.
  3. Når alle nødvendige innstillinger er på plass, starter du bildebeskjæringsprosessen ved å klikke på Button Run-verktøyet .
  4. Få et nytt bildeopplæringsdatasett som består av bilder med ett objekt med en størrelse på 608 x 608.

5. Bildeklassifisering som modellopplæring

  1. Bruk dra-og-slipp for å velge opplæringsfunksjonen for bildeklassifiseringsmodell for dataopplæring. Gå til bildeverktøylinjen | DeepClassif | Dra ClassifTrain | Slipp ClassifTrain på skjermen.
  2. Importer bilder for modellopplæring ved hjelp av innstillingene for ClassifTrain-verktøyet. Klikk på Åpne mappe-knappen og naviger til ønsket bildekatalog. Før trening utvider du dataene ved å klikke på Forstørrelse-knappen for mer informasjon ved hjelp av teknikker som Rotasjon, Kontrast, Vending (horisontal og/eller vertikal), Støy og Uskarphet.
  3. For å starte modellopplæring, klikk på GenTrain-knappen i ClassifTrain-verktøyet . Under GenTrain-funksjonen velger du modeller, batchstørrelse og underinndelinger. Tilordne en katalog for å lagre den genererte filen. Klikk på Generer-knappen for å fortsette med data for trening. I Train-funksjonen merker du av for de aktuelle alternativene: Fortsett å trene med standardvekt eller egendefinert vekt.
    MERK: Genereringsprosessen kan ta tid, avhengig av faktorer som bildefilstørrelse, forstørrelsesbruk, klassebalansering og tilgjengelig minneplass.
  4. Når alle forberedelsene er fullført, starter du modellopplæringen ved å klikke Start-knappen . La programmet kjøre kontinuerlig, evaluere treningstapet og justere vekten på datasettet under treningsprosessen. Hvis modellen oppnår ønsket tapsnivå, lagrer du den opplærte vektfilen i den angitte katalogen ved å klikke på Eksporter-knappen .

6. Evaluering av klassifiseringsmodell

  1. Velg evalueringsfunksjonen for bildeklassifiseringsmodell for modellevaluering ved hjelp av dra-og-slipp-metoden . Gå til Plugin-verktøylinjen | Evaluere | Dra EvaluateClassif | Slipp EvaluateClassif på skjermen (høyre side).
  2. Klikk på Innstilling for å få tilgang til flere funksjoner i EvaluateClassif-verktøyet, nemlig Evaluer og PlotROC.
  3. For å starte modellevaluering, klikk på Evaluer-knappen i EvaluateClassif-verktøyet . Følg disse trinnene under Evaluer-funksjonen .
    1. Importer testbildene fra bildefilkatalogen ved å klikke på Last inn mappebilde. Importer den opplærte vektfilen fra katalogen (lagret i trinn 5.4) ved å klikke på Load Config. Klikk Start-knappen for å evaluere klassifiseringsmodellen.
    2. Når evalueringen er fullført, lagrer du den evaluerte filen som CSV i den angitte katalogen ved å klikke på Eksporter til CSV-knappen . For evaluering av data ved hver terskel, lagre CSV-filen med klassenavn i den angitte katalogen ved å klikke på Start alle-terskelen. Den lagrede CSV-filen inneholder parametere som Tilbakekalling (True Positive Rate), False Positive Rate og Precision for hver klasse.
  4. For å plotte ROC-kurven (Receiver Operating Characters), klikk på PlotROC-knappen i EvaluateClassif-verktøyet . Følg disse trinnene under PlotROC-funksjonen .
    1. Importer CSV-filer fra katalogen som ble oppnådd tidligere ved å klikke på Bla gjennom. Inspiser den importerte klasselisten, og velg hver klasseetikett for å tegne ROC-kurven.
    2. Klikk på Plot-knappen for å visualisere ROC-kurven som et bilde. Gjør de ønskede endringene for å justere bildeegenskaper, inkludert skriftstørrelse, skriftfarger, avrunding av desimal, linjestiler og linjefarger.
  5. Til slutt lagrer du et bilde av ROC-kurven med AUC-verdiene i ønsket bildeformat i den angitte katalogen ved å klikke på Lagre-knappen .

7. Teste prosessen med CiRA CORE-applikasjonen

  1. Objektdeteksjon som modelltesting
    1. For å utføre modelltesting, bruk fire verktøy og etabler forbindelser mellom dem. Gå til verktøylinjen Generelt | Generelt | Knapp Kjør. Deretter Generell verktøylinje | Generelt | Feilsøke. Deretter klikker du på Generell verktøylinje | CiRA AI | DeepDetect, og til slutt Image verktøylinjen | Oppkjøp | ImageSlide.
    2. Før du tester bildene, følg disse trinnene:
      1. Importer testbildene fra bildefilkatalogen ved å klikke på innstillingsalternativet i Image Slide-verktøyet .
      2. Importer den lagrede vektfilen fra trinn 2.2.8 ved å klikke på innstillingsalternativet i DeepDetect-verktøyet . Klikk på Config-knappen , deretter +-knappen, velg backend (CUDA eller CPU), oppgi et navn, klikk OK, velg vektfilkatalogen og klikk Velg. Under DeepDetect-verktøyet velger du deteksjonsparametrene (Threshold og nms), tegningsparametere, sporingsparametere og ROI-parametere.
      3. Se testbilderesultatene ved å klikke på bildefunksjonen i feilsøkingsverktøyet .
    3. Til slutt, sjekk de forventede resultatene for hvert bilde ved å klikke på Kjør-knappen Button Run-verktøyet .
  2. Bildeklassifisering som modelltesting
    1. For å utføre modelltesting, bruk fire verktøy og etabler forbindelser mellom dem. Gå til verktøylinjen Generelt | Generelt | knapp løp; deretter, Generell verktøylinje | Feilsøke. Deretter navigerer du til Bildeverktøylinje | Oppkjøp | ImageSlide, og til slutt, Bildeverktøylinje | DeepClassif | DeepClassif.
    2. Før du tester bildene, følg disse trinnene:
      1. Importer testbildene fra bildefilkatalogen ved å klikke på innstillingsalternativet i Image Slide-verktøyet .
      2. Importer den lagrede filen med trent vekt fra seksjon 5.5 ved å klikke på innstillingsalternativet i DeepClassif-verktøyet. Klikk på Config-knappen | + knapp | velg backend (CUDA eller CPU) | gi et navn | klikk OK | Velg vektfilkatalogen | klikk Velg. Under DeepClassif-verktøyet velger du klassifiseringsparameterne (terskel og antall prognoser for øverste klasse), TV-guidekartparametere (terskel, alfa, beta og fargekart) og ulike parametere i fargekartet.
      3. Se testbilderesultatene ved å klikke på bildefunksjonen i feilsøkingsverktøyet .
    3. Til slutt, sjekk de forventede resultatene for hvert bilde ved å klikke på Kjør-knappen Button Run-verktøyet .

8. Hybrid (deteksjon og klassifisering) som modelltesting

  1. For å utføre denne modelltestingen, bruk fire verktøy og etablere forbindelser mellom dem. Gå til verktøylinjen Generelt | Generelt | Knappekjøring. Deretter Generell verktøylinje | Generelt | Feilsøke. Etter det, Bilde verktøylinje | Oppkjøp | ImageSlide, og til slutt, Bildeverktøylinje | DeepComposite | DeepD->C.
  2. Før du tester bildene, følg disse trinnene: Importer testbilder fra bildefilkatalogen ved å klikke på Innstillinger-alternativet i Image Slide-verktøyet . Importer de to lagrede vektfilene fra seksjon 2.1.5 og seksjon 4.4 ved å klikke på innstillingsalternativet i DeepD->C-verktøyet :
    1. For Detect-funksjonen, klikk på Config-knappen |+ knappen, velg backend (CUDA eller CPU) | gi et navn | klikk OK | velg vekten filen katalogen | klikk Velg. Under Detect -funksjonen velger du deteksjonsparametere (Threshold og nms), tegningsparametere, sporingsparametere og ROI-parametere.
    2. For Classif-funksjonen, klikk på Config-knappen |+ -knappen, velg backend (CUDA eller CPU) | gi et navn | klikk OK | velg vektfilkatalogen | klikk Velg. Under Classif-funksjonen velger du klassifiseringsparameterne (terskel og antall prognoser for øverste klasse) og TV-guidekartparametere (terskel-, alfa-, beta- og fargekart).
  3. Se testbilderesultatene ved å klikke på bildefunksjonen i feilsøkingsverktøyet . Til slutt, sjekk de forventede resultatene for hvert bilde ved å klikke på Kjør-knappen Button Run-verktøyet .

9. Fem ganger kryssvalidering

MERK: For å validere ytelsen til den foreslåtte modellen mer effektivt, brukes K-fold kryssvalidering.

  1. Del datasettet inn i fem deler, tilsvarende de fem foldene av kryssvalidering. Under hver iterasjon av modellopplæring og testing bruker du én del som valideringssett for testing og de resterende fire delene for opplæring. Gjenta denne prosessen fem ganger, der hver brett brukes som valideringssett én gang.
  2. For Fold 1 til 5:
    1. Gjenta del 5 for å trene modellen ved hjelp av treningsdataene fra de fire foldene.
    2. Gjenta pkt. 7.2 for å teste modellen med den gjenværende folden som testsett.

10. Evaluering av modell

  1. Forvirring matrise
    1. Basert på testresultatene vil de fire forholdene skje som følger:
      1. True Positive (TP): Når inndatabildet er sant, og prediksjonen også er sann.
      2. False Positive (FP): Når inndatabildet er usant, men forutsigelsen er sann.
      3. False Negative (FN): Når inndatabildet er sant, men prediksjonen er usann.
      4. True Negative (TN): Når inndatabildet er usant, og prediksjonen også er usann.
    2. Ved hjelp av disse fire forholdene, evaluer forestillingene med forvirringsmatrisen.
  2. Prestasjonsevalueringer
    1. De mest brukte klassifiseringsytelsesberegningene er nøyaktighet, presisjon, tilbakekalling, spesifisitet og F1-poengsumverdier. Beregn alle evalueringsmål i ligninger (1-6) som brukes til å evaluere modellytelse fra verdier fra forvirringsmatrisen.
      Equation 1(1)
      Equation 2(2)
      Equation 3(3)
      Equation 4(4)
      Equation 5(5)
      Equation 6(6)
  3. ROC-kurve
    MERK: ROC-kurven er et ytelsesmål for klassifiseringsproblemer med forskjellige terskelinnstillinger. Arealet under ROC-kurven (AUC) representerer graden eller målet på separabilitet, mens ROC er en sannsynlighetskurve.
    1. ROC-kurven er en todimensjonal graf med verdier for sann positiv rate (TPR) og falsk positiv rate (FPR) plottet på henholdsvis Y- og X-aksene. Konstruer ROC-kurvene ved hjelp av TPR- og TFR-verdiene hentet fra forvirringsmatrisen. TPR-verdien er den samme som følsomheten; beregne FPR-verdien ved hjelp av ligningen (7).
      Equation 7(7)
    2. Etter å ha hentet TPR- og FPR-verdiene, plotter du ROC-kurven ved hjelp av Jupyter Notebook open source-nettverktøyet i et Python-miljø. AUC er en effektiv måte å vurdere ytelsen til den foreslåtte modellen i ROC-kurveanalyse.
  4. PR-kurve
    1. Bruk PR-kurven til å evaluere modeller ved å måle arealet under PR-kurven. Konstruer PR-kurven ved å plotte modellenes presisjon og tilbakekalling ved hjelp av modellens konfidensterskelfunksjoner. Fordi PR-kurven også er en todimensjonal graf, plotter Recall x-aksen og Precisiony-aksen.
    2. Plott PR-kurven, som ROC-kurven, ved hjelp av Jupyter Notebook-nettverktøyet med åpen kildekode i et Python-miljø. Området under AUC-poengsummen (Precision-Recall curve) er også nyttig i klassifisering av flere etiketter.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

I denne studien ble hybride dype læringsalgoritmer foreslått for å bidra til automatisk å forutsi positiviteten til en blodprøve med en trypanosomparasittinfeksjon. Arkiverte, Giemsa-fargede blodfilmer ble sortert for å lokalisere og klassifisere den parasitiserte versus ikke-parasittiske ved å bruke objektdeteksjonsalgoritmen basert på et mørkt ryggradsnevralt nettverk. Innenfor et hvilket som helst rektangulært boksprediksjonsresultat oppnådd av den forrige modellen, ble den best valgte klassifiseringsmodellen utviklet for å klassifisere alle tre arter av medisinsk og veterinære viktige trypanosomer, inkludert T. brucei, T. cruzi og T. evansi. Den endelige produksjonen av hybridmodellene som ble brukt, avslørte robustheten til de foreslåtte modellene mot variasjonen av 100x mikroskopiske bilder som kan påvirke prediksjonsresultatet, inkludert parasittens blodstadiummorfologi. I tillegg kan miljøfaktorer forstyrre bildekvaliteten på fargeendring ved å lagre tid, intensitet fra lyskildene til mikroskopet og blodfilmforberedelsesferdigheter. Likevel kan den best valgte modellen oppnå målet med høy ytelse.

Lokalisering og klassifisering av etiketter med flere klasser
Siden påvisning av parasittiske protozoer fra Giemsa-farging av blodfilm under olje-nedsenkningsmikroskopi er kjedelig og forlenger behandlingstiden, fører dette til utsatt feilskjevhet. Godt trente AI-tilnærminger krever en stor mengde bildedata med reskalering av 416 x 416 piksler og varierende funksjonsegenskaper for 3-RGB-fargekanaler for å øke riktig prediksjon av lokalisering og klassifisering. Antall parametere under opplæring og optimalisering av modeller defineres med en innlæringsrate på 0,002, innbrenning på 1 000 og trinn mellom 400 000 og 450 000. Lavt treningstap, men høy treningsnøyaktighet ble ansett som det optimale nivået eller metningen under momentum på 0,9, fargetone på 0,1 og forfall på 0,0005. I testfasen med usynlige data ble korrekt lokalisering og klassifisering utført ved å bruke begrepene skjæringspunkt over union (IOU) og prosentandel av sannsynligheten. Testtolkningsresultatet ble utført ved en terskel på 50 % og en ikke-maksimal suppresjon (NMS) på 0,4, noe som ga riktig svar med % sannsynlighet.

Som med alle parasitiserte blodfilmer som er studert, har diskriminering av trypanosomet ut av ikke-trypanosomet blitt utført ved å bruke en deteksjonsnevral nettverksmodell som kan fungere for både lokalisering og klassifisering (figur 1) 22. Prediksjonsresultatet av den foreslåtte deteksjonsoppgaven viste et fremragende resultat med en gjennomsnittlig gjennomsnittlig presisjon på 93,10 % (tabell 1). Selv om den trente deteksjonsmodellen kan brukes til å identifisere ikke-trypanosomklassen mer enn den som brukes til å identifisere trypanosomparasitten, gir den oss større presisjon enn 91% for begge klasseetiketter. I tillegg viste presisjons- versus tilbakekallingskurven en høyst gjennomsnittlig AUC-verdi på 0,969, noe som ga AUC-verdiene for parasitten og ikke-parasitten på henholdsvis 0,976 og 0,961 (figur 2). Dette førte til at vi forsikret oss om at den trente modellen kunne være pålitelig. Den rektangulære boksen til det første deteksjonsresultatet ble beskåret ved hjelp av bildeopptaksmodulen under det interne CiRA CORE-programmet. De beskårne bildene nevnt ovenfor ble sortert i tre mapper som er spesifikke for trypanosomarten. Denne prosessen ble utarbeidet for å legge inn data for opplæringsklassifiseringsmodellen som er illustrert i neste ledd.

Klassifisering modellmessig klassifisering
For å finne en passende trent modell for å klassifisere den kjente arten av parasitten, ble T. brucei, T. cruzi og T. evansi holdt i mapper som ble tildelt deres relative klassenavn. Under AI-opplæring ble reskalerte 256 x 256 piksler med bilder matet inn i tre RGB-kanaler, læringshastighet på 0,1, innbrenning på 1000, momentum på 0,9, fargetone på 0,1 og forfall på 0,0005. Treningstapet og treningsnøyaktigheten ble brukt til å finne den optimale trente modellen. Klassifiseringsprediksjonen ble analysert ved hjelp av begrepene pikselvis bestemmelse og % sannsynlighet ved en terskel på 50 %.

Sammenligningen av tre populære klassifisering nevrale nettverksalgoritmer ble studert for å finne den beste27,30. Disse tre nevrale nettverkene har blitt mye brukt i klassifisering av multiclass-etiketter innen medisinske og veterinære felt 27,34,35. Slutningsresultatet av den trente modellen med en % sannsynlighet som rangerte 0 til 1, var berettiget over terskelen på 50%. I tillegg ble forskjellige mønstergjenkjenninger av hver parasitt uthevet og spesifikke for kjernen til den midtre delen av T. evansi ved oppmerksomhetskartet. Den største kinetoplastorganellen av den fremre delen av T. cruzi sammenlignet med de to andre artene ble også fremhevet. Både nuklease og kinetoplast ble understreket av oppmerksomhetskartet funnet for T. brucei (figur 3).

Flere statistiske beregninger ble brukt til å måle de tre foreslåtte modellene, inkludert nøyaktighet, feilklassifiseringsrate, tilbakekalling (sann positiv rate), spesifisitet (sann negativ rate), falsk positiv rate, falsk negativ rate, presisjon og F1-poengsum. Som et resultat viste nesten alle evalueringsberegninger ved hjelp av Densenet201 nevrale nettverk overlegne verdier i forhold til de andre. I gjennomsnitt var de metriske verdiene for nøyaktighet, tilbakekalling, spesifisitet, presisjon og F1-poengsum bemerkelsesverdig større og lik 98 %. Modellens ytelsesbetydning avslørte imidlertid mindre enn og lik 1,5 % av feilklassifiseringen, falske positive og falske negative rater (tabell 2). Tatt i betraktning den klassevise sammenligningen, ser Densenet201-modellen ut til å korrekt identifisere T. evansi uten feil mens den gjør dette med usynlige testdata, noe som tyder på at den potensielle trente modellen er for å skille parasittartene.

I figur 4A-C ga AUC under ROC-kurven størst grad av gjennomsnittlig nøyaktighet på 0,931 hentet fra den beste klassifiseringsmodellen (figur 4C), som var representativ for å bekrefte den best valgte modellen som ble studert. AUC for T. evansi var 0,817, som er lavere enn andre (0,980-1,00 for T. brucei og 0,955-0,977 for T. cruzi) og en kontrast til de statistiske beregningene ovenfor. Dette kan skyldes at disse to verdiene beregnes med forskjellige formler. AUC ble oppnådd fra alle terskler, men de statistiske beregningene fra bare en terskel på 50%, noe som tyder på at disse to verdiene ikke kan sammenlignes. Derfor indikerer konsistente AUC-verdier etter klassenavn hentet fra alle tre modellene den generelle nøyaktigheten til henholdsvis T. brucei > T. cruzi > T. evansi.

K-fold kryssvalidering
For å vurdere robustheten til den best valgte klassifiseringsmodellen som ble studert når det gjelder å estimere den sanne prediksjonsfeilen og justere modellparametrene som beskrevet ovenfor36, ble den femdoble kryssvalideringsteknikken brukt. En tilfeldig oppdeling av dataene i fem mapper ble gjort. Tildelte opplærte data med fire mapper og testede data for resten av mappen ble utarbeidet før trening med den valgte klassifiseringsalgoritmen.

Som et resultat, de gjennomsnittlige statistiske beregningene; nøyaktighet, tilbakekalling (sann positiv rate), spesifisitet (sann negativ rate), presisjon og F1-poengsum, ga lignende verdier av de statistiske beregningene som ble studert som viste større enn 98% (tabell 3). Tatt i betraktning hver metrisk studert, ble det funnet en rangering på 0.992-1.000 i nøyaktighet. Høye spesifisitetsverdier fra 0,994 til 1,000 ble oppgitt. Både tilbakekalling og F1-score fra 0.988 til 1.000 ble vist, likeledes ble 0.989-1.000 studert med presisjon. Interessant nok ble lave nivåer av feilklassifisering, falske negativer og falske positiver funnet på mindre enn 1,2%. Denne kvalitetsytelsen støttet den fremragende trente modellen med varierte datafolder og representerte robusthet.

Sammen med de foreslåtte beregningene avslørte gjennomsnittlig AUC under ROC-kurven lukkede verdier fra 0,937 til 0,944, noe som gir lignende verdier av generell nøyaktighet blant de fem foldene av dataene (figur 5). Den klassevise sammenligningen ga en variert AUC på 0,831 for T. evansi, 0,982-1,000 for T. cruzi og 1,000 for T. brucei. Selv om T. evansis AUC-verdi var lavere enn de andre, kan verdiene bli eksponert for den høye graden av falskt positiv rate (~33 %) som tilhører tersklene 1 % til 97 %, noe som resulterer i mindre AUC-verdier sammenlignet med de to andre klassene (figur 6).

Den hybride dyplæringen: en praktisk screening
I denne delen er bidraget fra den hybride dype læringsmetoden mellom objektdeteksjon og på den annen side klassifiseringsteknikken vist i figur 7. Parasitt- og ikke-parasittegenskapene ble skilt ut og deres relative klasser identifisert i den rosa grenseboksen ved hjelp av den første deteksjonsmodellen. Deretter ble de spesifikke artene av parasitten diagnostisert i forskjellige farger ved å bruke den veltrente klassifiseringsmodellen. Den grønne etiketten var for T. evansi, den rosa etiketten for T. brucei, og den oransje etiketten for T. cruzi. Den andre klassifiseringsetiketten ville ikke bli vist hvis den første deteksjonsmodellen mislyktes, noe som tyder på de godt tilkoblede funksjonene mellom disse to forskjellige nevrale nettverksryggradene i DC-modulen til den interne CIRA CORE-plattformen.

Figure 1
Figur 1: Arkitektur for en hybridmodell. Alle tre parasittarter av trypanosomer (inkludert Trypanosoma evansi, T. brucei og T. cruzi) ble brukt som inngang. Flere objekter i et 100x mikroskopisk bilde ble detektert ved hjelp av deteksjonsmodellen. Et enkelt beskåret objekt fra den forrige modellen ble deretter klassifisert i henhold til sin relative art ved å bruke den beste klassifiseringsmodellen. Et oppmerksomhetskart integrert med den beste klassifiseringsmodellen uthevet områder som er spesifikke for hver klasseetikett. Klikk her for å se en større versjon av denne figuren.

Figure 2
Figur 2: PR-kurve. Arealet under PR-kurven, eller AUC-verdien, i denne studien, brukes til å måle evnen til å diskriminere mellom ikke-trypanosom- og trypanosomklasser. Alle prøver kan detekteres på begge klasseetiketter. En AUC på 1 er en perfekt prediksjon, mens en AUC på 0,5 er en tilfeldig prediksjon. Kurven brukes til å måle ytelsen til den foreslåtte deteksjonsmodellen. Denne modellen kan oppdage trypanosomklassen med en høyere hastighet (AUC = 0,976) enn ikke-trypanosomklassen (AUC = 0,961). Den gjennomsnittlige AUC-verdien på 0,969 ble oppnådd fra det binære resultatet av to klasseetiketter, ikke-trypanosomet og trypanosomet. Forkortelser: PR = presisjon versus tilbakekalling; AUC = areal under kurven. Klikk her for å se en større versjon av denne figuren.

Figure 3
Figur 3: Prediktivt resultat av klassifikasjonsmodellen. Alle tre trypanosomartene ble brukt til å teste de beste foreslåtte trente modellene. Utgangsbilder av artsklassifiseringsbaserte sannsynlighets- og oppmerksomhetskart vises. Spesielt fremhevet oppmerksomhetskartene de betydelige områdene i det usynlige objektet som ledet diskrimineringen av parasittartene. Klikk her for å se en større versjon av denne figuren.

Figure 4
Figur 4: Modellmessig sammenligningsbaserte ROC-kurver. AUC under ROC-kurven er et grafisk plott av ytelsen til et klassifiseringssystem basert på dets varierte terskel for diskriminering. I likhet med AUC-PR-kurven er AUC-ROC på 1 en perfekt prediksjon, mens AUC på 0,5 er en tilfeldig prediksjon, som er indikert med stiplede linjer i hver graf. Tre klassifiseringsmodeller ble sammenlignet, inkludert (A) 1. klassifiseringsmodell med en gjennomsnittlig AUC på 0,925, (B) 2. klassifisering med en gjennomsnittlig AUC på 0,924, og (C) den beste klassifiseringen med en gjennomsnittlig AUC på 0,931. Derfor, jo høyere AUC, desto bedre ytelse. Forkortelser: ROC = mottakerens driftsegenskaper; AUC = areal under kurven. Klikk her for å se en større versjon av denne figuren.

Figure 5
Figur 5: Fem ganger kryssvalidering. Alle eksperimenter basert på de beste klassifiseringen nevrale nettverksmodeller ble sammenlignet. Lignende AUC-verdier for femdoble data inkluderte (A) 0,944, (B) 0,944, (C) 0,937, (D) 0,941 og (E) 0,938, noe som antyder robustheten til den foreslåtte trente modellen som brukes mot variasjonen i de biologiske dataene. Klikk her for å se en større versjon av denne figuren.

Figure 6
Figur 6: sann positiv rate og falsk positiv rate per klassenavn. X-aksen er representativ for terskler fra 1% til 97%. Y-aksen er representativ for gradene i de statistiske beregningene. Klikk her for å se en større versjon av denne figuren.

Figure 7
Figur 7: Endelig utgang for hybridmodellene. Det siste trinnet i hybridmodellbidraget kan brukes med inngangsdata som et rå mikroskopisk bilde med 20 μm. Det prediktive resultatet kan fås fra både objektdeteksjonen og klassifikasjonsmodellene. Det første prediktive resultatet ga om det usynlige testbildet inneholdt trypanosomparasitter med et rektangel (rosafargede etiketter). Deretter vil klassifiseringsresultatene som er spesifikke for parasittarten bli fulgt av den første påvisningen med flerfargede etiketter; grønn for T. evansi, rosa for T. brucei og oransje for T. cruzi. Klikk her for å se en større versjon av denne figuren.

Tabell 1: Gjennomsnittlig presisjon etter klasse og gjennomsnittlig gjennomsnittlig presisjon (mAP) for deteksjonsmodellen. Klikk her for å laste ned denne tabellen.

Tabell 2: Sammenligning av klassifiseringsmodeller. Åtte evalueringsberegninger ble brukt til å måle modellens ytelse, inkludert nøyaktighet, feilklassifiseringsrate, tilbakekalling (sann positiv rate), spesifisitet (sann negativ rate), falsk positiv rate, falsk negativ rate, presisjon og F1-score. Den fete verdien er representativ for den største verdien per klasseetikett. Kursivverdien er representativ for gjennomsnittsverdien for hver evalueringsberegning. Klikk her for å laste ned denne tabellen.

Tabell 3: Fem ganger kryssvalidering. Verdien i fet skrift er representativ for gjennomsnittsverdien per evalueringsberegning. Klikk her for å laste ned denne tabellen.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Mikroskopisk observasjon for Trypanosoma protozoa-infeksjon er tidlig og ofte brukt, spesielt under overvåking i avsidesliggende områder der det er mangel på dyktige teknikere og arbeidsintensive og tidkrevende prosesser som alle er hindringer for å rapportere helseorganisasjonen i tide. Selv om molekylærbiologiske teknikker som immunologi og polymerasekjedereaksjon (PCR) er godkjent som høysensitivitetsmetoder for å støtte effektiviteten av laboratoriefunn, er det nødvendig med dyre kjemikalier, apparater og fagfolk for å håndtere dem, som for det meste ligger i et sentralt laboratorium på et stort helsesenter. Delt morfologi, blandet og umoden infeksjon og karakteristika hos tre trypanosoma-arter er utsatt for brukerskjevhet og feilidentifikasjon, noe som reduserer legemiddelresponsen og kontrolltiltaket37. Bruk av modifiserte og hybride algoritmer mellom to forskjellige dype læringsmodeller i det foreslåtte AI-programmet kan overvinne mange utfordringer, noe som gjør en ny epoke med standard taksonomi automatisk og oppnåelig. Tidligere publikasjoner har bekreftet potensialet til hybridmodeller for å identifisere malariale blodstadier27,38. Her er forklaringen på protokollen for trening, testing og evaluering av de foreslåtte AI-modellene for å gjenkjenne de modne stadiene av tre kjente trypanosoma-arter med en forenklet prosess for å analysere for praktisk identifisering og videre kvantifisering av parasittiske protozoer under et mikroskopisk felt.

Den foreslåtte modellen ser utover maskinlæringsmodellen ved hjelp av tilfeldig skogalgoritme, som har blitt brukt til å identifisere infeksjonen av T. cruzi fra blodutstryksprøver. Maskinlæringsmodellen oppnådde en presisjon på 87,6 %, en følsomhet på 90,5 % og et område under mottakerens driftskarakteristikkkurve på 0,94239. I 2015 ble det gjennomført to metoder kalt AdaBoost learning og SVM learning for å skille T. cruzi fra malariainfeksjon i blodutstryk. Selv om en høy grad av både sensitivitet og spesifisitet ble rapportert, ble et begrenset datasett med 120 fargebilder med lav dimensjon 256 × 256 piksler studert, noe som kanskje ikke er representativt for hele populasjonen40. I denne studien ble tre kjente zoonotiske trypanosoma-arter (f.eks. T. cruzi, T. brucei og T. evansi) separert ved å bruke den foreslåtte hybridmodellen, som overgikk tidligere studier beskrevet ovenfor. Dette representerer kostnadseffektiviteten til dyplæringsmodellen. Likevel kan flere store datasett kreve validering av ytelsen til den foreslåtte modellen for å bekrefte generaliseringen41. T. lewisi har potensial til å infisere mennesker opportunistisk, og det er anerkjent som en fremvoksende zoonotisk sykdom overført av rotter, ofte knyttet til fattige forhold. Tilfeller er dokumentert i noen land, som Thailand og Kina20,42. Videre har morfologiene til T. evansi og T. lewisi en slående likhet17. For å forbedre datasettet og den foreslåtte modellen, kan inkluderingen av flere forekomster av T. lewisi være gunstig i utviklingen av en dyp læringsmodell i fremtiden. For å utvide omfanget av potensielle dype læringsteknikker for diagnostisering av flere dyretrypanosomoser, anbefales det å samle datasett for andre arter som T. vivax, T. theileria og T. melophagium. En betydelig utfordring å ta opp er diagnostisering av blandede infeksjoner som involverer forskjellige trypanosoma-arter, da antistoffdeteksjonsmetoder kan vise redusert spesifisitet på grunn av kryssreaksjoner43. Det er viktig å forbedre og styrke diagnostiske teknikker for å fremme kunstig intelligensapplikasjoner og beskytte helsen til husdyr, mennesker og miljø.

Før du trener det foreslåtte AI-programmet for å gjenkjenne 2D-bildet av parasittprotozoer, er de viktige kriteriene som trengs for å fullføre det, for eksempel en stor prøvestørrelse, klassebalansering, dataforstørrelse og kvalitetsmerking av eksperter. Som kritiske trinn kan feilsignalet fra treningsfasen nøstes opp av fagfolk for å reprodusere grunnsannhetsetikettene for både Darknet- og Densenet-algoritmene. En stor fordel med det foreslåtte AI-programmet er den vennlige bruken for ikke-kodende brukere gjennom enkle dra-og-slipp-trinn. En annen viktig funksjon er kombinasjonsmodulen til deteksjonsversjonen og oppmerksomhetskartet integrert med klassifiseringsmodellene, noe som bidrar til å gjøre det lettere å teste de usynlige dataene så raskt som mulig uten å bekymre deg for det rå bildefilformatet. Dette er fordi et bredere spekter av bildeformater kan brukes, inkludert .jpeg, .jpg, .png, .tif, .tiff, .pdf og .bmp. Anvendelse av AI-programmet med en c-mount-komponent i mikroskopet kan føre til sanntidsdeteksjon i avsidesliggende områder.

Begrensninger av metoden kan påvirke de foreslåtte protokollene i førtreningsfasen. Før opplæring av en AI-modell begynner, bør noen krav være godt forberedt, spesielt datasettkvalitet og ekspertetiketter. Innenfor datasettet førte en liten utvalgsstørrelse og klassebalansering til at modellen nådde det globale minima og hadde problemer med å nå det optimale stadiet. Bruken av en stor utvalgsstørrelse og balansering av dataene bidrar til å optimalisere modellen med høy nøyaktighet og lavt tap under trening. Variasjonen av bilder, som utviklingsstadiet gjennom protozoens livssyklusperiode og varierte farger ved Giemsa-farging27,44, miljø- og bildeskalaene, ønsker å bli normalisert før de mates inn i opplæringen av begge dyplæringsmodellene. For å fikse de foreslåtte problemene nevnt ovenfor, kan forskjellige forstørrelsesfunksjoner som rotasjonsvinkler, lysstyrke og kontrast, vertikale og horisontale flips, Gaussisk støy og Gaussisk uskarphet, brukes til å håndtere pretraining fase45.

Den viktige anvendelsen av de foreslåtte hybride AI-modellene er å identifisere den parasittiske protozoen i sanntid i de mikroskopiske dataene som rådata fra mikroskopet, frosne bilder og videoklipp. Det lar oss distribuere den trente modellen med innebygde enheter46, skybasert mobilapplikasjon47, nettleserbrukergrensesnitt (BUI)48 og nettbasert modelldistribusjon49. Som et resultat har AI-modellen potensial til å bruke hybrid dyp læring til aktiv overvåking og gi et rettidig resultat på grunn av sin evne til å støtte de lokale ansattes beslutning innen millisekunder, noe som tyder på automatisk screeningsteknologi for hjelpeepidemiologi.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Alle forfattere har ingen økonomiske opplysninger og ingen interessekonflikter.

Acknowledgments

Dette arbeidet (Forskningsstipend for New Scholar, stipend nr. RGNS 65 - 212) ble økonomisk støttet av Office of the Permanent Secretary, Ministry of Higher Education, Science, Research and Innovation (OPS MHESI), Thailand Science Research and Innovation (TSRI) og King Mongkut's Institute of Technology Ladkrabang. Vi er takknemlige for National Research Council of Thailand (NRCT) [NRCT5-RSA63001-10] for finansiering av forskningsprosjektet. MK ble finansiert av Thailand Science Research and Innovation Fund Chulalongkorn University. Vi takker også College of Advanced Manufacturing Innovation, King Mongkut's Institute of Technology, Ladkrabang som har gitt dyp læringsplattform og programvare for å støtte forskningsprosjektet.

Materials

Name Company Catalog Number Comments
Darknet19, Darknet53 and Densenet201 Gao Huang, Z. L., Laurens van der Maaten. Densely Connected Convolutional Networks. arXiv:1608.06993 [cs.CV]. (2016) https://github.com/liuzhuang13/DenseNet  Deep convolutional neural network model that can function to  classification
Generic name: YOLO model/ detection model?
Olympus CX31 Model CX31RRBSFA  Olympus, Tokyo, Japan SN 4G42178  A light microscope 
Olympus DP21-SAL U-TV0.5XC-3  Olympus, Tokyo, Japan SN 3D03838 A digital camera
Generic name: Classification models/ densely CNNs
Window 10 Microsoft Window 10 Operation system in computers
YOLO v4-tiny  Naing, K. M. et al. Automatic recognition of parasitic products in stool examination using object detection approach. PeerJ Comput Sci. 8 e1065, (2022). https://git.cira-lab.com/users/sign_in Deep convolutional neural network model that can function to both localization and also classification 
https://git.cira-lab.com/users/sign_in

DOWNLOAD MATERIALS LIST

References

  1. Kasozi, K. I., et al. Epidemiology of trypanosomiasis in wildlife-implications for humans at the wildlife interface in Africa. Frontiers in Veterinary Science. 8, 621699 (2021).
  2. Ola-Fadunsin, S. D., Gimba, F. I., Abdullah, D. A., Abdullah, F. J. F., Sani, R. A. Molecular prevalence and epidemiology of Trypanosoma evansi among cattle in peninsular Malaysia. Acta Parasitologica. 65 (1), 165-173 (2020).
  3. Aregawi, W. G., Agga, G. E., Abdi, R. D., Buscher, P. Systematic review and meta-analysis on the global distribution, host range, and prevalence of Trypanosoma evansi. Parasites & Vectors. 12 (1), 67 (2019).
  4. Joshi, P. P., et al. Human trypanosomiasis caused by Trypanosoma evansi in India: the first case report. The Am Journal of Tropical Medicine and Hygiene. 73 (3), 491-495 (2005).
  5. Lidani, K. C. F., et al. Chagas disease: from discovery to a worldwide health problem. Frontiers in Public Health. 7, 166 (2019).
  6. Sazmand, A., Desquesnes, M., Otranto, D. Trypanosoma evansi. Trends in Parasitology. 38 (6), 489-490 (2022).
  7. Powar, R. M., et al. A rare case of human trypanosomiasis caused by Trypanosoma evansi.Indian. Journal of Medical Microbiology. 24 (1), 72-74 (2006).
  8. Shegokar, V. R., et al. Short report: Human trypanosomiasis caused by Trypanosoma evansi in a village in India: preliminary serologic survey of the local population. American Journal of Tropical Medicine and Hygiene. 75 (5), 869-870 (2006).
  9. Haridy, F. M., El-Metwally, M. T., Khalil, H. H., Morsy, T. A. Trypanosoma evansi in dromedary camel: with a case report of zoonosis in greater Cairo, Egypt. Journal of the Egyptian Society of Parasitology. 41 (1), 65-76 (2011).
  10. Dey, S. K. CATT/T.evansi antibody levels in patients suffering from pyrexia of unknown origin in a tertiary care hospital in Kolkata. Research Journal of Pharmaceutical, Biological and Chemical Sciences. 5, 334-338 (2014).
  11. Dakshinkar, N. P., et al. Aberrant trypanosomias in human. Royal Veterinary Journal of India. 3 (1), 6-7 (2007).
  12. Vn Vinh Chau, N., et al. A clinical and epidemiological investigation of the first reported human infection with the zoonotic parasite Trypanosoma evansi in Southeast Asia. Clinical Infectious Diseases. 62 (8), 1002-1008 (2016).
  13. Misra, K. K., Roy, S., Choudhary, A. Biology of Trypanosoma (Trypanozoon) evansi in experimental heterologous mammalian hosts. Journal of Parasitic Diseases. 40 (3), 1047-1061 (2016).
  14. Nakayima, J., et al. Molecular epidemiological studies on animal trypanosomiases in Ghana. Parasites & Vectors. 5, 217 (2012).
  15. Riana, E., et al. The occurrence of Trypanosoma in bats from Western Thailand. The 20th Chulalongkorn University Veterinary Conference CUVC 2021: Research in practice. 51, Bangkok, Thailand. (2021).
  16. Camoin, M., et al. The Indirect ELISA Trypanosoma evansi in equids: optimisation and application to a serological survey including racing horses, in Thailand. BioMed Research International. 2019, 2964639 (2019).
  17. Truc, P., et al. Atypical human infections by animal trypanosomes. PLoS Neglected Tropical Diseases. 7 (9), 2256 (2013).
  18. Desquesnes, M., et al. Diagnosis of animal trypanosomoses: proper use of current tools and future prospects. Parasites & Vectors. 15 (1), 235 (2022).
  19. Da Silva, A. S., et al. Trypanocidal activity of human plasma on Trypanosoma evansi in mice. Revista Brasileira de Parasitologia Veterinaria. 21 (1), 55-59 (2012).
  20. Desquesnes, M., et al. Trypanosoma evansi and surra: a review and perspectives on transmission, epidemiology and control, impact, and zoonotic aspects. BioMed Research International. 2013, 321237 (2013).
  21. World Health Organization. A new form of human trypanosomiasis in India. Description of the first human case in the world caused by Trypanosoma evansi. Weekly Epidemiological Record. 80 (7), 62-63 (2005).
  22. Naing, K. M., et al. Automatic recognition of parasitic products in stool examination using object detection approach. PeerJ Computer Science. 8, 1065 (2022).
  23. Wongsrichanalai, C., Barcus, M. J., Muth, S., Sutamihardja, A., Wernsdorfer, W. H. A review of malaria diagnostic tools: microscopy and rapid diagnostic test (RDT). American Journal of Tropical Medicine and Hygiene. 77, 119-127 (2007).
  24. Rostami, A., Karanis, P., Fallahi, S. Advances in serological, imaging techniques and molecular diagnosis of Toxoplasma gondii infection. Infection. 46 (3), 303-315 (2018).
  25. Ahmad, Z., Rahim, S., Zubair, M., Abdul-Ghafar, J. Artificial intelligence (AI) in medicine, current applications and future role with special emphasis on its potential and promise in pathology: present and future impact, obstacles including costs and acceptance among pathologists, practical and philosophical considerations. A comprehensive review. Diagnostic Pathology. 16 (1), 24 (2021).
  26. Sarker, I. H. Deep learning: a comprehensive overview on techniques, taxonomy, applications and research directions. SN Computer Science. 2 (6), 420 (2021).
  27. Kittichai, V., et al. Classification for avian malaria parasite Plasmodium gallinaceum blood stages by using deep convolutional neural networks. Scientific Reports. 11 (1), 16919 (2021).
  28. Baskota, S. U., Wiley, C., Pantanowitz, L. The next generation robotic microscopy for intraoperative teleneuropathology consultation. Journal of Pathology Informatics. 11, 13 (2020).
  29. Bochkovskiy, A., Wang, C. -Y., Liao, H. -Y. M. YOLOv4: optimal speed and accuracy of object detection. arXiv. , 10934 (2004).
  30. Huang, G., Liu, Z., vander Maaten, L., Weinberger, K. Q. Densely connected convolutional networks. arXiv. , 06993 (2018).
  31. CDC-DPDx. Diagnostic procedures - Blood specimens. , Available from: https://www.cdc.gov/dpdx/diagosticprocedures/blood/specimenproc.html#print (2020).
  32. World Health Organization. Control and surveillance of African trypanosomiasis: report of a WHO expert committee. WHO Technical Report Series 881. , Available from: https://iris.who.int/bitstream/handle/10665/42087/WHO_TRS_881.pdf?sequence=1 (1998).
  33. Leber, A. L. Detection of blood parasites. Clinical Microbiology Procedures Handbook. , ASM Press. Washington, DC. (2022).
  34. Huang, L. -P., Hong, M. -H., Luo, C. -H., Mahajan, S., Chen, L. -J. A vector mosquitoes classification system based on edge computing and deep learning. Proceedings-2018 Conmference on Technologies and Applications of Artifical Intelligence. , Taichung, Taiwan. 24-27 (2018).
  35. Cihan, P., Gökçe, E., Kalipsiz, O. A review of machine learning applications in veterinary field. Kafkas Universitesi Veteriner Fakultesi Dergisi. 23 (4), 673-680 (2017).
  36. Berrar, D. Cross-validation. Encyclopedia of Bioinformatics and Computational Biology. 1, 542-545 (2019).
  37. Gaithuma, A. K., et al. A single test approach for accurate and sensitive detection and taxonomic characterization of Trypanosomes by comprehensive analysis of internal transcribed spacer 1 amplicons. PLoS Neglected Tropical Diseases. 13 (2), 0006842 (2019).
  38. Vijayalakshmi, A., Rajesh Kanna, B. Deep learning approach to detect malaria from microscopic images. Multimedia Tools and Applications. 79 (21-22), 15297-15317 (2019).
  39. Morais, M. C. C., et al. Automatic detection of the parasite Trypanosoma cruzi in blood smears using a machine learning approach applied to mobile phone images. PeerJ. 10, 13470 (2022).
  40. Uc-Cetina, V., Brito-Loeza, C., Ruiz-Pina, H. Chagas parasite detection in blood images using AdaBoost. Computational and Mathematical Methods in Medicine. 2015, 139681 (2015).
  41. Zhang, C., et al. Deep learning for microscopic examination of protozoan parasites. Computational and Structural Biotechnology Journal. 20, 1036-1043 (2022).
  42. Sarataphan, N., et al. Diagnosis of a Trypanosoma lewisi-like (Herpetosoma) infection in a sick infant from Thailand. Journal of Medical Microbiology. 56, 1118-1121 (2007).
  43. Desquesnes, M., et al. A review on the diagnosis of animal trypanosomoses. Parasites & Vectors. 15 (1), 64 (2022).
  44. Fuhad, K. M. F., et al. Deep learning based automatic malaria parasite detection from blood smear and its smartphone based application. Diagnostics (Basel). 10 (5), 329 (2020).
  45. Christian Matek, S. S., Spiekermann, K., Marr, C. Human-level recognition of blast cells in acute myeloid leukaemia with convolutional neural networks. Nature Machine Intelligence. 1, 538-544 (2019).
  46. Hamdan, S., Ayyash, M., Almajali, S. Edge-computing architectures for internet of things applications: a survey. Sensors (Basel). 20 (22), 6441 (2020).
  47. Visser, T., et al. A comparative evaluation of mobile medical APPS (MMAS) for reading and interpreting malaria rapid diagnostic tests. Malaria Journal. 20 (1), 39 (2021).
  48. Giorgi, E., Macharia, P. M., Woodmansey, J., Snow, R. W., Rowlingson, B. Maplaria: a user friendly web-application for spatio-temporal malaria prevalence mapping. Malaria Journal. 20 (1), 471 (2021).
  49. Rajaraman, S., Jaeger, S., Antani, S. K. Performance evaluation of deep neural ensembles toward malaria parasite detection in thin-blood smear images. PeerJ. 7, 6977 (2019).

Tags

Overlegen autoidentifikasjon trypanosomparasitter hybrid dyplæringsmodell trypanosomiasis folkehelseproblem Sør-Asia Sørøst-Asia hotspot-områder aktiv overvåking mikroskopisk undersøkelse dyktig personell kunstig intelligens (AI) -program hybrid dyp læringsteknikk objektidentifikasjon objektklassifisering nevrale nettverksryggrader lavkode AI-plattform (CiRA CORE) protozoan trypanosomarter trypanosoma cruzi T. brucei T. Evansi olje-nedsenking Mikroskopiske bilder mønstergjenkjenning kjerne og kinetoplast oppmerksomhetskart statistiske mål nøyaktighet tilbakekalling spesifisitet presisjon F1-poengsum feilklassifiseringshastighet mottakerens driftsegenskaper (ROC) kurver presisjon versus tilbakekalling (PR) kurver
Overlegen automatisk identifisering av trypanosomparasitter ved hjelp av en hybrid dyplæringsmodell
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Kittichai, V., Kaewthamasorn, M.,More

Kittichai, V., Kaewthamasorn, M., Thanee, S., Sasisaowapak, T., Naing, K. M., Jomtarak, R., Tongloy, T., Chuwongin, S., Boonsang, S. Superior Auto-Identification of Trypanosome Parasites by Using a Hybrid Deep-Learning Model. J. Vis. Exp. (200), e65557, doi:10.3791/65557 (2023).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter