Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Bioengineering

Överlägsen automatisk identifiering av trypanosomparasiter med hjälp av en hybrid djupinlärningsmodell

Published: October 27, 2023 doi: 10.3791/65557

Summary

Medicinska blodparasiter över hela världen screenades automatiskt med enkla steg på en AI-plattform med låg kod. Den prospektiva diagnostiken av blodfilmer förbättrades genom att använda en objektdetekterings- och klassificeringsmetod i en hybrid djupinlärningsmodell. Samarbetet mellan aktiv övervakning och vältränade modeller hjälper till att identifiera hotspots för trypanosomöverföring.

Abstract

Trypanosomiasis är ett betydande folkhälsoproblem i flera regioner över hela världen, inklusive Sydasien och Sydostasien. Identifieringen av hotspot-områden som står under aktiv övervakning är ett grundläggande förfarande för att kontrollera sjukdomsspridningen. Mikroskopisk undersökning är en vanligt förekommande diagnostisk metod. Den är dock i första hand beroende av kunnig och erfaren personal. För att lösa detta problem introducerades ett program för artificiell intelligens (AI) som använder en hybridteknik för djupinlärning för objektidentifiering och objektklassificering av neurala nätverksstamnät på den interna AI-plattformen med låg kod (CiRA CORE). Programmet kan identifiera och klassificera de protozoiska trypanosomarterna, nämligen Trypanosoma cruzi, T. brucei och T. evansi, från mikroskopiska bilder av oljenedsänkning. AI-programmet använder mönsterigenkänning för att observera och analysera flera protozoer i ett enda blodprov och lyfter fram kärnan och kinetoplasten för varje parasit som specifika karakteristiska egenskaper med hjälp av en uppmärksamhetskarta.

För att bedöma AI-programmets prestanda skapas två unika moduler som ger en mängd olika statistiska mått som noggrannhet, återkallelse, specificitet, precision, F1-poäng, felklassificeringsfrekvens, ROC-kurvor (receiver operating characteristics) och kurvor för precision kontra återkallelse (PR). Resultaten visar att AI-algoritmen är effektiv när det gäller att identifiera och kategorisera parasiter. Genom att leverera ett snabbt, automatiserat och korrekt screeningverktyg har denna teknik potential att förändra sjukdomsövervakning och kontroll. Det skulle också kunna hjälpa lokala tjänstemän att fatta mer välgrundade beslut om strategier för blockering av sjukdomsöverföring.

Introduction

Trypanosomiasis är en stor utmaning för globala hälsoproblem på grund av en mängd olika zoonotiska arter som orsakar sjukdomar hos människor med ett brett spektrum av geografisk spridning utanför de afrikanska och amerikanska kontinenterna, såsom Syd- och Sydostasien 1,2,3. Mänsklig afrikansk trypanosomiasis (HAT) eller sömnsjuka, orsakas av Trypanosoma brucei gambiense och T. b. rhodesiense som producerar de kroniska respektive akuta formerna, som representerar den största spridningen i Afrika. Den orsakande parasiten tillhör Salivaria-gruppen på grund av överföring av infekterad saliv från Tsetseflugor4. Den välkända amerikanska trypanosomiasis (Chagas sjukdom) som orsakas av T. cruzi har varit ett folkhälsoproblem i icke-endemiska länder. inklusive Kanada, USA, Europa, Australien och Japan, på grund av den frekventa migrationen av individer från endemiska områden5. Trypanosominfektionen tillhör Stercoraria-gruppen eftersom den överförs av infekterad avföring från reduviidbaggar. Trypanosomiaser och trypanosomoses (Surra-sjukdom) som orsakas av T. evansi-infektionen är endemiska i Afrika, Sydamerika, västra och östra Asien samt länder i Syd- och Sydostasien 3,6. Även om human trypanosomiasis orsakad av trypanosomen har rapporterats 3,4,7,8,9,10,11,12, är vägen för överföring av parasitinfektionen omdiskuterad: antingen det mekaniska eller infekterade blodet genom hematofaga insekter som tsetseflugor och tabanider eller hästflugor 6,7, 8,9,10,12,13,14. Ingen fallrapport har hittats i Thailand, men en hög prevalens av T. evansi infektion hos hund15, kapplöpningshästar och vattenbuffel i den östra regionen har publicerats16, vilket tyder på att en förvärvad överföring mellan husdjur skulle ha inträffat. Flera atypiska infektioner hos människa orsakade av trypanosomer från djur (T. vivax, T. b. brucei, T. congolense, T. lewisi och T. evansi) rapporterades, vilka inte är de klassiska formerna av humana trypanosomer17. Medvetenheten om atypiska infektioner hos människor kan vara underskattad, vilket belyser behovet av förbättrade diagnostiska tester och fältundersökningar för att upptäcka och bekräfta dessa atypiska fall, och möjliggöra korrekt kontroll och behandling av djurpatogena sjukdomar som påverkar den globala boskapen, livsmedelstrygghet18 och hälso- och sjukvård för människor. Detta ledde till utvecklingen av en potentiell strategi integrerad med en befintlig gemensam metod (mikroskopisk undersökning) för att snabbt screena blodprover i avlägsna områden under aktiv övervakning, vilket gör det möjligt att identifiera hotspot-zoner för att begränsa och kontrollera sjukdomen.

Att ha en sporadisk förekomst av Surra-sjukdomen hos ett brett spektrum av husdjur som dromedarer, nötkreatur, hästar och hundar som framkallar en euryxenös T. evansi kan vara zoonotisk för människor 1,4,13,14. Infektion hos människa verkar omöjlig eftersom en trypanolytisk faktor i humant serum, uttryckt från en sra-liknande gen, kan förhindra T. brucei och T. congolense12,19. Dessutom, som den första fallrapporten från Indien visar, har sjukdomen inget samband med immunsupprimerade HIV-patienter4. Som beskrivits ovan kan den möjliga infektionen hos människa vara relaterad till en brist på lipoprotein med hög densitet med onormal funktion av trypanosomen lytisk faktor, som är en sällsynt autosomalt recessiv genetisk sjukdom, nämligen Tanger sjukdom4. År 2016 upptäcktes att en vietnamesisk patient hade två APOL1-alleler av vildtyp och en APOL1-koncentration i serum inom det normala intervallet. Teorin om APOL-1-brist anses dock inte längre vara giltig12. En möjlig mekanism för trypanosominfektion är därför direktkontakt mellan ett sår och infekterat djurblod under yrkesmässig djurhållning 4,12. Mikroskopisk undersökning avslöjar att T. evansis morfologi är en monomorf form av trypomastigote som inkluderar en dominerande långsmal, gisslad och delande trypanosom som liknar deras släkting T. brucei 1,12,13. Kärnan är i mittläge med en synlig liten kinetoplast i den bakre positionen. En tidigare studie indikerade att parasiten kan existera i två jämförbara former, kända som de klassiska och trunkerade formerna. Det är dock fortfarande nödvändigt att bekräfta deras respektive patogena effekter på värdar20. Symtomförloppet varierar, allt från intermittent feber i samband med frossa och svettningar. Suramin är lyckligtvis en framgångsrik förstahandsbehandling för tidig afrikansk trypanosomiasis utan invasion av centrala nervsystemet (CNS), vilket botar patienter i Indien och Vietnam 4,12,21.

Förutom klinisk teckenundersökning finns det flera diagnostiska metoder för T. evansi parasiter, inklusive parasitologisk mikroskopisk observation 4,9,12, serologisk 4,8,9,10,12 och molekylärbiologiska tester 4,12. Tunnblodsfilmer färgade med Giemsa används ofta för att visualisera parasiten som finns under mikroskopisk undersökning, vilket rutinmässigt och ofta används22. Förfarandet verkar dock vara genomförbart. Ändå är det tidskrävande och arbetskrävande, har interbedömarbedömningsvariation, är känsligt för endast en akut fas och kräver en personlig praktikant23. Både molekylärbiologisk och serologisk testning krävde också högkvalificerad personal för att utföra flera processer för provberedning, inklusive extraktion och rening av proverna innan de testades med dyr utrustning, vilket är svårt att standardisera, risk för kontaminering med extraparasitiska material och avvikelser i resultaten24. På grundval av den logiska grund som beskrivs ovan behövs snabb och tidig screeningteknik för att stödja fältövervakningsstudien och säkerställa att undersökningsresultaten rapporteras i god tid för att identifiera hotspot-zonen för ytterligare kontroll av sjukdomsspridningen 1,8. Datorbaserade enheter (CAD) har föreslagits som en innovativ teknik för medicinska områden, inklusive histopatologiska och cytopatologiska uppgifter25. CAD-koden som nämns ovan utfördes i hög hastighet och beräknades med hjälp av mönsterigenkänning, nämligen artificiell intelligens (AI). AI-metoden åstadkoms med hjälp av faltningsalgoritmer för neurala nätverk som kan användas för att hantera ett stort antal datamängdsprover, särskilt en övervakad inlärningsmetod som tränar en vältränad modell vid datakonsumtion.

I allmänhet är AI datorernas förmåga att lösa uppgifter som kräver expertintelligens, t.ex. datamärkning. Maskininlärning (ML), ett delområde av AI, representeras som ett datorsystem med två olika processer som består av egenskapsextraktion och mönsterigenkänning. Djupinlärning (DL), eller avancerade ML-algoritmer, avser utvecklingen av datoriserade program och enheter som jämför människoliknande prestanda med noggrannhetsnivåer som är större och lika med den som åstadkoms av mänskliga proffs26. För närvarande är DL:s roll inom medicinska och veterinära områden lovande på att utöka och revolutionera förebyggandet av smittsamma sjukdomar i syfte att förebygga nya sjukdomar och vägleda det till enskild hälso- och sjukvårdspersonal22,27. Den potentiella DL-tillämpningen är obegränsad med kvalitetsetiketter och ett stort antal utökade datamängder, vilket frigör specialister för att hantera projektuppgiften. Specifikt förbättrade ett framsteg i den digitala bilden tillsammans med datorstödd analys den automatiska diagnostiken och screeningen i fem kategorier av patologi som rapporterades; inklusive statiska, dynamiska, robotiska, helglasavbildnings- och hybridmetoder28. Det är nödvändigt att tänka på att integrationen av DL-algoritmer och digitala bilddata kan uppmuntra lokal personal att använda tekniken i sin dagliga praxis.

Tidigare har ökningen av förutsägelsenoggrannheten med att använda en hybridmodell bevisats27. För att identifiera trypanosomparasiten i mikroskopiska bilder presenterar denna forskning två hybridmodeller, som innehåller algoritmerna YOLOv4-tiny (objektdetektion) och Densenet201 (objektklassificering). Bland flera detektionsmodeller visade YOLOv4-tiny med ett CSPDarknet53-stamnät hög prestanda som prediktionsresultat när det gäller lokalisering och klassificering29. Eftersom realtidsdetektorn har modifierat den optimala balansen mellan ingångsnätverksupplösningen, mängden faltningslager, den totala parametern och antalet lagerutgångar, har den förbättrats genom att prioritera snabba driftshastigheter och optimera för parallella beräkningar jämfört med tidigare versioner. Dense Convolutional Network (DenseNet) är en annan populär modell som uppnår toppmoderna resultat över konkurrenskraftiga datamängder. DenseNet201 gav ett liknande valideringsfel som är jämförbart med ResNet101; DenseNet201 har dock färre än 20 miljoner parametrar, vilket är mindre än ResNet101:s mer än 40 miljoner parametrar30. Därför kan DenseNet-modellen förbättra förutsägelsenoggrannheten med ett ökande antal parametrar utan tecken på överanpassning. Här använder ett program för artificiell intelligens (AI) en hybrid djupinlärningsalgoritm med djupdetekterings- och klassificeringsryggrader för neurala nätverk på den interna CiRA CORE-plattformen. Det utvecklade programmet kan identifiera och klassificera de protozoiska trypanosomarterna, nämligen Trypanosoma cruzi, T. brucei och T. evansi, från mikroskopiska bilder av oljenedsänkning. Denna teknik har potential att revolutionera sjukdomsövervakning och kontroll genom att tillhandahålla en snabb, automatiserad och exakt screeningmetod. Det skulle kunna hjälpa lokal personal att fatta mer välgrundade beslut om strategier för smittspridning av protozoer.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Arkiverade blodfilmer och projektdesign godkändes av Institutional Biosafety Committee, Institutional Animal Care and Use Committee of the Faculty of Veterinary Science, Chulalongkorn University (IBC No. 2031033 och IACUC No. 1931027) och Human Research Ethics Committee of King Mongkut's Institute of Technology Ladkrabang (EC-KMITL_66_014).

1. Förberedelse av råbilder

  1. Förberedelse av bilddatauppsättning
    1. Skaffa minst 13 positiva objektglas med blodparasitinfektioner, inklusive T. brucei, T. cruzi och T. evansi, bekräftade av parasitologexperter. Separera de 13 bilderna för träning (10 bilder) och testning (tre bilder).
    2. Ta bilder av Giemsa-färgade, tunna blodfilmer som beskrivs ovan under ett oljenedsänkningsfält i ett ljusmikroskop med en digitalkamera. Ta bilder som innehåller flera objekt av trypomastigotes från alla tre parasitarterna under mikroskopisk undersökning; Leta efter en smal form, långa svansar, ett böljande membran och en kinetoplast i den främre änden.
      OBS: Att skapa både tjocka och tunna utstryk skulle förbättra upptäckten av akut fas trypanosomiasis31. Blodinsamling genom fingerstick rekommenderas av WHO32. Tunna filmer är dock mer effektiva när det gäller att identifiera Trypanosoma cruzi och andra arter, eftersom dessa organismer tenderar att bli förvrängda i tjocka filmer33. Mot bakgrund av detta använde vi tunna blodfilmsbilder för att bibehålla parasiternas lämpliga morfologi för denna studie.
    3. Lagra alla bilder i en parasitspecifik mapp med följande specifikationer: 1.600 x 1.200 pixlar, 24-bitars djup, och JPG-filformat. Dela upp bilderna i tränings- och testuppsättningarna i förhållandet ~6:1.
      OBS: Se https://gitlab.com/parasite3/superior-auto-identification-of-medically-important-trypanosome-parasites-by-using-a-hybrid-deep-learning-model/-/blob/main/JOVEimage.zip; 650 bilder delades upp för att träna (560 bilder) och testa modellen (90 bilder).
    4. Definiera det intressanta området som en rektangulär etikett för två klasser: trypanosomer och icke-trypanosomer. Använd modulen för automatisk beskärning för att beskära alla identifierade bilder med hjälp av den vältränade objektidentifieringsmodellen. Modulen för automatisk beskärning är den modul som utvecklats i det interna CiRA CORE-programmet (se Materialförteckning). Samla in ett enskilt objekt per bild för att träna objektklassificeringen.
      För det här dokumentet delades 1 017 bilder upp för träning (892 bilder) och testning (126 bilder). Modellträningen utfördes med fyra märkta klasser, inklusive leukocyt, T. brucei, T. cruzi och T. evansi.

2. Utbildningsprocess med den interna CiRA CORE-plattformen

  1. Starta ett nytt projekt
    1. Öppna CiRA CORE-programmet från datorns skrivbord (se Materialförteckning) och skapa ett nytt projekt genom att dubbelklicka på programmets ikon.
    2. Välj åtgärdsikonen i det vänstra lodräta verktygsfältet för att välja de verktyg som behövs.
  2. Modellträning för objektidentifiering
    1. Välj model-funktionen training-DL för dataetikettering och träning med hjälp av dra och släpp-metoden . Gå till verktygsfältet Allmänt | CiRA AI | Dra DeepTrain | Släpp DeepTrain på skärmen (höger sida).
      OBS: För ytterligare alternativ, högerklicka på det valda verktyget och utför lämpliga funktioner: Kopiera, Klipp ut eller Ta bort.
    2. Importera bilderna med hjälp av DeepTrain-verktygets inställningar. Klicka på knappen Ladda bilder och navigera till bildkatalogen. Märk objekten genom att hålla ned vänsterklicket och namnge det markerade objektet. Justera rektangelns linjetjocklek och teckenstorlek genom att klicka på knappen Bildskärmsinställning och Spara GT som en .gt-fil i samma katalog.
      OBS: Spara efter behov för att undvika oönskade förhållanden som strömbrist, automatiska programstängningar och hängning i märkningsprocessen.
    3. Innan modellträningen expanderar du data för att samla in tillräckligt med information med hjälp av de fyra förstärkningsteknikerna: Rotation, Kontrast, Brus och Oskärpa. Klicka på knappen Gen Setting för att komma åt den här funktionen.
    4. Initiera modellträning genom att klicka på knappen Träning i DeepTrain-verktyget . Träningsdelen har två underfunktioner: Generera träningsfiler och Träna. Under funktionen Generera träningsfiler väljer du önskade modeller, batchstorlek och underavdelningar. Klicka på knappen Generera för att generera data och spara dem i katalogen. I funktionen Träna väljer du följande alternativ: i) använd en annan genererad träningsplats för villkor och säkerhetskopiering, ii) använd fördefinierade vikter för fortsatt träning eller iii) åsidosätt parametrar för aktuell träningsdesign. Detta utformar modellkonfigurationen och träningsvillkoren.
      OBS: Genereringstiden beror på bildfilens storlek, förstoringsanvändning och tillgängligt minnesutrymme.
    5. När alla nödvändiga konfigurationer är klara börjar du modellträningen genom att klicka på knappen Träna . Låt programmet köras kontinuerligt, utvärdera träningsförlusten och justera datauppsättningens vikt under träningsprocessen. Om modellen uppnår optimal förlust sparar du den tränade viktfilen i den angivna katalogen genom att klicka på knappen Exportera .

3. Utvärdering av objektdetekteringsmodell

  1. Välj funktionen för utvärdering av objektidentifieringsmodell för modellutvärdering med hjälp av dra-och-släpp-metoden . Gå till Plugin verktygsfältet | Utvärdera | Dra EvalDetect | Släpp EvalDetect på skärmen (höger sida).
  2. Klicka på Inställning och vänta på tre funktioner: Detektion, Utvärdera och Plotta. Initiera modellutvärderingen genom att importera den tränade viktfilen från katalogen (steg 2.2.5) genom att klicka på Läs in konfiguration.
  3. Under funktionen Detektering väljer du NMS-värdet (Non-Maximum Suppression) för att förbättra noggrannheten genom att eliminera redundanta falska positiva identifieringar (FP). NMS tar bort dubbletter av modellgenererade identifieringar för förbättrad tillförlitlighet.
  4. Fortsätt med följande steg under funktionen Utvärdering :
    1. Importera testbilder från bildfilskatalogen genom att klicka på Bläddra. Importera GT-filen från katalogen där den sparades i steg 2.2.2 genom att klicka på Ladda GT.
    2. Välj värdet IoU (Intersection over Union) för att utvärdera noggrannheten för den specifika bildtestdatauppsättningen.
    3. Klicka på knappen Utvärdering för att utvärdera identifieringsmodellen i den angivna katalogen. När utvärderingen är klar sparas resultaten automatiskt som en CSV-fil i samma katalog, sorterade efter klassnamn. Den här CSV-filen innehåller viktiga parametrar som True Positive (TP), False Positive (FP), False Negative (FN), Recall och Precision för varje klass.
  5. Om du vill rita PR-kurvan (Precision-Recall) följer du dessa steg under funktionen Plotta : Importera CSV-filerna från föregående avsnittskatalog (steg 3.4) genom att klicka på Bläddra. Välj klasser i listan och klicka på knappen Rita för att visa den redigerbara PR-kurvbilden.
  6. Slutligen, för att spara en bild med AUC-värdena för PR-kurvan i det bildformat som krävs i den angivna katalogen, klickar du på knappen Spara för bilden.

4. Bildbeskärning för ett enda objekt per bild

  1. Utför följande steg innan du beskär bilderna:
    1. Importera bilderna från bildfilkatalogen genom att öppna inställningarna för bildspelsverktyget.
    2. Importera den tränade viktfilen (sparad i steg 2.2.8) genom att gå till inställningarna för Deep Detect-verktyget. Klicka på knappen Config | + knappen, välj serverdelen (CUDA eller CPU), ange ett namn, klicka på OK, välj viktfilkatalogen och klicka på Välj. I verktyget Deep Detect väljer du detekteringsparametrar (tröskelvärde och icke-maximaundertryckning (nms)); ritning parametrar; spårningsparametrar; och ROI-parametrar (Region of Interest).
    3. Välj katalogen där de beskurna bilderna ska sparas genom att gå till inställningarna för verktyget Djup beskärning. Klicka på Bläddra | välj katalog för att spara de beskurna bilderna | klicka på Välj | välj bildformat (jpg eller png) | aktivera alternativet Spara automatiskt.
  2. Beskär bilder för att få ett enda objekt per bild för bildklassificering och segmentering. För att utföra denna process, använd fyra verktyg och upprätta anslutningar mellan dem: gå till verktygsfältet Allmänt | Allmänt | Knappen Kör. Navigera sedan till verktygsfältet Allmänt | CiRA AI | DeepDetect; gå sedan till verktygsfältet Allmänt | CiRA AI | DeepCrop. Slutligen, gå till verktygsfältet Bild | Förvärv | ImageSlide.
  3. När alla nödvändiga inställningar är på plats startar du bildbeskärningsprocessen genom att klicka på verktyget Knappkörning .
  4. Hämta en ny datauppsättning för bildträning som består av bilder med ett objekt med en storlek på 608 x 608.

5. Bildklassificering som modellträning

  1. Använd dra och släpp för att välja träningsfunktionen för bildklassificeringsmodellen för dataträning. Gå till verktygsfältet Bild | DeepClassif | Dra ClassifTrain | Släpp ClassifTrain på skärmen.
  2. Importera bilder för modellträning med hjälp av ClassifTrain-verktygets inställningar. Klicka på knappen Öppna mapp och navigera till önskad bildkatalog. Innan du tränar, expandera data genom att klicka på knappen Förstärkning för mer information med hjälp av tekniker som Rotation, Kontrast, Vändning (horisontell och/eller vertikal), Brus och Oskärpa.
  3. Om du vill påbörja modellträningen klickar du på GenTrain-knappen i ClassifTrain-verktyget . Under funktionen GenTrain väljer du modeller, batchstorlek och underavdelningar. Tilldela en katalog för att spara den genererade filen. Klicka på knappen Generera för att fortsätta med data för träning. I funktionen Träna markerar du lämpliga alternativ: Fortsätt träna med standardvikt eller anpassad vikt.
    OBS: Genereringsprocessen kan ta tid beroende på faktorer som bildfilstorlek, förstoringsanvändning, klassbalansering och tillgängligt minnesutrymme.
  4. När alla förberedelser är klara startar du modellträningen genom att klicka på knappen Starta . Låt programmet köras kontinuerligt, utvärdera träningsförlusten och justera datauppsättningens vikt under träningsprocessen. Om modellen uppnår önskad förlustnivå sparar du den tränade viktfilen i den angivna katalogen genom att klicka på knappen Exportera .

6. Utvärdering av klassificeringsmodell

  1. Välj utvärderingsfunktionen för bildklassificeringsmodellen för modellutvärdering med hjälp av dra-och-släpp-metoden . Gå till Plugin verktygsfältet | Utvärdera | Dra EvaluateClassif | Släpp EvaluateClassif på skärmen (höger sida).
  2. Klicka på Inställning för att komma åt ytterligare funktioner i EvaluateClassif-verktyget , nämligen Evaluate och PlotROC.
  3. Om du vill initiera modellutvärderingen klickar du på knappen Utvärdera i verktyget EvaluateClassif . Följ dessa steg under funktionen Utvärdera .
    1. Importera testbilderna från bildfilkatalogen genom att klicka på Läs in mappbilden. Importera den tränade viktfilen från katalogen (sparat i steg 5.4) genom att klicka på Load Config. Klicka på Start-knappen för att utvärdera klassificeringsmodellen.
    2. När utvärderingen är klar sparar du den utvärderade filen som CSV i den angivna katalogen genom att klicka på knappen Exportera till CSV . För utvärdering av data vid varje tröskelvärde sparar du CSV-filen med klassnamn i den angivna katalogen genom att klicka på Starta alla tröskelvärden. Den sparade CSV-filen innehåller parametrar som Recall (True Positive Rate), False Positive Rate och Precision för varje klass.
  4. För att plotta ROC-kurvan (Receiver Operating Characteristics), klicka på PlotROC-knappen i EvaluateClassif-verktyget . Följ dessa steg under PlotROC-funktionen .
    1. Importera CSV-filer från katalogen som hämtades tidigare genom att klicka på Bläddra. Granska den importerade klasslistan och välj varje klassetikett för att rita ROC-kurvan.
    2. Klicka på knappen Rita för att visualisera ROC-kurvan som en bild. Gör önskade redigeringar för att justera bildegenskaperna, inklusive teckenstorlek, teckenfärger, avrundning av decimaler, linjestilar och linjefärger.
  5. Slutligen sparar du en bild av ROC-kurvan med AUC-värdena i önskat bildformat i den angivna katalogen genom att klicka på knappen Spara .

7. Testa processen med CiRA CORE-applikationen

  1. Objektidentifiering som modelltestning
    1. För att utföra modelltestning, använd fyra verktyg och upprätta kopplingar mellan dem. Gå till verktygsfältet Allmänt | Allmänt | Knappen Kör. Sedan, verktygsfältet Allmänt | Allmänt | Felsök. Därefter klickar du på Allmänt verktygsfält | CiRA AI | DeepDetect och slutligen verktygsfältet Bild | Förvärv | ImageSlide.
    2. Följ dessa steg innan du testar avbildningarna:
      1. Importera testbilderna från bildfilkatalogen genom att klicka på alternativet Att lägga plattor i bildverktyget .
      2. Importera den sparade tränade viktfilen från steg 2.2.8 genom att klicka på alternativet Inställning i DeepDetect-verktyget. Klicka på knappen Config, sedan på +-knappen, välj serverdelen (CUDA eller CPU), ange ett namn, klicka på OK, välj viktfilkatalogen och klicka på Välj. Under verktyget DeepDetect väljer du detekteringsparametrar (tröskelvärde och nms), ritningsparametrar, spårningsparametrar och ROI-parametrar.
      3. Visa testbildsresultaten genom att klicka på bildfunktionen i felsökningsverktyget .
    3. Kontrollera slutligen de förutsagda resultaten för varje bild genom att klicka på knappen Kör i verktyget Knappkörning .
  2. Bildklassificering som modelltestning
    1. För att utföra modelltestning, använd fyra verktyg och upprätta kopplingar mellan dem. Gå till verktygsfältet Allmänt | Allmänt | Knapp Kör; sedan, verktygsfältet Allmänt | Felsök. Efter det, navigera till Bild verktygsfält | Förvärv | ImageSlide, och slutligen, Bild verktygsfält | DeepClassif | DeepClassif.
    2. Följ dessa steg innan du testar avbildningarna:
      1. Importera testbilderna från bildfilkatalogen genom att klicka på alternativet Att lägga plattor i bildverktyget .
      2. Importera den sparade tränade viktfilen från avsnitt 5.5 genom att klicka på alternativet Inställning i DeepClassif-verktyget. Klicka på knappen Config | + knappen | välj serverdelen (CUDA eller CPU) | Ange ett namn | klicka på OK | Välj viktfilkatalogen | klicka på Välj. Under verktyget DeepClassif väljer du klassificeringsparametrar (tröskelvärde och antal förutsägelser i toppklass), guidemappningsparametrar (tröskelvärde, alfa, beta och färgkarta) och olika parametrar i färgkartan.
      3. Visa testbildsresultaten genom att klicka på bildfunktionen i felsökningsverktyget .
    3. Kontrollera slutligen de förutsagda resultaten för varje bild genom att klicka på knappen Kör i verktyget Knappkörning .

8. Hybrid (detektion och klassificering) som modelltestning

  1. För att utföra denna modelltestning använder du fyra verktyg och upprättar kopplingar mellan dem. Gå till verktygsfältet Allmänt | Allmänt | KnappSpringa. Sedan, verktygsfältet Allmänt | Allmänt | Felsök. Efter det, Bild verktygsfält | Förvärv | ImageSlide, och slutligen, Bild verktygsfält | DeepComposite | DjupD->C.
  2. Innan du testar bilderna, följ dessa steg: Importera testbilder från bildfilkatalogen genom att klicka på alternativet Att lägga plattor i bildverktyget . Importera de två sparade tränade viktfilerna från avsnitt 2.1.5 och avsnitt 4.4 genom att klicka på alternativet Inställning i DeepD->C-verktyget :
    1. För funktionen Detect klickar du på knappen Config |+ och väljer backend (CUDA eller CPU) | Ange ett namn | klicka på OK | välj vikt filkatalog | klicka på Välj. Under funktionen Detect väljer du detekteringsparametrar (Threshold och nms), ritningsparametrar, spårningsparametrar och ROI-parametrar.
    2. För Classif-funktionen, klicka på Config-knappen |+-knappen, välj backend (CUDA eller CPU) | Ange ett namn | klicka på OK | välj viktfilkatalogen | klicka på Välj. Under funktionen Classif väljer du klassificeringsparametrarna (Tröskelvärde och antal förutsägelser i toppklass) och Guidemappningsparametrar (tröskelvärde, alfa, beta och färgkarta).
  3. Visa testbildsresultaten genom att klicka på bildfunktionen i felsökningsverktyget . Kontrollera slutligen de förutsagda resultaten för varje bild genom att klicka på knappen Kör i verktyget Knappkörning .

9. Femfaldig korsvalidering

OBS: För att validera den föreslagna modellens prestanda mer effektivt används K-fold-korsvalidering.

  1. Dela upp datauppsättningen i fem avsnitt, vilket motsvarar de fem korsvalideringsstegen. Under varje iteration av modellträning och testning använder du ett avsnitt som valideringsuppsättning för testning och de återstående fyra avsnitten för träning. Upprepa den här processen fem gånger, där varje vikning används som valideringsuppsättning en gång.
  2. För vikningar 1 till 5:
    1. Upprepa avsnitt 5 för att träna modellen med hjälp av träningsdata från de fyra vikningarna.
    2. Upprepa avsnitt 7.2 för att testa modellen med den återstående vikningen som testuppsättning.

10. Utvärdering av modeller

  1. Matris för förvirring
    1. Baserat på testresultaten kommer de fyra villkoren att inträffa enligt följande:
      1. Sann positiv (TP): När indatabilden är sann och förutsägelsen också är sann.
      2. Falskt positivt (FP): När indatabilden är falsk, men förutsägelsen är sann.
      3. Falskt negativt (FN): När indatabilden är sann, men förutsägelsen är falsk.
      4. True Negative (TN): När indatabilden är falsk och förutsägelsen också är falsk.
    2. Med hjälp av dessa fyra villkor utvärderar du prestationerna med förvirringsmatrisen.
  2. Utvärdering av prestanda
    1. De vanligaste prestandamåtten för klassificering är noggrannhet, precision, träffsäkerhet, specificitet och F1-poängvärden. Beräkna alla utvärderingsmått i ekvationerna (1-6) som används för att utvärdera modellens prestanda från värden från förvirringsmatrisen.
      Equation 1Nej (1)
      Equation 2Nej (2)
      Equation 3Nej (3)
      Equation 4Nej (4)
      Equation 5Nej (5)
      Equation 6Nej (6)
  3. ROC-kurva
    ROC-kurvan är ett prestandamått för klassificeringsproblem med olika tröskelinställningar. Arean under ROC-kurvan (AUC) representerar graden eller måttet på separerbarhet, medan ROC är en sannolikhetskurva.
    1. ROC-kurvan är ett tvådimensionellt diagram med värden för sann positiv frekvens (TPR) och falsk positiv frekvens (FPR) ritade på Y- respektive X-axlarna. Konstruera ROC-kurvorna med hjälp av TPR- och TFR-värdena som erhålls från förvirringsmatrisen. TPR-värdet är detsamma som känsligheten; Beräkna FPR-värdet med hjälp av ekvationen (7).
      Equation 7(7)
    2. När du har hämtat TPR- och FPR-värdena ritar du ROC-kurvan med hjälp av Jupyter Notebook-webbverktyget med öppen källkod i en Python-miljö. AUC är ett effektivt sätt att bedöma den föreslagna modellens prestanda i ROC-kurvanalys.
  4. PR-kurva
    1. Använd PR-kurvan för att utvärdera modeller genom att mäta arean under PR-kurvan. Konstruera PR-kurvan genom att plotta modellernas precision och träffsäkerhet med hjälp av modellens konfidenströskelfunktioner. Eftersom PR-kurvan också är ett tvådimensionellt diagram ritar du Recall x-axeln och Precisiony-axeln.
    2. Rita PR-kurvan, till exempel ROC-kurvan, med hjälp av Jupyter Notebook-webbverktyget med öppen källkod i en Python-miljö. Området under AUC-poängen (Precision-Recall Curve) är också användbart vid klassificering av flera etiketter.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

I denna studie föreslogs hybrida djupinlärningsalgoritmer för att hjälpa till att automatiskt förutsäga positiviteten hos ett blodprov med en trypanosomparasitinfektion. Arkiverade, Giemsa-färgade blodfilmer sorterades för att lokalisera och klassificera de parasiterade kontra icke-parasitiska med hjälp av objektdetekteringsalgoritmen baserad på ett neuralt nätverk med darknet-stamnät. Inom alla rektangulära boxprediktionsresultat som erhölls av den tidigare modellen utvecklades den bäst valda klassificeringsmodellen för att klassificera alla tre arterna av medicinskt och veterinärt viktiga trypanosomer inklusive T. brucei, T. cruzi och T. evansi. Det slutliga resultatet av de använda hybridmodellerna avslöjade robustheten hos de föreslagna modellerna mot variationen av 100x mikroskopiska bilder som kan påverka prediktionsresultatet, inklusive parasitens morfologi i blodstadiet. Dessutom kan miljöfaktorer störa bildkvaliteten vid färgning av färgförändring genom att lagra tid, intensitet från mikroskopets ljuskällor och färdigheter i blodfilmberedning. Ändå kan den bäst valda modellen uppnå målet med hög prestanda.

Lokalisering och klassificering av etiketter med flera klasser
Eftersom detektionen av parasitiska protozoer från Giemsa som färgar blodfilm under oljenedsänkningsmikroskopi är omständlig och förlänger handläggningstiden, leder detta till benägen felbias. Vältränade AI-metoder kräver en stor pool av bilddata med omskalning på 416 x 416 pixlar och varierande egenskaper hos 3-RGB-färgkanaler för att öka den korrekta förutsägelsen av lokalisering och klassificering. Antalet parametrar under träning och optimering av modeller ställs in med en inlärningshastighet på 0,002, inbränning på 1 000 och intervall mellan 400 000 och 450 000. Låg träningsförlust men hög träningsnoggrannhet ansågs vara den optimala nivån eller mättnaden under momentum på 0,9, nyans på 0,1 och förfall på 0,0005. I testfasen med osedda data utfördes korrekt lokalisering och klassificering med hjälp av begreppen skärning över union (IOU) och procentuell sannolikhet. Testtolkningsresultatet utfördes vid ett tröskelvärde på 50 % och ett icke-maximalt undertryckande (NMS) på 0,4, vilket gav rätt svar med en % sannolikhet.

Som med alla parasitiserade blodfilmer som studerats har diskriminering av trypanosomen från icke-trypanosomen utförts med hjälp av en detektionsneural nätverksmodell som kan fungera för både lokalisering och klassificering (Figur 1)22. Prediktionsresultatet för den föreslagna detektionsuppgiften visade ett enastående resultat med en genomsnittlig genomsnittlig precision på 93,10 % (tabell 1). Även om den tränade detektionsmodellen kan användas för att identifiera icke-trypanosomklassen mer än den som används för att identifiera trypanosomparasiten, ger den oss större precision än 91 % för båda klassetiketterna. Dessutom visade kurvan för precision kontra återkallelse ett mycket genomsnittligt AUC-värde på 0,969, vilket gav AUC-värdena för parasiten och icke-parasiten till 0,976 respektive 0,961 (Figur 2). Detta ledde till att vi försäkrade oss om att den tränade modellen kunde vara pålitlig. Den rektangulära rutan med det första detekteringsresultatet beskars med hjälp av bildtagningsmodulen under det interna CiRA CORE-programmet. De beskurna bilderna som nämns ovan sorterades in i tre mappar som är specifika för trypanosomarten. Den här processen har förberetts för att mata in data för träningsklassificeringsmodellen som illustreras i nästa underavsnitt.

Klassificering modellvis klassificering
För att hitta en lämplig tränad modell för att klassificera de välkända arterna av parasiten förvarades T. brucei, T. cruzi och T. evansi i mappar som tilldelades sina relativa klassnamn. Under AI-träningen matades omskalade 256 x 256 pixlar av bilder in i tre RGB-kanaler, inlärningshastighet på 0,1, inbränning på 1000, momentum på 0,9, nyans på 0,1 och förfall på 0,0005. Träningsförlusten och träningsnoggrannheten användes för att hitta den optimala tränade modellen. Klassificeringsförutsägelsen analyserades med hjälp av begreppen pixelvis bestämning och % sannolikhet vid ett tröskelvärde på 50 %.

Jämförelsen av tre populära klassificeringsalgoritmer för neurala nätverk studerades för att hitta den bästa27,30. Dessa tre neurala nätverk har använts i stor utsträckning för att klassificera multiklassetiketter inom medicinska och veterinära områden 27,34,35. Slutsatsdragningsresultatet för den tränade modellen med en % sannolikhet som rangordnade 0 till 1 motiverades över tröskelvärdet på 50 %. Dessutom markerades olika mönsterigenkänningar av varje parasit och specifika för kärnan i den mellersta delen av T. evansi av uppmärksamhetskartan. Den största kinetoplastorganellen i den främre delen av T. cruzi jämfört med de andra två arterna lyftes också fram. Både nukleas och kinetoplast framhävdes av uppmärksamhetskartan som hittades för T. brucei (Figur 3).

Flera statistiska mått användes för att mäta de tre föreslagna modellerna, inklusive noggrannhet, felklassificeringsfrekvens, träffsäkerhet (sann positiv frekvens), specificitet (sann negativ frekvens), falsk positiv frekvens, falsk negativ frekvens, precision och F1-poäng. Som ett resultat visade nästan alla utvärderingsmått som använde det neurala nätverket Densenet201 överlägsna värden jämfört med de andra. I genomsnitt var de metriska värdena för noggrannhet, träffsäkerhet, specificitet, precision och F1-poäng anmärkningsvärt större och lika med 98 %. Modellens prestandabetydelse visade dock mindre än och lika med 1,5 % av felklassificeringen, falskt positiva och falskt negativa frekvenser (tabell 2). Med tanke på den klassvisa jämförelsen verkar Densenet201-modellen korrekt identifiera T. evansi utan fel medan den gör detta med osynliga testdata, vilket tyder på att den potentiella tränade modellen är till för att särskilja parasitarterna.

I figur 4A-C gav AUC under ROC-kurvan den högsta graden av genomsnittlig noggrannhet på 0,931 som erhölls från den bästa klassificeringsmodellen (figur 4C), vilket var representativt för att bekräfta den bäst valda modellen som studerades. AUC för T. evansi var 0,817, vilket är lägre än andra (0,980-1,00 för T. brucei och 0,955-0,977 för T. cruzi) och en kontrast till de statistiska måtten ovan. Det kan bero på att dessa två värden beräknas med olika formler. AUC erhölls från alla tröskelvärden men de statistiska måtten från endast ett tröskelvärde på 50 %, vilket tyder på att dessa två värden inte kan jämföras. Konsekventa AUC-värden med klassnamn erhållna från alla tre modellerna indikerar därför den allmänna noggrannheten hos T. brucei > T. cruzi > T. evansi.

Korsvalidering av k-fals
För att bedöma robustheten hos den bäst valda klassificeringsmodellen som studerats när det gäller att uppskatta det sanna prediktionsfelet och justera modellparametrarna enligt beskrivningen ovan36, användes den femfaldiga korsvalideringstekniken. En slumpmässig uppdelning av data i fem mappar gjordes. Tilldelade tränade data med fyra mappar och testade data för restmappen förbereddes före träning med den valda klassificeringsalgoritmen.

Som ett resultat av detta kommer de genomsnittliga statistiska mätvärdena; noggrannhet, träffsäkerhet (sann positiv frekvens), specificitet (sann negativ frekvens), precision och F1-poäng gav liknande värden för de studerade statistiska måtten som visade mer än 98 % (tabell 3). Med tanke på varje mått som studerades hittades en rangordning på 0,992-1,000 i noggrannhet. Höga specificitetsvärden från 0,994 till 1,000 tillhandahölls. Både återkallelse och F1-poäng från 0,988 till 1,000 visades, likaså studerades 0,989-1,000 med precision. Intressant nog hittades låga nivåer av felklassificering, falska negativa och falska positiva resultat på mindre än 1,2 %. Den här kvalitetsprestandan stödde den enastående tränade modellen med olika datavikningar och representerade robusthet.

Tillsammans med de föreslagna måtten visade den genomsnittliga AUC under den erhållna ROC-kurvan stängda värden som varierade från 0,937 till 0,944, vilket ger liknande värden för allmän noggrannhet bland de fem toppningarna av data (figur 5). Den klassvisa jämförelsen gav en varierad AUC på 0,831 för T. evansi, 0,982-1,000 för T. cruzi och 1,000 för T. brucei. Även om AUC-värdet för T. evansi var lägre än de andra, kan värdena utsättas för den höga graden av falskt positiva resultat (~33 %) som tillhör tröskelvärdena 1 % till 97 %, vilket resulterar i lägre AUC-värden jämfört med de andra två klasserna (figur 6).

Hybrid-djupinlärning en praktisk screening
I det här avsnittet visas bidraget från hybridmetoden för djupinlärning mellan objektdetektering och, å andra sidan, klassificeringstekniken i figur 7. Parasit- och icke-parasitegenskaperna urskiljdes och deras relativa klasser identifierades inom den rosa avgränsningsrutan med hjälp av den första detektionsmodellen. Därefter diagnostiserades de specifika arterna av parasiten i olika färger med hjälp av den vältränade klassificeringsmodellen. Den gröna etiketten var för T. evansi, den rosa etiketten för T. brucei och den orange etiketten för T. cruzi. Den andra klassificeringsetiketten skulle inte visas om den första detekteringsmodellen misslyckades, vilket tyder på de väl anslutna funktionerna mellan dessa två olika neurala nätverksstamnät i DC-modulen på den interna CIRA CORE-plattformen.

Figure 1
Bild 1: Arkitektur för en hybridmodell. Alla tre parasitarter av trypanosomer (inklusive Trypanosoma evansi, T. brucei och T. cruzi) användes som indata. Multiobjekt i en 100x mikroskopisk bild detekterades med hjälp av detektionsmodellen. Ett enda beskuret objekt från den tidigare modellen klassificerades sedan enligt dess relativa art med hjälp av den bästa klassificeringsmodellen. En uppmärksamhetskarta integrerad med den bästa klassificeringsmodellen markerade områden som är specifika för varje klassetikett. Klicka här för att se en större version av denna figur.

Figure 2
Bild 2: PR-kurva. Arean under PR-kurvan, eller AUC-värdet, i denna studie används för att mäta förmågan att skilja mellan icke-trypanosom- och trypanosomklasser. Alla prover kan detekteras på båda klassetiketterna. En AUC på 1 är en perfekt förutsägelse, medan en AUC på 0,5 är en slumpmässig förutsägelse. Kurvan används för att mäta prestandan hos den föreslagna detektionsmodellen. Denna modell kan detektera trypanosomklassen med en högre hastighet (AUC = 0,976) än icke-trypanosomklassen (AUC = 0,961). Det genomsnittliga AUC-värdet på 0,969 erhölls från det binära resultatet av två klassbeteckningar, icke-trypanosomen och trypanosomen. Förkortningar: PR = precision kontra träffsäkerhet; AUC = arean under kurvan. Klicka här för att se en större version av denna figur.

Figure 3
Figur 3: Prediktivt resultat av klassificeringsmodellen. Alla tre trypanosomarterna användes för att testa de bästa föreslagna tränade modellerna. Utdatabilder av artklassificeringsbaserade sannolikhets- och uppmärksamhetskartor visas. Specifikt belyste uppmärksamhetskartorna de signifikanta områden inom det osynliga objektet som vägledde urskiljningen av parasitarten. Klicka här för att se en större version av denna figur.

Figure 4
Figur 4: Modellvis jämförelsebaserade ROC-kurvor. AUC under ROC-kurvan är ett grafiskt diagram över ett klassificeringssystems prestanda baserat på dess varierande diskrimineringströskel. I likhet med AUC-PR-kurvan är AUC-ROC på 1 en perfekt förutsägelse, medan AUC på 0,5 är en slumpmässig förutsägelse, vilket indikeras av streckade linjer i varje diagram. Tre klassificeringsmodeller jämfördes, inklusive (A) denförsta klassificeringsmodellen med en genomsnittlig AUC på 0,925, (B) den 2:a klassificeringen med en genomsnittlig AUC på 0,924 och (C) den bästa klassificeringen med en genomsnittlig AUC på 0,931. Ju högre AUC, desto bättre prestanda. Förkortningar: ROC = mottagarens driftsegenskaper; AUC = arean under kurvan. Klicka här för att se en större version av denna figur.

Figure 5
Figur 5: Femfaldig korsvalidering. Alla experiment baserade på de bästa klassificeringsmodellerna för neurala nätverk jämfördes. Liknande AUC-värden för femfaldiga data inkluderade (A) 0,944, (B) 0,944, (C) 0,937, (D) 0,941 och (E) 0,938, vilket tyder på robustheten hos den föreslagna tränade modellen som används mot variationen av biologiska data. Klicka här för att se en större version av denna figur.

Figure 6
Bild 6: Sann positiv frekvens och falsk positiv frekvens per klassnamn. X-axeln är representativ för tröskelvärden från 1 % till 97 %. Y-axeln är representativ för graderna på de statistiska måtten. Klicka här för att se en större version av denna figur.

Figure 7
Figur 7: Slutliga resultat från hybridmodellerna. Det sista steget i hybridmodellens bidrag kan appliceras med indata som en rå mikroskopisk bild med 20 μm. Det förutsägande resultatet kan erhållas från både objektidentifierings- och klassificeringsmodellerna. Det första prediktiva resultatet visade om den osedda testbilden innehöll trypanosomparasiter med en rektangel (rosafärgade etiketter). Därefter kommer klassificeringsresultaten som är specifika för parasitarten att följas av den första upptäckten med flerfärgade etiketter; grön för T. evansi, rosa för T. brucei och orange för T. cruzi. Klicka här för att se en större version av denna figur.

Tabell 1: Genomsnittlig precision per klass och medelvärde för genomsnittlig precision (mAP) för detektionsmodellen. Klicka här för att ladda ner denna tabell.

Tabell 2: Jämförelse mellan olika klassificeringsmodeller. Åtta utvärderingsmått användes för att mäta modellens prestanda, inklusive noggrannhet, felklassificeringsfrekvens, träffsäkerhet (sann positiv frekvens), specificitet (sann negativ frekvens), falsk positiv frekvens, falsk negativ frekvens, precision och F1-poäng. Värdet i fetstil är representativt för det största värdet per klassetikett. Det kursiva värdet är representativt för medelvärdet för varje utvärderingsmått. Klicka här för att ladda ner denna tabell.

Tabell 3: Femfaldig korsvalidering. Det fetstilta värdet är representativt för det genomsnittliga värdet per utvärderingsmått. Klicka här för att ladda ner denna tabell.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Mikroskopisk observation av Trypanosoma protozoa-infektion är tidig och används ofta, särskilt under övervakning i avlägsna områden där det råder brist på kvalificerade tekniker och arbetsintensiva och tidskrävande processer som alla är hinder för att rapportera hälsoorganisationen i tid. Även om molekylärbiologiska tekniker som immunologi och polymeraskedjereaktion (PCR) har godkänts som högkänsliga metoder för att stödja effektiviteten av laboratorieresultat, behövs dyra kemikalier, apparater och proffs för att hantera dem, som oftast är belägna i ett centralt laboratorium på ett stort vårdcenter. Delad morfologi, blandad och omogen infektion och egenskaper hos tre Trypanosoma arter är benägna att snedvrida användaren och felidentifiering, vilket minskar läkemedelssvaret och kontrollåtgärden37. Att använda de modifierade algoritmerna och hybridalgoritmerna mellan två olika djupinlärningsmodeller inom det föreslagna AI-programmet kan övervinna många utmaningar, vilket gör en ny era av standardtaxonomi automatisk och uppnåelig. Tidigare publikationer har bekräftat hybridmodellernas potential när det gäller att identifiera malaria i blodstadiet27,38. Här är förklaringen av protokollet för träning, testning och utvärdering av de föreslagna AI-modellerna för att känna igen de mogna stadierna av tre välkända Trypanosoma-arter med en förenklad process för att analysera för praktisk identifiering och ytterligare kvantifiering av de parasitiska protozoerna under ett mikroskopiskt fält.

Den föreslagna modellen ser bortom maskininlärningsmodellen med hjälp av den slumpmässiga skogsalgoritmen, som har tillämpats för att identifiera infektionen av T. cruzi från blodprover. Maskininlärningsmodellen uppnådde en precision på 87,6 %, en känslighet på 90,5 % och en area under mottagarens driftskarakteristik på 0,94239. Under 2015 genomfördes två metoder som kallas AdaBoost-inlärning och SVM-inlärning för att skilja T. cruzi från malariainfektion i blodutstryk. Även om en hög grad av både sensitivitet och specificitet rapporterades, studerades en begränsad datamängd med 120 färgbilder med låg dimension 256 × 256 pixlar, vilket kanske inte är representativt för hela populationen40. I denna studie separerades tre välkända zoonotiska Trypanosoma-arter (t.ex. T. cruzi, T. brucei och T. evansi) med hjälp av den föreslagna hybridmodellen, som överträffade tidigare studier som beskrivits ovan. Detta representerar kostnadseffektiviteten för djupinlärningsmodellen. Icke desto mindre kan flera stora datamängder kräva validering av den föreslagna modellens prestanda för att bekräfta dess generalisering41. T. lewisi har potential att infektera människor opportunistiskt, och den är erkänd som en framväxande zoonotisk sjukdom som överförs av råttor, ofta kopplad till fattiga förhållanden. Fall har dokumenterats i vissa länder, till exempel Thailand och Kina20,42. Dessutom har morfologierna hos T. evansi och T. lewisi en slående likhet17. För att förbättra datamängden och den föreslagna modellen kan inkluderingen av fler förekomster av T. lewisi vara till nytta i utvecklingen av en djupinlärningsmodell i framtiden. För att bredda omfattningen av potentiella djupinlärningstekniker för diagnos av ytterligare trypanosomoses hos djur är det lämpligt att samla in data för andra arter som T. vivax, T. theileria och T. melophagium. En betydande utmaning att ta itu med är diagnosen av blandinfektioner som involverar olika Trypanosoma-arter, eftersom antikroppsdetektionsmetoder kan uppvisa minskad specificitet på grund av korsreaktioner43. Det är viktigt att förbättra och stärka diagnostiska tekniker för att främja tillämpningar av artificiell intelligens och skydda hälsan hos boskap, människor och miljö.

Innan det föreslagna AI-programmet tränas att känna igen 2D-bilden av parasitprotozoerna, de viktiga kriterier som behövs för att slutföra det, såsom en stor provstorlek, klassbalansering, dataförstärkning och kvalitetsmärkning av experter. Som kritiska steg kan felsignalen från träningsfasen redas ut av proffs för att reproducera grundsanningsetiketterna för både Darknet- och Densenet-algoritmerna. En stor fördel med det föreslagna AI-programmet är dess användarvänlighet för icke-kodande användare genom enkla dra-och-släpp-steg. En annan viktig funktion är kombinationsmodulen för detekteringsversionen och uppmärksamhetskartan som är integrerad med klassificeringsmodellerna, vilket hjälper till att underlätta testning av osedda data så snabbt som möjligt utan att behöva oroa sig för filformatet för råbilder. Detta beror på att ett bredare utbud av bildformat kan användas, inklusive .jpeg, .jpg, .png, .tif, .tiff, .pdf och .bmp. Tillämpning av AI-programmet med en c-mount-komponent i mikroskopet kan leda till realtidsdetektering i avlägsna områden.

Metodens begränsningar kan påverka de föreslagna protokollen i förträningsfasen. Innan du börjar träna en AI-modell bör vissa krav vara väl förberedda, särskilt datauppsättningskvalitet och expertetiketter. Inom datauppsättningen ledde en liten urvalsstorlek och klassobalans till att modellen nådde de globala minima och hade svårt att nå det optimala stadiet. Användningen av en stor urvalsstorlek och balansering av data hjälper till att optimera modellen med hög noggrannhet och låg förlust under träningen. Variationen av bilder, såsom utvecklingsstadiet genom protozoernas livscykelperiod och varierad färg genom Giemsa färgning27,44, miljö- och bildskalorna, vill normaliseras innan de matas in i träningen av båda djupinlärningsmodellerna. För att åtgärda de föreslagna problemen som nämns ovan kan olika förstärkningsfunktioner som rotationsvinklar, ljusstyrka och kontrast, vertikala och horisontella vändningar, Gaussiskt brus och Gaussisk oskärpa användas för att hantera förträningsfasen45.

Den viktiga tillämpningen av de hybrida AI-modeller som föreslås är att identifiera den parasitiska protozoen i realtid i mikroskopiska data som rådata från mikroskop, frysta bilder och videoklipp. Det gör att vi kan distribuera den tränade modellen med inbäddade gränsenheter46, molnbaserad mobilapplikation47, webbläsaranvändargränssnitt (BUI)48 och webbaserad modelldistribution49. Som ett resultat har AI-modellen potential att tillämpa hybrid djupinlärning på aktiv övervakning och ge ett snabbt resultat på grund av dess förmåga att stödja den lokala personalens beslut inom millisekunder, vilket tyder på automatisk screeningteknik för hjälpepidemiologi.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Ingen av författarna har någon finansiell information och inga intressekonflikter.

Acknowledgments

Detta arbete (Forskningsanslag för New Scholar, anslag nr. RGNS 65 - 212) fick ekonomiskt stöd av kansliet för den ständige sekreteraren, ministeriet för högre utbildning, vetenskap, forskning och innovation (OPS MHESI), Thailand Science Research and Innovation (TSRI) och King Mongkuts tekniska institut i Ladkrabang. Vi är tacksamma mot National Research Council of Thailand (NRCT) [NRCT5-RSA63001-10] för att ha finansierat forskningsprojektet. M.K. finansierades av Thailand Science Research and Innovation Fund Chulalongkorn University. Vi tackar också College of Advanced Manufacturing Innovation, King Mongkut's Institute of Technology, Ladkrabang som har tillhandahållit plattformen för djupinlärning och programvara för att stödja forskningsprojektet.

Materials

Name Company Catalog Number Comments
Darknet19, Darknet53 and Densenet201 Gao Huang, Z. L., Laurens van der Maaten. Densely Connected Convolutional Networks. arXiv:1608.06993 [cs.CV]. (2016) https://github.com/liuzhuang13/DenseNet  Deep convolutional neural network model that can function to  classification
Generic name: YOLO model/ detection model?
Olympus CX31 Model CX31RRBSFA  Olympus, Tokyo, Japan SN 4G42178  A light microscope 
Olympus DP21-SAL U-TV0.5XC-3  Olympus, Tokyo, Japan SN 3D03838 A digital camera
Generic name: Classification models/ densely CNNs
Window 10 Microsoft Window 10 Operation system in computers
YOLO v4-tiny  Naing, K. M. et al. Automatic recognition of parasitic products in stool examination using object detection approach. PeerJ Comput Sci. 8 e1065, (2022). https://git.cira-lab.com/users/sign_in Deep convolutional neural network model that can function to both localization and also classification 
https://git.cira-lab.com/users/sign_in

DOWNLOAD MATERIALS LIST

References

  1. Kasozi, K. I., et al. Epidemiology of trypanosomiasis in wildlife-implications for humans at the wildlife interface in Africa. Frontiers in Veterinary Science. 8, 621699 (2021).
  2. Ola-Fadunsin, S. D., Gimba, F. I., Abdullah, D. A., Abdullah, F. J. F., Sani, R. A. Molecular prevalence and epidemiology of Trypanosoma evansi among cattle in peninsular Malaysia. Acta Parasitologica. 65 (1), 165-173 (2020).
  3. Aregawi, W. G., Agga, G. E., Abdi, R. D., Buscher, P. Systematic review and meta-analysis on the global distribution, host range, and prevalence of Trypanosoma evansi. Parasites & Vectors. 12 (1), 67 (2019).
  4. Joshi, P. P., et al. Human trypanosomiasis caused by Trypanosoma evansi in India: the first case report. The Am Journal of Tropical Medicine and Hygiene. 73 (3), 491-495 (2005).
  5. Lidani, K. C. F., et al. Chagas disease: from discovery to a worldwide health problem. Frontiers in Public Health. 7, 166 (2019).
  6. Sazmand, A., Desquesnes, M., Otranto, D. Trypanosoma evansi. Trends in Parasitology. 38 (6), 489-490 (2022).
  7. Powar, R. M., et al. A rare case of human trypanosomiasis caused by Trypanosoma evansi.Indian. Journal of Medical Microbiology. 24 (1), 72-74 (2006).
  8. Shegokar, V. R., et al. Short report: Human trypanosomiasis caused by Trypanosoma evansi in a village in India: preliminary serologic survey of the local population. American Journal of Tropical Medicine and Hygiene. 75 (5), 869-870 (2006).
  9. Haridy, F. M., El-Metwally, M. T., Khalil, H. H., Morsy, T. A. Trypanosoma evansi in dromedary camel: with a case report of zoonosis in greater Cairo, Egypt. Journal of the Egyptian Society of Parasitology. 41 (1), 65-76 (2011).
  10. Dey, S. K. CATT/T.evansi antibody levels in patients suffering from pyrexia of unknown origin in a tertiary care hospital in Kolkata. Research Journal of Pharmaceutical, Biological and Chemical Sciences. 5, 334-338 (2014).
  11. Dakshinkar, N. P., et al. Aberrant trypanosomias in human. Royal Veterinary Journal of India. 3 (1), 6-7 (2007).
  12. Vn Vinh Chau, N., et al. A clinical and epidemiological investigation of the first reported human infection with the zoonotic parasite Trypanosoma evansi in Southeast Asia. Clinical Infectious Diseases. 62 (8), 1002-1008 (2016).
  13. Misra, K. K., Roy, S., Choudhary, A. Biology of Trypanosoma (Trypanozoon) evansi in experimental heterologous mammalian hosts. Journal of Parasitic Diseases. 40 (3), 1047-1061 (2016).
  14. Nakayima, J., et al. Molecular epidemiological studies on animal trypanosomiases in Ghana. Parasites & Vectors. 5, 217 (2012).
  15. Riana, E., et al. The occurrence of Trypanosoma in bats from Western Thailand. The 20th Chulalongkorn University Veterinary Conference CUVC 2021: Research in practice. 51, Bangkok, Thailand. (2021).
  16. Camoin, M., et al. The Indirect ELISA Trypanosoma evansi in equids: optimisation and application to a serological survey including racing horses, in Thailand. BioMed Research International. 2019, 2964639 (2019).
  17. Truc, P., et al. Atypical human infections by animal trypanosomes. PLoS Neglected Tropical Diseases. 7 (9), 2256 (2013).
  18. Desquesnes, M., et al. Diagnosis of animal trypanosomoses: proper use of current tools and future prospects. Parasites & Vectors. 15 (1), 235 (2022).
  19. Da Silva, A. S., et al. Trypanocidal activity of human plasma on Trypanosoma evansi in mice. Revista Brasileira de Parasitologia Veterinaria. 21 (1), 55-59 (2012).
  20. Desquesnes, M., et al. Trypanosoma evansi and surra: a review and perspectives on transmission, epidemiology and control, impact, and zoonotic aspects. BioMed Research International. 2013, 321237 (2013).
  21. World Health Organization. A new form of human trypanosomiasis in India. Description of the first human case in the world caused by Trypanosoma evansi. Weekly Epidemiological Record. 80 (7), 62-63 (2005).
  22. Naing, K. M., et al. Automatic recognition of parasitic products in stool examination using object detection approach. PeerJ Computer Science. 8, 1065 (2022).
  23. Wongsrichanalai, C., Barcus, M. J., Muth, S., Sutamihardja, A., Wernsdorfer, W. H. A review of malaria diagnostic tools: microscopy and rapid diagnostic test (RDT). American Journal of Tropical Medicine and Hygiene. 77, 119-127 (2007).
  24. Rostami, A., Karanis, P., Fallahi, S. Advances in serological, imaging techniques and molecular diagnosis of Toxoplasma gondii infection. Infection. 46 (3), 303-315 (2018).
  25. Ahmad, Z., Rahim, S., Zubair, M., Abdul-Ghafar, J. Artificial intelligence (AI) in medicine, current applications and future role with special emphasis on its potential and promise in pathology: present and future impact, obstacles including costs and acceptance among pathologists, practical and philosophical considerations. A comprehensive review. Diagnostic Pathology. 16 (1), 24 (2021).
  26. Sarker, I. H. Deep learning: a comprehensive overview on techniques, taxonomy, applications and research directions. SN Computer Science. 2 (6), 420 (2021).
  27. Kittichai, V., et al. Classification for avian malaria parasite Plasmodium gallinaceum blood stages by using deep convolutional neural networks. Scientific Reports. 11 (1), 16919 (2021).
  28. Baskota, S. U., Wiley, C., Pantanowitz, L. The next generation robotic microscopy for intraoperative teleneuropathology consultation. Journal of Pathology Informatics. 11, 13 (2020).
  29. Bochkovskiy, A., Wang, C. -Y., Liao, H. -Y. M. YOLOv4: optimal speed and accuracy of object detection. arXiv. , 10934 (2004).
  30. Huang, G., Liu, Z., vander Maaten, L., Weinberger, K. Q. Densely connected convolutional networks. arXiv. , 06993 (2018).
  31. CDC-DPDx. Diagnostic procedures - Blood specimens. , Available from: https://www.cdc.gov/dpdx/diagosticprocedures/blood/specimenproc.html#print (2020).
  32. World Health Organization. Control and surveillance of African trypanosomiasis: report of a WHO expert committee. WHO Technical Report Series 881. , Available from: https://iris.who.int/bitstream/handle/10665/42087/WHO_TRS_881.pdf?sequence=1 (1998).
  33. Leber, A. L. Detection of blood parasites. Clinical Microbiology Procedures Handbook. , ASM Press. Washington, DC. (2022).
  34. Huang, L. -P., Hong, M. -H., Luo, C. -H., Mahajan, S., Chen, L. -J. A vector mosquitoes classification system based on edge computing and deep learning. Proceedings-2018 Conmference on Technologies and Applications of Artifical Intelligence. , Taichung, Taiwan. 24-27 (2018).
  35. Cihan, P., Gökçe, E., Kalipsiz, O. A review of machine learning applications in veterinary field. Kafkas Universitesi Veteriner Fakultesi Dergisi. 23 (4), 673-680 (2017).
  36. Berrar, D. Cross-validation. Encyclopedia of Bioinformatics and Computational Biology. 1, 542-545 (2019).
  37. Gaithuma, A. K., et al. A single test approach for accurate and sensitive detection and taxonomic characterization of Trypanosomes by comprehensive analysis of internal transcribed spacer 1 amplicons. PLoS Neglected Tropical Diseases. 13 (2), 0006842 (2019).
  38. Vijayalakshmi, A., Rajesh Kanna, B. Deep learning approach to detect malaria from microscopic images. Multimedia Tools and Applications. 79 (21-22), 15297-15317 (2019).
  39. Morais, M. C. C., et al. Automatic detection of the parasite Trypanosoma cruzi in blood smears using a machine learning approach applied to mobile phone images. PeerJ. 10, 13470 (2022).
  40. Uc-Cetina, V., Brito-Loeza, C., Ruiz-Pina, H. Chagas parasite detection in blood images using AdaBoost. Computational and Mathematical Methods in Medicine. 2015, 139681 (2015).
  41. Zhang, C., et al. Deep learning for microscopic examination of protozoan parasites. Computational and Structural Biotechnology Journal. 20, 1036-1043 (2022).
  42. Sarataphan, N., et al. Diagnosis of a Trypanosoma lewisi-like (Herpetosoma) infection in a sick infant from Thailand. Journal of Medical Microbiology. 56, 1118-1121 (2007).
  43. Desquesnes, M., et al. A review on the diagnosis of animal trypanosomoses. Parasites & Vectors. 15 (1), 64 (2022).
  44. Fuhad, K. M. F., et al. Deep learning based automatic malaria parasite detection from blood smear and its smartphone based application. Diagnostics (Basel). 10 (5), 329 (2020).
  45. Christian Matek, S. S., Spiekermann, K., Marr, C. Human-level recognition of blast cells in acute myeloid leukaemia with convolutional neural networks. Nature Machine Intelligence. 1, 538-544 (2019).
  46. Hamdan, S., Ayyash, M., Almajali, S. Edge-computing architectures for internet of things applications: a survey. Sensors (Basel). 20 (22), 6441 (2020).
  47. Visser, T., et al. A comparative evaluation of mobile medical APPS (MMAS) for reading and interpreting malaria rapid diagnostic tests. Malaria Journal. 20 (1), 39 (2021).
  48. Giorgi, E., Macharia, P. M., Woodmansey, J., Snow, R. W., Rowlingson, B. Maplaria: a user friendly web-application for spatio-temporal malaria prevalence mapping. Malaria Journal. 20 (1), 471 (2021).
  49. Rajaraman, S., Jaeger, S., Antani, S. K. Performance evaluation of deep neural ensembles toward malaria parasite detection in thin-blood smear images. PeerJ. 7, 6977 (2019).

Tags

Överlägsen självidentifiering Trypanosomparasiter Hybrid Deep-Learning Model Trypanosomiasis Folkhälsoproblem Sydasien Sydostasien Hotspot-områden Aktiv övervakning Mikroskopisk undersökning Kvalificerad personal Program för artificiell intelligens (AI) Hybrid Deep Learning Technique Objektidentifiering Objektklassificering Neurala nätverksryggrader Lågkods AI-plattform (CiRA CORE) Protozoiska trypanosomarter Trypanosoma Cruzi T. Brucei T. Evansi Oljenedsänkning Mikroskopiska bilder mönsterigenkänning kärna och kinetoplast uppmärksamhetskarta statistiska mått noggrannhet återkallelse specificitet precision F1-poäng felklassificeringsfrekvens mottagarens driftsegenskaper (ROC) kurvor precision kontra återkallelse (PR) kurvor
Överlägsen automatisk identifiering av trypanosomparasiter med hjälp av en hybrid djupinlärningsmodell
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Kittichai, V., Kaewthamasorn, M.,More

Kittichai, V., Kaewthamasorn, M., Thanee, S., Sasisaowapak, T., Naing, K. M., Jomtarak, R., Tongloy, T., Chuwongin, S., Boonsang, S. Superior Auto-Identification of Trypanosome Parasites by Using a Hybrid Deep-Learning Model. J. Vis. Exp. (200), e65557, doi:10.3791/65557 (2023).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter