Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Bioengineering

하이브리드 딥러닝 모델을 사용한 트리파노솜 기생충의 우수한 자동 식별

Published: October 27, 2023 doi: 10.3791/65557

Summary

전 세계 의료용 혈액 기생충은 로우코드 AI 플랫폼에서 간단한 단계를 통해 자동으로 스크리닝되었습니다. 혈액막의 전향적 진단은 하이브리드 딥러닝 모델에서 객체 검출 및 분류 방법을 사용하여 개선되었습니다. 능동적 모니터링과 잘 훈련된 모델의 협업은 트리파노솜 전파의 핫스팟을 식별하는 데 도움이 됩니다.

Abstract

트리파노소마증은 남아시아와 동남아시아를 포함한 전 세계 여러 지역에서 심각한 공중 보건 문제입니다. 적극적인 감시 하에 있는 핫스팟 지역을 식별하는 것은 질병 전파를 통제하기 위한 기본 절차입니다. 현미경 검사는 일반적으로 사용되는 진단 방법입니다. 그럼에도 불구하고 주로 숙련되고 경험이 풍부한 인력에 의존합니다. 이 문제를 해결하기 위해 사내 로우코드 AI 플랫폼(CiRA CORE)에서 객체 식별 및 객체 분류 신경망 백본의 하이브리드 딥러닝 기술을 활용하는 인공지능(AI) 프로그램을 도입했습니다. 이 프로그램은 원생동물 트리파노솜 종, 즉 Trypanosoma cruzi, T. bruceiT. evansi를 오일 침지 현미경 이미지에서 식별하고 분류할 수 있습니다. AI 프로그램은 패턴 인식을 활용하여 단일 혈액 샘플 내에서 여러 원생동물을 관찰 및 분석하고 각 기생충의 핵과 키네토플라스트를 주의 지도를 사용하여 특정 특징으로 강조 표시합니다.

AI 프로그램의 성능을 평가하기 위해 정확도, 재현율, 특이성, 정밀도, F1 점수, 오분류율, ROC(수신기 작동 특성) 곡선 및 정밀도 대 재현율(PR) 곡선과 같은 다양한 통계 측정을 제공하는 두 개의 고유한 모듈이 생성됩니다. 평가 결과에 따르면 AI 알고리즘은 기생충을 식별하고 분류하는 데 효과적입니다. 이 기술은 빠르고 자동화된 정확한 스크리닝 도구를 제공함으로써 질병 감시 및 통제를 혁신할 수 있는 잠재력을 가지고 있습니다. 또한 지역 공무원이 질병 전파 차단 전략에 대해 정보에 입각한 결정을 내리는 데 도움이 될 수 있습니다.

Introduction

트리파노소마증은 남아시아 및 동남아시아와 같은 아프리카 및 아메리카 대륙 이외의 광범위한 지리적 분포를 가진 인간 질병을 유발하는 다양한 인수공통전염병으로 인해 글로벌 보건 문제에 대한 중요한 도전입니다 1,2,3. 인간 아프리카 트리파노소마증(HAT) 또는 수면병은 트리파노소마 브루세이 감비엔스(Trypanosoma brucei gambiense)와 T. b. 로데시엔스(T. b. rhodesiense)에 의해 발생하며, 각각 만성 및 급성 형태를 나타내며 아프리카에서 주요 확산을 나타냅니다. 원인 기생충은 체체파리의 감염된 타액에 의한 전염으로 인해 살리바리아 그룹에 속한다4. 반면, T. cruzi에 의해 유발된 잘 알려진 미국 트리파노소마증(샤가스병)은 비풍토병 국가의 공중 보건 문제였습니다. 캐나다, 미국, 유럽, 호주, 일본 등 풍토병 지역에서 개인이 자주 이주하기 때문에5. 트리파노솜 감염은 레두비이드(reduviid) 벌레의 감염된 배설물에 의해 전염되기 때문에 Stercoraria 그룹에 속합니다. T. evansi 감염에 의한 트리파노소마제 및 트리파노소마제(Surra disease)는 아프리카, 남미, 서아시아 및 동아시아, 남아시아 및 동남아시아 국가의 풍토병이다 3,6. 트리파노솜에 의한 인간 트리파노소마증이 보고되었지만, 3,4,7,8,9,10,11,12, 기생충 감염의 전파 경로는 논쟁의 여지가 있다: 체체파리, 타바니드 또는 말파리와 같은 혈충을 통한 기계적 또는 감염된 혈액 6,7, 8,9,10,12,13,14입니다. 태국에서는 아직 사례 보고가 발견되지 않았으나, 동부 지역의 개(15), 경주마, 물소에서 T. evansi 감염의 높은 유병률이 발표되었으며16 이는 가축 간의 후천적 전염이 발생했을 가능성을 시사한다. 동물 트리파노솜(T. vivax, T. b. brucei, T. congolense, T. lewisi, T. evansi)에 의한 몇 가지 비정형 인간 감염이 보고되었는데, 이는 인간 트리파노좀의 전형적인 형태가 아니다17. 비정형 인간 감염에 대한 인식이 과소평가될 수 있으며, 이러한 비정형 사례의 검출 및 확인을 위한 개선된 진단 검사 및 현장 조사의 필요성이 강조되고, 전 세계 가축, 식량 안보18 및 인간 건강 관리에 영향을 미치는 동물 병원성 질병의 적절한 통제 및 치료가 가능하다. 이로 인해 능동 감시 중에 외딴 지역의 혈액 샘플을 신속하게 스크리닝하기 위해 기존의 일반적인 방법(현미경 검사)과 통합된 잠재적 전략이 개발되어 질병을 제한하고 통제하기 위한 핫스팟 영역을 식별할 수 있게 되었습니다.

단봉동물, 소, 말, 개 등 다양한 가축에서 산발적으로 발병하여 황소균(T. evansi)을 유발하는 수라병은 인간에게 인수공통감염병일 수 있다 1,4,13,14. 인간 감염은 불가능해 보이는데, 이는 sra-like 유전자에서 발현되는 인간 혈청의 트리파놀리틱 인자가 인간 T. bruceiT. congolense를 예방할 수 있기 때문이다 12,19. 더욱이, 인도의 첫 번째 사례 보고에서 알 수 있듯이, 이 질병은 면역력이 저하된 HIV 환자와 관련이 없다4. 상술한 바와 같이, 인체 감염 가능성은 희귀 상염색체 열성 유전 질환인 트리파노솜 용해 인자의 비정상적인 기능을 동반한 고밀도 지단백 결핍, 즉 탕헤르병과 관련이 있을 수 있다4. 2016년 베트남 환자는 2개의 야생형 APOL1 대립유전자와 정상 범위 내의 혈청 APOL1 농도를 가지고 있는 것으로 밝혀졌습니다. 그러나 APOL-1 결핍 이론은 더 이상 유효한 것으로 간주되지 않는다12. 그러므로, 트리파노솜 감염의 가능한 메커니즘 중 하나는 직업적 동물 사육 중 감염된 동물의 혈액과 상처의 직접적인 접촉이다 4,12. 현미경 검사는 T. evansi 형태가 T. brucei 1,12,13의 상대 종과 유사한 우세한 길고 가늘고 편모가 있고 분열하는 트리파노솜을 포함하는 트리포마스티고트의 단형성 형태임을 보여줍니다. 핵은 중앙 위치에 있으며 뒤쪽 위치에 눈에 보이는 작은 키네토플라스트가 있습니다. 이전 연구에 따르면 기생충은 고전적 형태와 잘린 형태로 알려진 두 가지 유사한 형태로 존재할 수 있습니다. 그러나, 숙주(20)에 대한 각각의 병원성 효과를 확인할 필요가 있다. 증상의 경과는 오한과 발한과 관련된 간헐적 발열에 이르기까지 다양합니다. 다행히도 수라민은 중추신경계(CNS)를 침범하지 않는 초기 단계의 인간 아프리카 트리파노소마증에 대한 성공적인 1차 치료제로, 인도와 베트남에서 환자를 치료하고 있다 4,12,21.

임상적 징후 검사를 제외하고, 생충학적 현미경 관찰 4,9,12, 혈청학적 4,8,9,10,12 및 분자 생물학적 검사 4,12를 포함한 여러 가지 진단 방법이 존재한다. Giemsa로 염색된 얇은 혈액 필름은 현미경 검사에서 존재하는 기생충을 시각화하는 데 자주 사용되며, 이는 일상적이고 일반적으로 사용됩니다22. 그러나 절차는 가능한 것으로 보입니다. 그럼에도 불구하고 시간이 많이 걸리고 노동 집약적이며, 평가자 간 평가 변동성이 있고, 급성 단계에만 민감하며, 개인 교육생이 필요하다23. 분자생물학과 혈청학적 검사 모두 표준화하기 어려운 고가의 장비로 검체를 검사하기 전에 검체를 추출하고 정제하는 등 여러 시료 전처리 과정을 수행하기 위해 고도로 숙련된 인력이 필요했는데, 이는 표준화가 어렵고, 기생충 외 물질로 인한 오염 위험, 결과의 불일치24. 위에서 설명한 근거에 기초하여, 현장 감시 연구를 지원하고 질병 전파를 추가로 통제할 수 있는 핫스팟 영역을 식별하기 위해 조사 결과가 적시에 보고되도록 하기 위해 신속 및 조기 스크리닝 기술이 필요하다 1,8. 전산화 기반 장치(CAD)는 조직병리학 및 세포병리학적 작업을 포함한 의료 분야의 혁신 기술로 제안되어 왔다25. 위에서 언급한 CAD는 패턴 인식, 즉 인공 지능(AI)을 사용하여 고속으로 수행되고 계산되었습니다. AI 방법은 많은 수의 데이터 세트 샘플을 처리하는 데 사용할 수 있는 컨볼루션 신경망 알고리즘, 특히 데이터 소비 시 잘 훈련된 모델을 훈련하는 지도 학습 접근 방식을 사용하여 수행됩니다.

일반적으로 AI는 데이터 레이블링과 같이 전문적인 인텔리전스가 필요한 작업을 해결하는 컴퓨터의 능력입니다. AI의 하위 분야인 기계 학습(ML)은 특징 추출과 패턴 인식으로 구성된 두 가지 프로세스를 가진 컴퓨터 시스템으로 표현됩니다. 딥러닝(Deep Learning, DL) 또는 고급 ML 알고리즘은 인간과 유사한 성능을 인간 전문가가 달성한 것과 동일한 정확도 수준과 비교하는 컴퓨터화된 프로그램 및 장치의 개발을 말한다26. 현재 의학 및 수의학 분야에서 DL의 역할은 최근 예방을 목표로 전염병 예방을 유망하게 확대하고 혁신하고 있으며 개별 의료진에게 안내하고 있습니다22,27. 잠재적인 DL 애플리케이션은 품질 라벨과 많은 수의 증강 데이터 세트로 무궁무진하여 전문가가 프로젝트 작업을 관리할 수 있도록 합니다. 특히, 컴퓨터 보조 분석과 함께 디지털 이미지의 발전은 보고된 병리학의 5가지 범주에서 자동 진단 및 스크리닝을 개선했습니다. 정적, 동적, 로봇적, 전체 슬라이드 이미징 및 하이브리드 방법 포함28. DL 알고리즘 접근 방식과 디지털 이미지 데이터의 통합은 현지 직원이 일상 업무에서 기술을 활용하도록 장려할 수 있다는 점을 고려할 필요가 있습니다.

이전에는 하이브리드 모델을 사용하는 예측 정확도의 증가가 입증되었습니다27. 현미경 이미지에서 트리파노솜 기생충을 식별하기 위해 이 연구에서는 YOLOv4-tiny (객체 감지) 및 Densenet201 (객체 분류) 알고리즘을 통합한 두 가지 하이브리드 모델을 제시합니다. 여러 검출 모델 중에서, CSPDarknet53 백본을 갖는 YOLOv4-tiny 모델은 국소화 및 분류 측면에서 예측 결과로서 높은 성능을 보였다29. 실시간 검출기는 입력 네트워크 해상도, 컨벌루션 계층의 양, 전체 파라미터 및 계층 출력 개수 간의 최적 균형을 수정했기 때문에 이전 버전과 비교할 때 빠른 작동 속도의 우선 순위를 지정하고 병렬 계산을 최적화하는 것이 개선되었습니다. DenseNet(Dense Convolutional Network)은 경쟁 데이터 세트에서 최첨단 결과를 달성하는 또 다른 인기 있는 모델입니다. DenseNet201은 ResNet101과 유사한 유효성 검사 오류를 생성했습니다. 그러나 DenseNet201의 매개변수는 2천만 개 미만이며, 이는 ResNet101의 4천만 개 이상의 매개변수30보다 적습니다. 따라서 DenseNet 모델은 과적합의 징후 없이 증가하는 매개변수 수로 예측 정확도를 향상시킬 수 있습니다. 여기서 인공 지능(AI) 프로그램은 사내 CiRA CORE 플랫폼에서 심층 탐지 및 분류 신경망 백본과 함께 하이브리드 딥 러닝 알고리즘을 활용합니다. 개발된 프로그램은 원생동물 트리파노솜 종, 즉 Trypanosoma cruzi, T. bruceiT. evansi를 오일 침지 현미경 이미지에서 식별하고 분류할 수 있습니다. 이 기술은 빠르고 자동화된 정확한 스크리닝 방법을 제공하여 질병 감시 및 통제에 혁명을 일으킬 수 있는 잠재력을 가지고 있습니다. 현지 직원이 기생충 원생동물 질병에 대한 전염 차단 전략에 대해 정보에 입각한 결정을 내리는 데 도움이 될 수 있습니다.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

보관된 혈액 필름 및 프로젝트 설계는 기관 생물 안전 위원회, 수의학 학부의 기관 동물 관리 및 사용 위원회, 출라롱콘 대학교(IBC No. 2031033 및 IACUC No. 1931027) 및 King Mongkut's Institute of Technology Ladkrabang (EC-KMITL_66_014)의 인간 연구 윤리 위원회의 승인을 받았습니다.

1. RAW 이미지 준비

  1. 이미지 데이터 세트 준비
    1. 기생충학자 전문가들이 확인한 T. brucei, T. cruziT. evansi를 포함하여 혈액 기생충 감염이 있는 최소 13개의 양성 슬라이드를 얻습니다. 교육용(10개 슬라이드)과 테스트용(3개 슬라이드)을 위한 13개의 슬라이드를 분리합니다.
    2. 디지털 카메라가 장착된 광학 현미경의 오일 이멀젼 필드에서 위에서 설명한 Giemsa 염색 박막 혈액 필름의 이미지를 획득합니다. 현미경 검사에서 세 가지 기생충 종 모두의 trypomastigotes의 여러 물체를 포함하는 이미지를 얻습니다. 가느다란 모양, 긴 꼬리, 물결 모양의 막, 앞쪽 끝의 키네토플라스트(kinetoplast)를 찾으십시오.
      참고: 두꺼운 도말과 얇은 도말을 모두 생성하면 급성기 트리파노소마증의 검출이 향상될 것이다31. 손가락 찌르기에 의한 채혈은 WHO32에서 권장하고 있습니다. 그럼에도 불구하고, 박막은 트리파노소마 크루지(Trypanosoma cruzi ) 및 다른 종들을 식별하는데 더 효과적인데, 이는 이들 유기체들이 두꺼운 막에서 왜곡되는 경향이 있기 때문이다(33). 이에 비추어 우리는 이 연구를 위해 기생충의 적절한 형태를 유지하기 위해 얇은 혈액막 이미지를 활용했습니다.
    3. 모든 이미지는 1,600 x 1,200픽셀, 24비트 심도 및 JPG 파일 형식 사양의 기생충 관련 폴더에 저장합니다. 영상을 ~6:1 비율로 훈련 세트와 테스트 세트로 분할합니다.
      참고: https://gitlab.com/parasite3/superior-auto-identification-of-medically-important-trypanosome-parasites-by-using-a-hybrid-deep-learning-model/-/blob/main/JOVEimage.zip 참조; 650개의 이미지를 분할하여 모델을 학습(560개) 및 테스트(90개)했습니다.
    4. 관심 영역을 두 클래스, 즉 트리파노솜과 비트리파노솜에 대한 사각형 레이블로 정의합니다. 자동 자르기 모듈을 사용하여 잘 학습된 개체 감지 모델을 사용하여 감지된 모든 이미지를 자릅니다. 자동 자르기 모듈은 사내 CiRA CORE 프로그램에서 개발된 모듈입니다( 재료 표 참조). 개체 분류를 학습하기 위해 이미지당 단일 개체를 수집합니다.
      참고: 이 문서에서는 학습(892개 이미지) 및 테스트(126개 이미지)를 위해 1,017개의 이미지를 분할했습니다. 모델 학습은 leukocyte, T. brucei, T. cruziT. evansi를 포함한 4개의 표지된 클래스로 수행되었습니다.

2. 사내 CiRA CORE 플랫폼을 통한 교육 과정

  1. 새 프로젝트 시작
    1. 컴퓨터 바탕 화면에서 CiRA CORE 응용 프로그램을 열고( 자료 표 참조) 프로그램 아이콘을 두 번 클릭하여 새 프로젝트를 만듭니다.
    2. 왼쪽 수직 도구 모음에서 작업 아이콘을 선택하여 필요한 도구를 선택합니다.
  2. 개체 감지 모델 학습
    1. 끌어서 놓기 방법을 사용하여 데이터 레이블링 및 훈련을 위한 training-DL 모델 함수를 선택합니다. 일반 도구 모음 | 시라 AI | 드래그 딥트레인(Drag DeepTrain) | 화면(오른쪽)에 DeepTrain을 놓습니다.
      참고: 추가 옵션의 경우 선택한 도구를 마우스 오른쪽 버튼으로 클릭하고 적절한 기능( 복사, 잘라내기 또는 삭제)을 수행합니다.
    2. DeepTrain 도구의 설정을 사용하여 이미지를 가져옵니다. 이미지 로드 버튼을 클릭하고 이미지 디렉토리로 이동합니다. 마우스 왼쪽 버튼을 클릭한 상태에서 선택한 객체의 이름을 지정하여 객체에 레이블을 지정합니다. 디스플레이 설정 버튼을 클릭하여 사각형 선 두께글꼴 크기를 조정하고 동일한 디렉토리에 GT를 .gt 파일로 저장합니다.
      알림: 전원 부족, 자동 프로그램 종료 및 라벨링 프로세스 내에서 중단과 같은 원치 않는 조건을 피하기 위해 필요에 따라 저장하십시오.
    3. 모델 훈련에 앞서 네 가지 증대 기법( 회전, 대비, 노이즈 흐림)을 사용하여 충분한 정보를 수집하도록 데이터를 확장합니다. Gen Setting 버튼을 클릭하여 이 기능에 액세스합니다.
    4. DeepTrain 도구에서 Training(훈련) 버튼을 클릭하여 모델 훈련을 시작합니다. 학습 부분에는 학습 파일 생성학습이라는 두 가지 하위 기능이 있습니다. 학습 파일 생성 기능에서 원하는 모델, 배치 크기, 세분화를 선택합니다. Generate(생성) 버튼을 클릭하여 데이터를 생성하고 디렉토리에 저장합니다. 훈련 함수에서 i) 조건 및 백업을 위해 생성된 다른 훈련 위치를 사용하거나, ii) 지속적인 훈련을 위해 미리 빌드된 가중치를 사용하거나, iii) 현재 훈련 설계에 대한 파라미터를 재정의하는 옵션을 선택합니다. 이렇게 하면 모델 구성 및 학습 조건이 설계됩니다.
      참고: 생성 프로세스 시간은 이미지 파일 크기, 보강 사용량 및 사용 가능한 메모리 공간에 따라 다릅니다.
    5. 필요한 모든 구성이 완료되면 학습 단추를 클릭하여 모델 학습을 시작합니다. 프로그램이 지속적으로 실행되도록 하여 훈련 과정에서 훈련 손실을 평가하고 데이터 세트의 가중치를 조정합니다. 모델이 최적의 손실에 도달하면 Export 버튼을 클릭하여 훈련된 가중치 파일을 지정된 디렉터리에 저장합니다.

3. 객체 검출 모델 평가

  1. 드래그 앤 드롭 방식을 이용한 모델 평가를 위한 객체 검출 모델 평가 기능을 선택합니다. 플러그인 툴바 | 평가 | 드래그 EvalDetect | 화면(오른쪽)에 EvalDetect를 놓습니다.
  2. Setting( 설정 )을 클릭하고 Detection(감지), Evaluate(평가) Plot(플롯)의 세 가지 기능을 기다립니다. Load Config를 클릭하여 디렉터리(2.2.5단계)에서 훈련된 가중치 파일을 가져와서 모델 평가를 시작합니다.
  3. 탐지 기능에서 NMS(Non-Maximum Suppression) 값을 선택하여 중복 오탐(FP) 탐지를 제거하여 정확도를 높입니다. NMS는 안정성 향상을 위해 중복 모델 생성 탐지를 제거합니다.
  4. 평가 기능에서 다음 단계를 진행합니다.
    1. Browse(찾아보기)를 클릭하여 이미지 파일 디렉터리에서 테스트 이미지를 가져옵니다. GT 로드를 클릭하여 2.2.2단계에서 저장된 디렉토리에서 GT 파일을 가져옵니다.
    2. IoU(Intersection over Union) 값을 선택하여 특정 이미지 테스트 데이터 세트에 대한 정확도를 평가합니다.
    3. Evaluation( 평가 ) 버튼을 클릭하여 지정된 디렉터리에서 검색 모델을 평가합니다. 평가가 완료되면 결과가 클래스 이름별로 정렬된 동일한 디렉토리에 CSV 파일로 자동 저장됩니다. 이 CSV 파일은 각 클래스에 대해 TP(True Positive), FP(False Positive), FN(False Negative), Recall, Precision 과 같은 필수 매개변수를 제공합니다.
  5. 정밀도-재현율(PR) 곡선을 플롯하려면 플롯 함수에서 다음 단계를 수행합니다. 찾아보기를 클릭하여 이전 섹션(3.4단계) 디렉토리에서 CSV 파일을 가져옵니다. 목록에서 클래스를 선택하고 플롯 버튼을 클릭하여 편집 가능한 PR 곡선 이미지를 표시합니다.
  6. 마지막으로 PR 곡선의 AUC 값이 있는 이미지를 지정된 디렉토리에 필요한 이미지 형식으로 저장하려면 이미지의 저장 버튼을 클릭합니다.

4. 이미지당 단일 개체에 대한 이미지 자르기

  1. 이미지를 자르기 전에 다음 단계를 완료하십시오.
    1. 이미지 슬라이드 도구의 설정에 액세스하여 이미지 파일 디렉토리에서 이미지를 가져옵니다.
    2. 훈련된 가중치 가져오기 file (2.2.8단계에서 저장됨) Deep Detect 도구의 설정에 액세스하여. Config(구성 ) 버튼을 클릭합니다 . + 버튼을 누르고 백엔드 (CUDA 또는 CPU)를 선택하고 이름을 입력한 다음 OK를 클릭하고 가중치 파일 디렉토리를 선택한 다음 Choose를 클릭합니다. Deep Detect 도구 내에서 검출 매개변수(임계값 비최대값 억제 (nms))를 선택합니다. 드로잉 매개변수; 추적 매개변수; 및 관심 영역(ROI) 매개변수.
    3. Deep Crop 도구의 설정에 액세스하여 자른 이미지를 저장할 디렉토리를 선택합니다. 찾아보기 클릭 | 자른 이미지를 저장할 디렉토리 선택 | 선택 | 이미지 형식 선택(JPG 또는 PNG) | 자동 저장 옵션을 활성화합니다.
  2. 이미지를 분류하고 분할하기 위해 이미지당 하나의 객체를 얻기 위해 이미지를 자릅니다. 이 프로세스를 수행하려면 네 가지 도구를 활용하고 도구 간의 연결을 설정하십시오. 일반 도구 모음 | 일반 | 버튼 실행. 그런 다음 General( 일반) 도구 모음 | 시라 AI | 딥디텍트; 그런 다음 일반 도구 모음 | 시라 AI | 딥크롭(DeepCrop). 마지막으로 Image toolbar | 획득 | 이미지슬라이드.
  3. 필요한 모든 설정이 완료되면 버튼 실행 도구를 클릭하여 이미지 자르기 프로세스를 시작합니다.
  4. 크기가 608 x 608인 단일 객체 이미지로 구성된 새 이미지 훈련 데이터 세트를 가져옵니다.

5. 모델 학습으로서의 이미지 분류

  1. 드래그 앤 드롭을 사용하여 데이터 학습을 위한 이미지 분류 모델 학습 함수를 선택합니다. 이미지 툴바 | 딥클래시프 | 드래그 ClassifTrain | ClassifTrain을 화면에 놓습니다.
  2. ClassifTrain 도구의 설정을 사용하여 모델 학습을 위한 이미지를 가져옵니다. 폴더 열기 버튼을 클릭하고 원하는 이미지 디렉토리로 이동합니다. 훈련하기 전에 Augmentation 버튼을 클릭하여 Rotation, Contrast, Flipping(수평 및/또는 수직), NoiseBlur와 같은 기술을 사용하여 자세한 정보를 확장합니다.
  3. 모델 학습을 시작하려면 ClassifTrain 도구의 GenTrain 버튼을 클릭합니다. GenTrain 함수에서 모델, 배치 크기, 세분화를 선택합니다. 생성된 파일을 저장할 디렉토리를 지정합니다. Generate(생성) 버튼을 클릭하여 학습용 데이터를 진행합니다. Train 함수에서 적절한 옵션(기본 가중치 또는 사용자 지정 가중치로 훈련 계속)을 선택합니다.
    참고: 생성 프로세스는 이미지 파일 크기, 증강 사용, 클래스 밸런싱 및 사용 가능한 메모리 공간과 같은 요인에 따라 시간이 걸릴 수 있습니다.
  4. 모든 준비가 완료되면 시작 단추를 클릭하여 모델 학습을 시작합니다. 프로그램이 지속적으로 실행되도록 하여 훈련 과정에서 훈련 손실을 평가하고 데이터 세트의 가중치를 조정합니다. 모델이 원하는 수준의 손실에 도달하면 Export 버튼을 클릭하여 훈련된 가중치 파일을 지정된 디렉터리에 저장합니다.

6. 분류 모델 평가

  1. 드래그 앤 드롭 방식으로 모델 평가를 위한 이미지 분류 모델 평가 기능을 선택합니다. 플러그인 툴바 | 평가 | 드래그 EvaluateClassif | 화면(오른쪽)에 EvaluateClassif를 놓습니다.
  2. EvaluateClassif 도구 내의 추가 기능, 즉 Evaluate PlotROC에 액세스하려면 설정을 클릭하십시오.
  3. 모델 평가를 시작하려면 EvaluateClassif 도구에서 평가 버튼을 클릭합니다. 평가 기능에서 다음 단계를 수행합니다.
    1. Load folder image(로드 폴더 이미지)를 클릭하여 이미지 파일 디렉터리에서 테스트 이미지를 가져옵니다. Load Config를 클릭하여 디렉토리(5.4단계에서 저장)에서 훈련된 가중치 파일을 가져옵니다. 시작 버튼을 클릭하여 분류 모델을 평가합니다.
    2. 평가가 완료되면 CSV로 내보내기 버튼을 클릭하여 평가된 파일을 지정된 디렉터리에 CSV로 저장합니다. 모든 임계값에서 데이터를 평가하려면 모든 임계값 시작을 클릭하여 지정된 디렉터리에 클래스 이름과 함께 CSV 파일을 저장합니다. 저장된 CSV 파일에는 각 클래스에 대한 재현율 (True Positive Rate), False Positive Rate, Precision 과 같은 파라미터가 포함되어 있습니다.
  4. ROC(Receiver Operating Characteristics) 곡선을 플로팅하려면 EvaluateClassif 툴 내에서 PlotROC 버튼을 클릭하십시오. PlotROC 함수에서 다음 단계를 수행합니다.
    1. 찾아보기를 클릭하여 이전에 얻은 디렉토리에서 CSV 파일을 가져옵니다. 가져온 클래스 목록을 검사하고 각 클래스 레이블을 선택하여 ROC 곡선을 플로팅합니다.
    2. 플롯 버튼을 클릭하여 ROC 곡선을 이미지로 시각화합니다. 원하는 대로 편집하여 글꼴 크기, 글꼴 색상, 소수점 반올림, 선 스타일 및 선 색상을 포함한 이미지 속성을 조정합니다.
  5. 마지막으로 저장 버튼을 클릭하여 지정된 디렉토리에 필요한 이미지 형식으로 AUC 값이 있는 ROC 곡선 이미지를 저장합니다.

7. CiRA CORE 애플리케이션으로 프로세스 테스트

  1. 모델 테스트로서의 객체 감지
    1. 모델 테스트를 수행하려면 네 가지 도구를 활용하고 도구 간의 연결을 설정합니다. 일반 도구 모음 | 일반 | 버튼 실행. 그런 다음 일반 도구 모음 | 일반 | 디버그. 그런 다음 일반 도구 모음 | 시라 AI | DeepDetect, 마지막으로 이미지 도구 모음 | 획득 | 이미지슬라이드.
    2. 이미지를 테스트하기 전에 다음 단계를 수행합니다.
      1. 이미지 슬라이드 도구에서 설정 옵션을 클릭하여 이미지 파일 디렉토리에서 테스트 이미지를 가져옵니다.
      2. DeepDetect 도구에서 Setting 옵션을 클릭하여 2.2.8단계에서 저장된 훈련된 가중치 파일을 가져옵니다. Config 버튼을 클릭한 다음 + 버튼을 클릭하고 백엔드(CUDA 또는 CPU)를 선택하고 이름을 입력한 다음 OK를 클릭하고 가중치 파일 디렉토리를 선택한 다음 Choose를 클릭합니다. DeepDetect 툴에서 검출 파라미터(임계값 nms), 드로잉 파라미터, 추적 파라미터ROI 파라미터를 선택합니다.
      3. 디버그 도구에서 이미지 함수를 클릭하여 테스트 이미지 결과를 확인합니다.
    3. 마지막으로 버튼 실행 도구에서 실행 버튼을 클릭하여 각 이미지에 대한 예상 결과를 확인합니다.
  2. 모델 테스트로서의 이미지 분류
    1. 모델 테스트를 수행하려면 네 가지 도구를 활용하고 도구 간의 연결을 설정합니다. 일반 도구 모음 | 일반 | 버튼 실행; 그런 다음 일반 도구 모음 | 디버그. 그런 다음 Image toolbar | 획득 | ImageSlide, 마지막으로 이미지 도구 모음 | 딥클래시프 | DeepClassif입니다.
    2. 이미지를 테스트하기 전에 다음 단계를 수행합니다.
      1. 이미지 슬라이드 도구에서 설정 옵션을 클릭하여 이미지 파일 디렉토리에서 테스트 이미지를 가져옵니다.
      2. 섹션 5.5에서 저장된 훈련된 가중치 파일을 DeepClassif 도구에서 Setting 옵션을 클릭하여 가져옵니다. Config 버튼을 클릭합니다 | + 버튼 | 백엔드 선택(CUDA 또는 CPU) | 이름 제공 | 딸깍 하는 소리 OK | 가중치 파일 디렉토리 | 선택을 클릭합니다. DeepClassif 툴에서 분류 파라미터(임계값 최상위 예측 개수), 가이드 맵 파라미터(임계값, 알파, 베타, 컬러맵) 및 컬러맵의 다양한 파라미터를 선택합니다.
      3. 디버그 도구에서 이미지 함수를 클릭하여 테스트 이미지 결과를 확인합니다.
    3. 마지막으로 버튼 실행 도구에서 실행 버튼을 클릭하여 각 이미지에 대한 예상 결과를 확인합니다.

8. 모델 테스트로서의 하이브리드(탐지 및 분류)

  1. 이 모델 테스트를 수행하려면 네 가지 도구를 사용하고 도구 간의 연결을 설정합니다. 일반 도구 모음 | 일반 | 버튼런. 그런 다음 일반 도구 모음 | 일반 | 디버그. 그런 다음 이미지 도구 모음 | 획득 | ImageSlide, 마지막으로 이미지 도구 모음 | 딥컴포지트 | 딥D->C.
  2. 이미지를 테스트하기 전에 다음 단계를 수행합니다. 이미지 슬라이드 도구에서 설정 옵션을 클릭하여 이미지 파일 디렉토리에서 테스트 이미지를 가져옵니다. 섹션 2.1.5 및 섹션 4.4에서 저장된 두 개의 훈련된 가중치 파일을 DeepD->C 도구에서 설정 옵션을 클릭하여 가져옵니다.
    1. 감지 기능의 경우 구성 버튼 |+ 버튼을 클릭하고 백엔드(CUDA 또는 CPU) | 이름 제공 | OK(확인)를 클릭합니다. | 가중치 파일 디렉토리 선택 | 선택을 클릭합니다. Detect 함수에서 검출 파라미터(Threshold nms), 드로잉 파라미터, 추적 파라미터 및 ROI 파라미터를 선택합니다.
    2. Classif 기능의 경우 구성 버튼 |+ 버튼을 클릭하고 백엔드(CUDA 또는 CPU) | 이름 제공 | 확인(OK) | 가중치 파일 디렉토리 선택 | 선택(Choose)을 클릭합니다. Classif 함수에서 분류 파라미터(임계값 최상위 예측 개수)와 가이드 맵 파라미터(임계값, 알파, 베타, 컬러맵)를 선택합니다.
  3. 디버그 도구에서 이미지 함수를 클릭하여 테스트 이미지 결과를 확인합니다. 마지막으로 버튼 실행 도구에서 실행 버튼을 클릭하여 각 이미지에 대한 예상 결과를 확인합니다.

9. 5중 교차 검증

참고: 제안된 모델의 성능을 보다 효과적으로 검증하기 위해 K-폴드 교차 검증이 사용됩니다.

  1. 데이터 세트를 교차 검증의 5개 겹에 해당하는 5개의 섹션으로 나눕니다. 모델 훈련 및 테스트를 반복할 때마다 한 섹션을 테스트용 검증 세트로 사용하고 나머지 4개 섹션을 훈련용으로 사용합니다. 이 과정을 다섯 번 반복하되 각 접기가 한 번씩 검증 세트로 사용됩니다.
  2. 접기 1-5의 경우:
    1. 섹션 5를 반복하여 네 겹의 학습 데이터를 사용하여 모델을 학습합니다.
    2. 섹션 7.2를 반복하여 나머지 접기를 테스트 세트로 사용하여 모델을 테스트합니다.

10. 모델 평가

  1. 혼동행렬
    1. 테스트 결과에 따라 네 가지 조건이 다음과 같이 발생합니다.
      1. 참 긍정(TP): 입력 이미지가 참이고 예측도 참인 경우.
      2. 거짓 긍정(FP): 입력 이미지가 거짓이지만 예측이 참인 경우.
      3. 거짓 부정(FN): 입력 이미지가 참이지만 예측이 거짓인 경우.
      4. 참 부정(TN): 입력 이미지가 false이고 예측도 false인 경우입니다.
    2. 이 네 가지 조건을 사용하여 혼동행렬로 성능을 평가합니다.
  2. 성능 평가
    1. 가장 일반적으로 사용되는 분류 성능 메트릭은 정확도, 정밀도, 재현율, 특이성F1 점수 값입니다. 혼동 행렬의 값에서 모델 성능을 평가하는 데 사용되는 방정식 (1-6)의 모든 평가 메트릭을 계산합니다.
      Equation 1(1)
      Equation 2(2)
      Equation 3(3)
      Equation 4(4)
      Equation 5(5)
      Equation 6(6)
  3. ROC 곡선
    참고: ROC 곡선 은 임계값 설정이 다른 분류 문제에 대한 성능 측정값입니다. ROC 곡선 아래 면적(AUC)은 분리성의 정도 또는 측정값을 나타내고 ROC 는 확률 곡선입니다.
    1. ROC 곡선은 T축과 X축에 각각 TPR(진양성률)과 FPR(거짓양성률) 값이 표시된 2차원 그래프입니다. 혼동행렬에서 얻은 TPR 및 TFR 값을 사용하여 ROC 곡선을 생성합니다. TPR 값은 감도와 동일합니다. 수학식 7을 사용하여 FPR 값을 계산합니다.
      Equation 7(7)
    2. TPR 및 FPR 값을 얻은 후 Python 환경에서 Jupyter Notebook 오픈 소스 웹 도구를 사용하여 ROC 곡선을 플로팅합니다. AUC는 ROC 곡선 분석에서 제안된 모델의 성능을 평가하는 효과적인 방법입니다.
  4. PR 곡선
    1. PR 곡선을 사용하여 PR 곡선 아래 면적을 측정하여 모델을 평가합니다. 모델의 정밀도를 플로팅하여 PR 곡선을 구성하고 모델의 신뢰 임계값 함수를 사용하여 재현율을 생성합니다. PR 곡선도 2차원 그래프이므로 x축재현율을 플로팅하고 y축정밀도를 플로팅합니다.
    2. Python 환경에서 오픈 소스 Jupyter Notebook 웹 도구를 사용하여 ROC 곡선과 같은 PR 곡선을 그립니다. AUC(Precision-Recall curve) 점수 아래 영역도 다중 레이블 분류에 유용합니다.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

이 연구에서는 트리파노솜 기생충 감염이 있는 혈액 샘플의 양성을 자동으로 예측하는 데 도움이 되는 하이브리드 딥 러닝 알고리즘이 제안되었습니다. 보관된 Giemsa로 염색된 혈액 필름은 다크넷 백본 신경망을 기반으로 하는 물체 감지 알고리즘을 사용하여 기생하는 것과 기생하지 않는 것을 현지화하고 분류하기 위해 분류되었습니다. 이전 모델에서 얻은 직사각형 상자 예측 결과 내에서 T. brucei, T. cruziT. evansi를 포함하여 의학적, 수의학적으로 중요한 트리파노솜의 세 종을 모두 분류하기 위해 가장 잘 선택된 분류 모델이 개발되었습니다. 사용된 하이브리드 모델의 최종 결과물은 기생충의 혈액 단계 형태를 포함하여 예측 결과에 영향을 미칠 수 있는 100x 현미경 이미지의 변화에 대해 제안된 모델의 견고성을 보여주었습니다. 또한 환경적 요인은 저장 시간, 현미경 광원의 강도 및 혈액막 준비 기술에 의해 염색 색상 변화의 이미지 품질을 방해할 수 있습니다. 그럼에도 불구하고 가장 잘 선택된 모델은 고성능으로 목표를 달성할 수 있습니다.

다중 클래스 레이블의 지역화 및 분류Localization and classification of multi-class labels
오일 이멀젼 현미경으로 염색된 Giemsa 염색 혈액막에서 기생 원생동물을 검출하는 것은 지루하고 처리 시간이 길어지기 때문에 오류 편향이 발생하기 쉽습니다. 잘 훈련된 AI 접근 방식에는 위치 파악 및 분류의 정확한 예측을 높이기 위해 416 x 416 픽셀의 크기를 조정하고 3RGB 색상 채널의 다양한 기능 특성을 사용하는 대규모 이미지 데이터 풀이 필요합니다. 모델을 학습하고 최적화하는 동안 매개 변수 수는 0.002의 학습률, 1,000의 번인, 400,000에서 450,000 사이의 범위 단계로 설정됩니다. 훈련 손실은 낮지만 훈련 정확도는 높고, 운동량 0.9, 색조 0.1, 감쇠 0.0005에서 최적의 수준 또는 포화도로 간주되었습니다. 보이지 않는 데이터를 사용한 테스트 단계에서는 IOU(Intersection over Union) 및 확률 백분율의 개념을 사용하여 올바른 위치 파악 및 분류를 수행했습니다. 테스트 해석 결과는 임계값 50%와 NMS(Non-Maximum Suppression) 0.4에서 수행되었으며, 이는 % 확률로 정답을 제공했습니다.

연구된 모든 기생 혈액막과 마찬가지로, 트리파노솜과 비트리파노솜의 구별은 국소화 및 분류 모두에 기능할 수 있는 검출 신경망 모델을 사용하여 수행되었습니다 (그림 1)22. 제안된 검출 작업의 예측 결과는 평균 정밀도 93.10%의 뛰어난 결과를 나타냈다 (표 1). 훈련된 검출 모델은 트리파노솜 기생충을 식별하는 데 사용되는 것보다 더 많은 비트리파노솜 클래스를 식별하는 데 사용할 수 있지만 두 클래스 레이블 모두에 대해 91%보다 더 높은 정밀도를 제공합니다. 또한 정밀도 대 재현율 곡선은 0.969의 높은 평균 AUC 값을 보여 기생충과 비기생충의 AUC 값은 각각 0.976 및 0.961을 보였습니다 (그림 2). 이로 인해 훈련된 모델이 신뢰할 수 있다는 확신을 갖게 되었습니다. 첫 번째 검출 결과의 직사각형 상자는 사내 CiRA CORE 프로그램의 이미지 캡처 모듈을 사용하여 잘라냈습니다. 위에서 언급한 잘린 이미지는 트리파노솜 종에 특정한 세 개의 폴더로 분류되었습니다. 이 프로세스는 다음 하위 섹션에 설명된 학습 분류 모델에 대한 데이터를 입력하기 위해 준비되었습니다.

분류 모델별 분류
잘 알려진 기생충 종을 분류하기 위해 적절하게 훈련된 모델을 찾기 위해 T. brucei, T. cruziT. evansi 는 상대 클래스 이름이 할당된 폴더에 보관되었습니다. AI 훈련 중에 재조정된 256 x 256 픽셀의 이미지가 학습률 0.1, 번인 1000, 모멘텀 0.9, 색조 0.1, 감쇠 0.0005의 3개의 RGB 채널에 공급되었습니다. 학습 손실 및 학습 정확도는 최적의 학습 모델을 찾는 데 사용되었습니다. 분류 예측은 임계값 50%에서 픽셀별 결정 및 % 확률의 개념을 사용하여 분석되었습니다.

세 가지 인기 있는 분류 신경망 알고리즘의 비교를 연구하여 가장 좋은 알고리즘을 찾았습니다27,30. 이 세 가지 신경망은 의학 및 수의학 분야에서 다중 클래스 레이블을 분류하는 데 널리 사용되어 왔습니다 27,34,35. 0에서 1 사이의 확률 %를 사용하여 학습된 모델의 추론 결과가 임계값 50%를 초과하여 정당화되었습니다. 또한, 각 기생충의 상이한 패턴 인식이 강조되었고, 주의 지도에 의해 T. evansi의 중간 부분의 핵에 특이적이었다. T. cruzi의 앞쪽 부분의 가장 큰 키네토플라스트 세포소기관도 다른 두 종과 비교할 때 강조되었습니다. 뉴클레아제와 키네토플라스트는 모두 T. brucei에서 발견된 주의 지도에 의해 강조되었습니다(그림 3).

제안된 세 가지 모델을 측정하기 위해 정확도, 오분류율, 재현율(참양성률), 특이성(참음성률), 위양성률, 위음성률, 정밀도 및 F1 점수를 포함한 여러 통계 지표가 사용되었습니다. 그 결과, Densenet201 신경망을 사용한 거의 모든 평가 지표가 다른 지표보다 우수한 값을 보였습니다. 평균적으로 정확도, 재현율, 특이성, 정밀도 및 F1 점수의 메트릭 값은 현저하게 더 크고 98%와 같았습니다. 그러나 모델 성능 중요도는 오분류, 위양성 및 위음성률의 1.5% 이하를 나타냈습니다(표 2). 클래스별 비교를 고려할 때, Densenet201 모델은 보이지 않는 테스트 데이터로 이 작업을 수행하는 동안 오류 없이 T. evansi 를 올바르게 식별하는 것으로 보이며, 이는 잠재적인 훈련된 모델이 기생충 종을 구별하기 위한 것임을 시사합니다.

그림 4A-C에서 ROC 곡선 아래의 AUC는 최적 분류 모델(그림 4C)에서 얻은 0.931로 가장 높은 평균 정확도를 제공했으며, 이는 연구된 가장 잘 선택된 모델을 확인하는 것을 나타냅니다. T. evansi의 AUC는 0.817로 다른 사람들보다 낮았으며(T. brucei의 경우 0.980-1.00, T. cruzi의 경우 0.955-0.977) 위의 통계 지표와 대조를 이룹니다. 이 두 값이 서로 다른 공식으로 계산되기 때문일 수 있습니다. AUC는 모든 임계값에서 얻었지만 통계 메트릭은 임계값이 50%에 불과하므로 이 두 값을 비교할 수 없음을 시사합니다. 따라서 세 모델 모두에서 얻은 클래스 이름별로 일관된 AUC 값은 각각 T. brucei > T. cruzi > T. evansi의 일반적인 정확도를 나타냅니다.

K-폴드 교차 검증
실제 예측 오차를 추정하고 위에서 설명한 대로 모델 매개변수를 조정하는 측면에서 연구된 가장 잘 선택된 분류 모델의 견고성을 평가하기 위해36, 5중 교차 검증 기법이 사용되었습니다. 데이터를 5개의 폴더로 무작위로 분할했습니다. 4개의 폴더별로 학습된 데이터를 할당하고 나머지 폴더에 대한 테스트 데이터를 선택한 분류 알고리즘으로 학습하기 전에 준비했습니다.

결과적으로, 평균 통계 메트릭; 정확도, 재현율(참양성률), 특이성(진음성률), 정밀도 및 F1 점수는 98% 이상을 나타내는 연구된 통계 지표의 유사한 값을 제공했습니다(표 3). 연구된 각 메트릭을 고려하면 정확도가 0.992-1.000인 것으로 나타났습니다. 0.994 내지 1.000 범위의 높은 특이도 값을 제공하였다. 0.988에서 1.000 사이의 재현율 및 F1 점수가 모두 나타났으며, 마찬가지로 0.989-1.000이 정밀하게 연구되었습니다. 흥미롭게도 오분류, 위음성, 위양성의 낮은 비율은 1.2% 미만으로 나타났습니다. 이 품질 성능은 다양한 데이터 폴드를 통해 뛰어난 학습된 모델을 지원하고 견고성을 나타냅니다.

제안된 메트릭과 함께 얻은 ROC 곡선 하의 평균 AUC는 0.937에서 0.944 사이의 종가 값을 나타내며 데이터의 5개 접기 간에 일반적인 정확도의 유사한 값을 제공했습니다(그림 5). 클래스별 비교에서는 T. evansi의 경우 0.831, T. cruzi 의 경우 0.982-1.000, T. brucei의 경우 1.000의 다양한 AUC를 제공했습니다. T. evansi의 AUC 값은 다른 값보다 낮았지만 값은 임계값 1%에서 97%에 속하는 높은 수준의 위양성률(~33%)에 노출될 수 있으며, 이는 다른 두 클래스의 AUC 값과 비교할 때 더 작은 AUC 값을 초래합니다(그림 6).

하이브리드 딥러닝 실용 스크리닝
이 섹션에서는 객체 감지와 분류 기법 간의 하이브리드 딥러닝 접근 방식의 기여도를 그림 7에 보여줍니다. 기생충과 비기생충 특징을 구별하고 첫 번째 검출 모델을 사용하여 분홍색 경계 상자 내에서 상대적 등급을 식별했습니다. 다음으로, 기생충의 특정 종은 잘 훈련된 분류 모델을 사용하여 다양한 색상으로 진단되었습니다. 녹색 라벨은 T. evansi, 분홍색 라벨은 T. brucei, 주황색 라벨은 T. cruzi였습니다. 첫 번째 탐지 모델이 실패하면 두 번째 분류 레이블이 표시되지 않으며, 이는 사내 CIRA CORE 플랫폼의 D-C 모듈에서 이 두 개의 서로 다른 신경망 백본 간에 잘 연결된 기능을 나타냅니다.

Figure 1
그림 1: 하이브리드 모델의 아키텍처. 트리파노솜의 세 가지 기생충 종( Trypanosoma evansi, T. bruceiT. cruzi 포함)을 모두 입력으로 사용했습니다. 100x 현미경 이미지 내의 다중 물체는 감지 모델을 사용하여 감지되었습니다. 그런 다음 이전 모델에서 잘린 단일 개체를 최적 분류 모델을 사용하여 상대 종에 따라 분류했습니다. 최상의 분류 모델과 통합된 주의 맵은 각 클래스 레이블과 관련된 영역을 강조 표시했습니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

Figure 2
그림 2: PR 곡선. 이 연구에서 PR 곡선 아래 면적 또는 AUC 값은 비트리파노솜 클래스와 트리파노솜 클래스를 구별하는 능력을 측정하는 데 사용됩니다. 모든 샘플은 두 클래스 레이블 모두에서 검출할 수 있습니다. AUC 1은 완벽한 예측이고 AUC 0.5는 무작위 예측입니다. 곡선은 제안된 감지 모델의 성능을 측정하는 데 사용됩니다. 이 모델은 트리파노솜이 아닌 클래스(AUC = 0.961)보다 더 높은 비율(AUC = 0.976)로 트리파노솜 클래스를 검출할 수 있습니다. 0.969의 평균 AUC 값은 비트리파노솜과 트리파노솜이라는 두 클래스 레이블의 이진 결과에서 얻어졌습니다. 약어: PR = 정밀도 대 재현율; AUC = 곡선 아래 면적. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

Figure 3
그림 3: 분류 모델의 예측 결과. 세 가지 트리파노솜 종 모두 가장 잘 제안된 훈련된 모델을 테스트하는 데 사용되었습니다. 종 분류 기반 확률 및 주의 맵의 출력 이미지가 표시됩니다. 특히, 주의 지도는 보이지 않는 물체 내에서 기생충 종의 구별을 안내하는 중요한 영역을 강조했습니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

Figure 4
그림 4: 모델별 비교 기반 ROC 곡선. ROC 곡선 아래의 AUC는 다양한 판별 임계값을 기반으로 한 분류 시스템의 성능을 그래픽으로 나타낸 것입니다. AUC-PR 곡선과 마찬가지로 AUC-ROC 1은 완벽한 예측이고 AUC 0.5는 각 그래프에서 점선으로 표시되는 무작위 예측입니다. (A) 평균 AUC가 0.925인 1 분류 모델, (B) 평균 AUC가 0.924인 2 분류, (C) 평균 AUC가 0.931인 최고 분류 등 3개의 분류 모델을 비교했습니다. 따라서 AUC가 높을수록 성능이 향상됩니다. 약어: ROC = 수신기 작동 특성; AUC = 곡선 아래 면적. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

Figure 5
그림 5: 5중 교차 검증. 최적 분류 신경망 모델을 기반으로 한 모든 실험을 비교했습니다. 5겹 데이터의 유사한 AUC 값에는 (A) 0.944, (B) 0.944, (C) 0.937, (D) 0.941 및 (E) 0.938이 포함되었으며, 이는 생물학적 데이터의 변동에 대해 사용된 제안된 훈련된 모델의 견고성을 시사합니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

Figure 6
그림 6: 클래스 이름별 참양성률(true positive rate) 및 거짓양성률(false positive rate). X축은 1%에서 97%까지의 임계값을 나타냅니다. Y축은 통계 메트릭의 정도를 나타냅니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

Figure 7
그림 7: 하이브리드 모델의 최종 출력. 하이브리드 모델 기여의 마지막 단계는 입력 데이터와 함께 20μm의 원시 현미경 이미지로 적용할 수 있습니다. 예측 결과는 객체 감지와 분류 모델 모두에서 얻을 수 있습니다. 첫 번째 예측 결과는 보이지 않는 테스트 이미지에 직사각형(분홍색 레이블)이 있는 트리파노솜 기생충이 포함되어 있는지 여부를 제공했습니다. 그런 다음 기생충 종에 특정한 분류 결과에 이어 여러 색상 라벨을 사용한 첫 번째 감지가 뒤따릅니다. T. evansi는 녹색, T. brucei 는 분홍색, T. cruzi는 주황색입니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

표 1: 검출 모델의 클래스 및 평균 평균 정밀도(mAP)별 평균 정밀도. 이 표를 다운로드하려면 여기를 클릭하십시오.

표 2: 분류 모델별 비교. 정확도, 오분류율, 재현율(참양성률), 특이성(참음성률), 위양성률, 위음성률, 정밀도 및 F1 점수를 포함한 8개의 평가 지표가 모델의 성능을 측정하는 데 사용되었습니다. 굵은 글씨체의 값은 클래스 레이블당 가장 큰 값을 나타냅니다. 기울임꼴 값은 각 평가 지표의 평균값을 나타냅니다. 이 표를 다운로드하려면 여기를 클릭하십시오.

표 3: 5중 교차 검증. 굵은 글씨체의 값은 평가 지표당 평균값을 나타냅니다. 이 표를 다운로드하려면 여기를 클릭하십시오.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

트리파노소마 원생동물 감염에 대한 현미경 관찰은 특히 숙련된 기술자가 부족하고 노동 집약적이고 시간이 많이 소요되는 외딴 지역의 감시 중에 조기에 일반적으로 사용되며, 이는 모두 보건 기관에 적시에 보고하는 데 장애가 됩니다. 면역학 및 중합효소연쇄반응(PCR)과 같은 분자생물학 기법이 실험실 결과의 효과를 뒷받침하는 고감도 방법으로 승인되었지만, 이를 처리하기 위해서는 고가의 화학 물질, 장치 및 전문가가 필요하며, 이는 대부분 대형 의료 센터의 중앙 실험실에 있습니다. 트리파노소마(Trypanosoma) 3종의 공유 형태, 혼합성 및 미성숙 감염, 특성은 사용자 편향과 오인(misidentification)이 발생하기 쉽고, 약물 반응 및 통제 조치(drug response and control measure)를 감소시킨다37. 제안된 AI 프로그램 내에서 서로 다른 두 딥 러닝 모델 간에 수정된 하이브리드 알고리즘을 사용하면 많은 문제를 극복하여 표준 분류의 새로운 시대를 자동으로 달성할 수 있습니다. 이전 간행물들은 말라리아 혈액 병기를 식별하는 데 있어서 하이브리드 모델의 가능성을 확인하였다27,38. 다음은 현미경 필드에서 기생 원생동물의 실제 식별 및 추가 정량화를 위해 분석하는 단순화된 프로세스로 잘 알려진 트리파노소마 종 3종의 성숙 단계를 인식하기 위해 제안된 AI 모델을 훈련, 테스트 및 평가하기 위한 프로토콜에 대한 설명입니다.

제안된 모델은 혈액 도말 샘플에서 T. cruzi의 감염을 식별하기 위해 적용된 랜덤 포레스트 알고리즘을 사용하는 기계 학습 모델을 넘어섭니다. 기계 학습 모델은 87.6%의 정밀도, 90.5%의 민감도, 0.94239의 수신기 작동 특성 곡선 아래 면적을 달성했습니다. 2015년에는 혈액 도말에서 T. cruzi와 말라리아 감염을 구별하기 위해 AdaBoost 학습 및 SVM 학습이라는 두 가지 방법이 수행되었습니다. 높은 수준의 민감도와 특이성이 모두 보고되었지만, 256 × 256 픽셀의 저차원 컬러 이미지 120개로 구성된 제한된 데이터 세트가 연구되었으며, 이는 전체 모집단을 대표하지 않을 수 있습니다40. 이 연구에서는 잘 알려진 3종의 인수공통감염병 트리파노소마 종(예: T. cruzi, T. bruceiT. evansi)을 제안된 하이브리드 모델을 사용하여 분리했으며, 이는 위에서 설명한 이전 연구보다 성능이 뛰어났습니다. 이는 딥 러닝 모델의 비용 효율성을 나타냅니다. 그럼에도 불구하고, 몇몇 대규모 데이터셋은 일반화(41)를 확인하기 위해 제안된 모델의 성능에 대한 검증을 요구할 수 있다. T. lewisi는 기회주의적으로 인간을 감염시킬 가능성이 있으며, 쥐에 의해 전염되는 신종 인수공통전염병으로 인식되고 있으며, 종종 빈곤한 상태와 관련이 있습니다. 태국과 중국과 같은 일부 국가에서는20,42건의 사례가 보고되었습니다. 더욱이, T. evansiT. lewisi의 형태는 현저한 유사성을 지니고 있다17. 데이터 세트와 제안된 모델을 향상시키기 위해 T. lewisi의 더 많은 인스턴스를 포함하면 향후 딥 러닝 모델 개발에 도움이 될 수 있습니다. 추가적인 동물 트리파노소모스 진단을 위한 잠재적인 딥러닝 기법의 범위를 넓히려면 T. vivax, T. theileriaT. melophagium과 같은 다른 종에 대한 데이터 세트를 수집하는 것이 좋습니다. 해결해야 할 한 가지 중요한 과제는 다양한 트리파노소마 종을 포함하는 혼합 감염의 진단인데, 항체 검출 방법이 교차 반응으로 인해 감소된 특이성을 나타낼 수 있기 때문이다43. 인공 지능 응용 프로그램을 발전시키고 가축, 인간 및 환경의 건강을 보호하기 위해 진단 기술을 강화하고 강화하는 것이 필수적입니다.

기생충 원생동물의 2D 이미지를 인식하도록 제안된 AI 프로그램을 훈련하기 전에 큰 샘플 크기, 클래스 밸런싱, 데이터 증강 및 전문가의 품질 라벨링과 같은 중요한 기준이 필요했습니다. 중요한 단계로, 전문가는 훈련 단계의 오류 신호를 풀어 다크넷 및 Densenet 알고리즘 모두에 대한 실측 자료 레이블을 재현할 수 있습니다. 제안된 AI 프로그램의 주요 장점은 쉬운 드래그 앤 드롭 단계를 통해 코딩을 하지 않는 사용자도 친숙하게 사용할 수 있다는 것입니다. 또 다른 중요한 기능은 분류 모델과 통합된 감지 버전 및 어텐션 맵의 조합 모듈로, 원시 이미지 파일 형식에 대한 걱정 없이 보이지 않는 데이터를 가능한 한 빨리 테스트할 수 있습니다. .jpeg, .jpg, .png, .tif, .tiff, .pdf 및 .bmp 등 더 넓은 범위의 이미지 형식을 사용할 수 있기 때문입니다. 현미경의 c-마운트 부품과 함께 AI 프로그램을 적용하면 원격 영역에서 실시간 검출이 가능합니다.

방법의 한계는 사전 학습 단계에서 제안된 프로토콜에 영향을 미칠 수 있습니다. AI 모델 학습을 시작하기 전에 일부 요구 사항, 특히 데이터 세트 품질 및 전문가 레이블을 잘 준비해야 합니다. 데이터 세트 내에서 작은 표본 크기와 클래스 불균형으로 인해 모델이 전역 최솟값에 도달하고 최적 단계에 도달하는 데 어려움을 겪었습니다. 큰 표본 크기를 사용하고 데이터의 균형을 맞추면 학습 중에 높은 정확도와 낮은 손실로 모델을 최적화하는 데 도움이 됩니다. 원생동물의 생애 주기 기간에 따른 발달 단계와 Giemsa에 의한 다양한 색상, 환경 및 이미지 스케일과 같은 이미지의 변화는 두 딥 러닝 모델의 훈련에 공급되기 전에 정규화되기를 원합니다. 상술한 제안된 문제들을 해결하기 위해, 회전 각도, 밝기 및 대비, 수직 및 수평 플립, 가우시안 노이즈, 가우시안 블러와 같은 다양한 증강 기능을 사용하여 사전 훈련 단계(45)를 처리할 수 있다.

제안된 하이브리드 AI 모델의 중요한 응용 분야는 현미경, 냉동 이미지 및 비디오 클립의 원시 데이터로 현미경 데이터에서 기생 원생동물을 실시간으로 식별하는 것입니다. 이를 통해 우리는 임베디드 에지 장치(46), 클라우드 기반 모바일 애플리케이션(47), 브라우저 사용자 인터페이스(BUI)48 및 웹 기반 모델 배포(49)와 함께 훈련된 모델을 배포할 수 있다. 결과적으로 AI 모델은 하이브리드 딥 러닝을 능동 감시에 적용하고 밀리초 내에 현지 직원의 결정을 지원할 수 있는 능력으로 인해 적시에 결과를 제공할 수 있는 잠재력을 가지고 있으며, 보조 역학에 대한 자동 스크리닝 기술을 제안합니다.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

모든 저자는 재정 공개와 이해 상충이 없습니다.

Acknowledgments

이 작품(신학자 연구비, 연구비 지원금, 연구비 지원금. RGNS 65 - 212)는 고등교육과학연구혁신부(OPS MHESI), 태국 과학연구혁신부(TSRI) 및 King Mongkut's Institute of Technology Ladkrabang의 재정 지원을 받았습니다. 연구 프로젝트에 자금을 지원해 주신 태국 국립연구위원회(NRCT)[NRCT5-RSA63001-10]에 감사드립니다. M.K.는 태국 과학 연구 및 혁신 기금 출라롱콘 대학교(Chulalongkorn University)의 지원을 받았습니다. 또한 연구 프로젝트를 지원하기 위해 딥 러닝 플랫폼과 소프트웨어를 제공한 College of Advanced Manufacturing Innovation, King Mongkut's Institute of Technology, Ladkrabang에도 감사드립니다.

Materials

Name Company Catalog Number Comments
Darknet19, Darknet53 and Densenet201 Gao Huang, Z. L., Laurens van der Maaten. Densely Connected Convolutional Networks. arXiv:1608.06993 [cs.CV]. (2016) https://github.com/liuzhuang13/DenseNet  Deep convolutional neural network model that can function to  classification
Generic name: YOLO model/ detection model?
Olympus CX31 Model CX31RRBSFA  Olympus, Tokyo, Japan SN 4G42178  A light microscope 
Olympus DP21-SAL U-TV0.5XC-3  Olympus, Tokyo, Japan SN 3D03838 A digital camera
Generic name: Classification models/ densely CNNs
Window 10 Microsoft Window 10 Operation system in computers
YOLO v4-tiny  Naing, K. M. et al. Automatic recognition of parasitic products in stool examination using object detection approach. PeerJ Comput Sci. 8 e1065, (2022). https://git.cira-lab.com/users/sign_in Deep convolutional neural network model that can function to both localization and also classification 
https://git.cira-lab.com/users/sign_in

DOWNLOAD MATERIALS LIST

References

  1. Kasozi, K. I., et al. Epidemiology of trypanosomiasis in wildlife-implications for humans at the wildlife interface in Africa. Frontiers in Veterinary Science. 8, 621699 (2021).
  2. Ola-Fadunsin, S. D., Gimba, F. I., Abdullah, D. A., Abdullah, F. J. F., Sani, R. A. Molecular prevalence and epidemiology of Trypanosoma evansi among cattle in peninsular Malaysia. Acta Parasitologica. 65 (1), 165-173 (2020).
  3. Aregawi, W. G., Agga, G. E., Abdi, R. D., Buscher, P. Systematic review and meta-analysis on the global distribution, host range, and prevalence of Trypanosoma evansi. Parasites & Vectors. 12 (1), 67 (2019).
  4. Joshi, P. P., et al. Human trypanosomiasis caused by Trypanosoma evansi in India: the first case report. The Am Journal of Tropical Medicine and Hygiene. 73 (3), 491-495 (2005).
  5. Lidani, K. C. F., et al. Chagas disease: from discovery to a worldwide health problem. Frontiers in Public Health. 7, 166 (2019).
  6. Sazmand, A., Desquesnes, M., Otranto, D. Trypanosoma evansi. Trends in Parasitology. 38 (6), 489-490 (2022).
  7. Powar, R. M., et al. A rare case of human trypanosomiasis caused by Trypanosoma evansi.Indian. Journal of Medical Microbiology. 24 (1), 72-74 (2006).
  8. Shegokar, V. R., et al. Short report: Human trypanosomiasis caused by Trypanosoma evansi in a village in India: preliminary serologic survey of the local population. American Journal of Tropical Medicine and Hygiene. 75 (5), 869-870 (2006).
  9. Haridy, F. M., El-Metwally, M. T., Khalil, H. H., Morsy, T. A. Trypanosoma evansi in dromedary camel: with a case report of zoonosis in greater Cairo, Egypt. Journal of the Egyptian Society of Parasitology. 41 (1), 65-76 (2011).
  10. Dey, S. K. CATT/T.evansi antibody levels in patients suffering from pyrexia of unknown origin in a tertiary care hospital in Kolkata. Research Journal of Pharmaceutical, Biological and Chemical Sciences. 5, 334-338 (2014).
  11. Dakshinkar, N. P., et al. Aberrant trypanosomias in human. Royal Veterinary Journal of India. 3 (1), 6-7 (2007).
  12. Vn Vinh Chau, N., et al. A clinical and epidemiological investigation of the first reported human infection with the zoonotic parasite Trypanosoma evansi in Southeast Asia. Clinical Infectious Diseases. 62 (8), 1002-1008 (2016).
  13. Misra, K. K., Roy, S., Choudhary, A. Biology of Trypanosoma (Trypanozoon) evansi in experimental heterologous mammalian hosts. Journal of Parasitic Diseases. 40 (3), 1047-1061 (2016).
  14. Nakayima, J., et al. Molecular epidemiological studies on animal trypanosomiases in Ghana. Parasites & Vectors. 5, 217 (2012).
  15. Riana, E., et al. The occurrence of Trypanosoma in bats from Western Thailand. The 20th Chulalongkorn University Veterinary Conference CUVC 2021: Research in practice. 51, Bangkok, Thailand. (2021).
  16. Camoin, M., et al. The Indirect ELISA Trypanosoma evansi in equids: optimisation and application to a serological survey including racing horses, in Thailand. BioMed Research International. 2019, 2964639 (2019).
  17. Truc, P., et al. Atypical human infections by animal trypanosomes. PLoS Neglected Tropical Diseases. 7 (9), 2256 (2013).
  18. Desquesnes, M., et al. Diagnosis of animal trypanosomoses: proper use of current tools and future prospects. Parasites & Vectors. 15 (1), 235 (2022).
  19. Da Silva, A. S., et al. Trypanocidal activity of human plasma on Trypanosoma evansi in mice. Revista Brasileira de Parasitologia Veterinaria. 21 (1), 55-59 (2012).
  20. Desquesnes, M., et al. Trypanosoma evansi and surra: a review and perspectives on transmission, epidemiology and control, impact, and zoonotic aspects. BioMed Research International. 2013, 321237 (2013).
  21. World Health Organization. A new form of human trypanosomiasis in India. Description of the first human case in the world caused by Trypanosoma evansi. Weekly Epidemiological Record. 80 (7), 62-63 (2005).
  22. Naing, K. M., et al. Automatic recognition of parasitic products in stool examination using object detection approach. PeerJ Computer Science. 8, 1065 (2022).
  23. Wongsrichanalai, C., Barcus, M. J., Muth, S., Sutamihardja, A., Wernsdorfer, W. H. A review of malaria diagnostic tools: microscopy and rapid diagnostic test (RDT). American Journal of Tropical Medicine and Hygiene. 77, 119-127 (2007).
  24. Rostami, A., Karanis, P., Fallahi, S. Advances in serological, imaging techniques and molecular diagnosis of Toxoplasma gondii infection. Infection. 46 (3), 303-315 (2018).
  25. Ahmad, Z., Rahim, S., Zubair, M., Abdul-Ghafar, J. Artificial intelligence (AI) in medicine, current applications and future role with special emphasis on its potential and promise in pathology: present and future impact, obstacles including costs and acceptance among pathologists, practical and philosophical considerations. A comprehensive review. Diagnostic Pathology. 16 (1), 24 (2021).
  26. Sarker, I. H. Deep learning: a comprehensive overview on techniques, taxonomy, applications and research directions. SN Computer Science. 2 (6), 420 (2021).
  27. Kittichai, V., et al. Classification for avian malaria parasite Plasmodium gallinaceum blood stages by using deep convolutional neural networks. Scientific Reports. 11 (1), 16919 (2021).
  28. Baskota, S. U., Wiley, C., Pantanowitz, L. The next generation robotic microscopy for intraoperative teleneuropathology consultation. Journal of Pathology Informatics. 11, 13 (2020).
  29. Bochkovskiy, A., Wang, C. -Y., Liao, H. -Y. M. YOLOv4: optimal speed and accuracy of object detection. arXiv. , 10934 (2004).
  30. Huang, G., Liu, Z., vander Maaten, L., Weinberger, K. Q. Densely connected convolutional networks. arXiv. , 06993 (2018).
  31. CDC-DPDx. Diagnostic procedures - Blood specimens. , Available from: https://www.cdc.gov/dpdx/diagosticprocedures/blood/specimenproc.html#print (2020).
  32. World Health Organization. Control and surveillance of African trypanosomiasis: report of a WHO expert committee. WHO Technical Report Series 881. , Available from: https://iris.who.int/bitstream/handle/10665/42087/WHO_TRS_881.pdf?sequence=1 (1998).
  33. Leber, A. L. Detection of blood parasites. Clinical Microbiology Procedures Handbook. , ASM Press. Washington, DC. (2022).
  34. Huang, L. -P., Hong, M. -H., Luo, C. -H., Mahajan, S., Chen, L. -J. A vector mosquitoes classification system based on edge computing and deep learning. Proceedings-2018 Conmference on Technologies and Applications of Artifical Intelligence. , Taichung, Taiwan. 24-27 (2018).
  35. Cihan, P., Gökçe, E., Kalipsiz, O. A review of machine learning applications in veterinary field. Kafkas Universitesi Veteriner Fakultesi Dergisi. 23 (4), 673-680 (2017).
  36. Berrar, D. Cross-validation. Encyclopedia of Bioinformatics and Computational Biology. 1, 542-545 (2019).
  37. Gaithuma, A. K., et al. A single test approach for accurate and sensitive detection and taxonomic characterization of Trypanosomes by comprehensive analysis of internal transcribed spacer 1 amplicons. PLoS Neglected Tropical Diseases. 13 (2), 0006842 (2019).
  38. Vijayalakshmi, A., Rajesh Kanna, B. Deep learning approach to detect malaria from microscopic images. Multimedia Tools and Applications. 79 (21-22), 15297-15317 (2019).
  39. Morais, M. C. C., et al. Automatic detection of the parasite Trypanosoma cruzi in blood smears using a machine learning approach applied to mobile phone images. PeerJ. 10, 13470 (2022).
  40. Uc-Cetina, V., Brito-Loeza, C., Ruiz-Pina, H. Chagas parasite detection in blood images using AdaBoost. Computational and Mathematical Methods in Medicine. 2015, 139681 (2015).
  41. Zhang, C., et al. Deep learning for microscopic examination of protozoan parasites. Computational and Structural Biotechnology Journal. 20, 1036-1043 (2022).
  42. Sarataphan, N., et al. Diagnosis of a Trypanosoma lewisi-like (Herpetosoma) infection in a sick infant from Thailand. Journal of Medical Microbiology. 56, 1118-1121 (2007).
  43. Desquesnes, M., et al. A review on the diagnosis of animal trypanosomoses. Parasites & Vectors. 15 (1), 64 (2022).
  44. Fuhad, K. M. F., et al. Deep learning based automatic malaria parasite detection from blood smear and its smartphone based application. Diagnostics (Basel). 10 (5), 329 (2020).
  45. Christian Matek, S. S., Spiekermann, K., Marr, C. Human-level recognition of blast cells in acute myeloid leukaemia with convolutional neural networks. Nature Machine Intelligence. 1, 538-544 (2019).
  46. Hamdan, S., Ayyash, M., Almajali, S. Edge-computing architectures for internet of things applications: a survey. Sensors (Basel). 20 (22), 6441 (2020).
  47. Visser, T., et al. A comparative evaluation of mobile medical APPS (MMAS) for reading and interpreting malaria rapid diagnostic tests. Malaria Journal. 20 (1), 39 (2021).
  48. Giorgi, E., Macharia, P. M., Woodmansey, J., Snow, R. W., Rowlingson, B. Maplaria: a user friendly web-application for spatio-temporal malaria prevalence mapping. Malaria Journal. 20 (1), 471 (2021).
  49. Rajaraman, S., Jaeger, S., Antani, S. K. Performance evaluation of deep neural ensembles toward malaria parasite detection in thin-blood smear images. PeerJ. 7, 6977 (2019).

Tags

우수한 자동 식별 트리파노솜 기생충 하이브리드 딥 러닝 모델 트리파노소마증 공중 보건 문제 남아시아 동남아시아 핫스팟 지역 능동 감시 현미경 검사 숙련된 인력 인공 지능(AI) 프로그램 하이브리드 딥 러닝 기술 객체 식별 객체 분류 신경망 백본 로우코드 AI 플랫폼(CiRA CORE) 원생동물 트리파노솜 종 트리파노소마 크루즈 T. Brucei T. evansi 오일 이멀젼 현미경 이미지 패턴 인식 핵 및 키네토플라스트 주의 맵 통계적 측정 정확도 재현율 특이성 정밀도 F1 점수 오분류율 수신기 작동 특성(ROC) 곡선 정밀도 대 재현율(PR) 곡선
하이브리드 딥러닝 모델을 사용한 트리파노솜 기생충의 우수한 자동 식별
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Kittichai, V., Kaewthamasorn, M.,More

Kittichai, V., Kaewthamasorn, M., Thanee, S., Sasisaowapak, T., Naing, K. M., Jomtarak, R., Tongloy, T., Chuwongin, S., Boonsang, S. Superior Auto-Identification of Trypanosome Parasites by Using a Hybrid Deep-Learning Model. J. Vis. Exp. (200), e65557, doi:10.3791/65557 (2023).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter