Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Bioengineering

ハイブリッド深層学習モデルを用いたトリパノソーマ寄生虫の優れた自動同定

Published: October 27, 2023 doi: 10.3791/65557

Summary

世界中の医療用血液寄生虫が、ローコードAIプラットフォーム上で簡単な手順で自動的にスクリーニングされました。血液膜の前向き診断は、ハイブリッド深層学習モデルにおける物体検出および分類手法を使用することによって改善されました。アクティブモニタリングと十分に訓練されたモデルのコラボレーションは、トリパノソーマ伝達のホットスポットを特定するのに役立ちます。

Abstract

トリパノソーマ症は、南アジアや東南アジアなど、世界のいくつかの地域で重大な公衆衛生上の問題となっています。積極的なサーベイランス下にあるホットスポット地域の特定は、病気の伝播を制御するための基本的な手順です。顕微鏡検査は、一般的に使用される診断方法です。それにもかかわらず、それは主に熟練した経験豊富な人材に依存しています。そこで、社内のローコードAIプラットフォーム(CiRA CORE)上で、物体識別と物体分類ニューラルネットワークバックボーンのハイブリッド深層学習技術を活用した人工知能(AI)プログラムを導入しました。このプログラムでは、トリパノソーマ原生生物( Trypanosoma cruziT. brucei、T. evansi)を油浸顕微鏡画像から同定し、分類することができます。AIプログラムは、パターン認識を利用して、1つの血液サンプル内の複数の原生動物を観察および分析し、アテンションマップを使用して、各寄生虫の核と動態形成体を特定の特徴として強調表示します。

AIプログラムのパフォーマンスを評価するために、精度、再現率、特異性、精度、F1スコア、誤分類率、受信者動作特性(ROC)曲線、精度対再現率(PR)曲線など、さまざまな統計的尺度を提供する2つの独自のモジュールが作成されます。評価結果は、AIアルゴリズムが寄生虫の特定と分類に有効であることを示しています。この技術は、迅速で自動化された正確なスクリーニングツールを提供することで、疾病の監視と管理を変革する可能性を秘めています。また、地方当局が病気の伝播を阻止する戦略について、より多くの情報に基づいた決定を下すのにも役立ちます。

Introduction

トリパノソーマ症は、南アジアや東南アジアなど、アフリカ大陸やアメリカ大陸以外の地域に広く分布するさまざまな人獣共通感染症種がヒトの病気を引き起こすため、世界的な健康問題に対する重大な課題です1,2,3。ヒトアフリカトリパノソーマ症(HAT)または睡眠病は、トリパノソーマ・ブルーセイ・ガンビエンセT.b.ロデシエンセによって引き起こされ、それぞれ慢性型と急性型を産生し、アフリカでの主要な蔓延を表しています。原因となる寄生虫は、ツェツェバエの感染した唾液による感染により、サリバリアグループに属します4。一方、T. cruziによって引き起こされるよく知られたアメリカのトリパノソーマ症(シャーガス病)は、非流行国の公衆衛生上の懸念事項となっています。カナダ、アメリカ、ヨーロッパ、オーストラリア、日本など、流行地域からの個体の頻繁な移動が原因です5。トリパノソーマ感染症は、感染したレデュビイド虫の糞便によって伝染するため、ステルコラリアグループに属します。T. evansi感染によって引き起こされるトリパノソーマーゼおよびトリパノソーマ症(Surra病)は、アフリカ、南アメリカ、西アジアおよび東アジア、南アジアおよび東南アジア諸国で流行しています3,6。トリパノソーマによって引き起こされるヒトトリパノソーマ症が報告されていますが3,4,7,8,9,10,11,12、寄生虫感染の伝播経路は議論されています:ツェツェバエやタバニドなどの血食性昆虫またはアブ6,7 8,9,10,12,13,14。タイでは症例報告は見つかっていないが、東部地域ではイヌ15、競走馬、水牛でT. evansi感染の有病率が高いことが報告されており16、家畜間での後天性感染が示唆されている。動物のトリパノソーマ(三日熱三日熱菌T. b. bruceiT. congolense、T. lewisi、T. evansi)によって引き起こされるいくつかの非定型ヒト感染が報告されているが、これらはヒトトリパノソーマの古典的な形態ではない17。非定型ヒト感染症に関する認識は過小評価されている可能性があり、これらの非定型症例の検出と確認のための改善された診断検査と現地調査の必要性が強調され、世界の家畜、食料安全保障18、および人間の医療に影響を与える動物の病原性疾患の適切な管理と治療を可能にする必要があります。これにより、既存の一般的な方法(顕微鏡検査)と統合された潜在的な戦略が開発され、積極的なサーベイランス中に遠隔地の血液サンプルを迅速にスクリーニングし、疾患を制限および制御するためのホットスポットゾーンの特定が可能になりました。

ヒトコブラクダ、ウシ、ウマ、イヌなどの広範囲の家畜で、ユリクセン性のT.エバンシを想起させるスラ病が散発的に発生すると、ヒトに人獣共通感染症が発生する可能性があります1,4,13,14。ヒト血清中のトリパノ溶解因子は、sra様遺伝子から発現し、ヒトT. bruceiおよびT. congolenseを予防することができるため、ヒトへの感染は不可能であるように思われる12,19。さらに、インドでの最初の症例報告が示すように、この病気は免疫不全のHIV患者とは無関係である4。上述したように、ヒトへの感染の可能性は、まれな常染色体劣性遺伝性疾患であるトリパノソーマ溶解因子の異常な機能を伴う高密度リポタンパク質欠乏症、すなわちタンジール病に関連している可能性がある4。2016年、ベトナム人患者が2つの野生型APOL1対立遺伝子を持ち、血清APOL1濃度が正常範囲内であることが判明しました。しかし、APOL-1欠損症の理論はもはや有効とは見なされていない12。したがって、トリパノソーマ感染のメカニズムの1つとして考えられるのは、職業畜産中に傷口と感染した動物の血液が直接接触することである4,12。顕微鏡検査により、T. evansi の形態は、T. brucei の近縁種に類似した、優勢な細長い、鞭毛状で分裂するトリパノソーマを含む、トリポマスティゴテの単型型であることが明らかになりました 1,12,13核は中央位置にあり、後位置には目に見える小さなキネトプラストがあります。以前の研究では、寄生虫は古典型と切断型として知られる2つの同等の形態で存在できることが示されました。しかしながら、宿主20に対するそれらのそれぞれの病原性影響を確認することは依然として必要である。症状の経過は、悪寒や発汗に伴う断続的な発熱などさまざまです。幸いなことに、スラミンは、中枢神経系(CNS)への浸潤を伴わない初期段階のヒトアフリカトリパノソーマ症の第一選択治療として成功し、インドとベトナムの患者を治癒しています4,12,21

T. evansi寄生虫の診断方法は、臨床徴候検査以外にも、寄生虫顕微鏡観察4,9,12、血清学的観察4,8,9,10,12、分子生物学的検査4,12など、いくつかの方法が存在する.ギムザで染色された薄血膜は、顕微鏡検査で存在する寄生虫を視覚化するためによく使用され、これは日常的かつ一般的に使用されています22。ただし、この手順は実行可能であるようです。それにもかかわらず、それは時間と労働集約的であり、評価者間の評価のばらつきがあり、急性期にのみ敏感であり、個人的な研修生を必要とします23。また、分子生物学検査と血清学的検査の両方で、標準化が困難な高価な装置で検査する前にサンプルを抽出および精製するなど、サンプル調製の複数のプロセスを実行するために高度なスキルを持つ人員が必要でした24.上記の理論的根拠に基づいて、フィールドサーベイランス研究をサポートし、調査結果がタイムリーに報告され、病気の伝播をさらに制御するためのホットスポットゾーンを特定するために、迅速で早期のスクリーニング技術が必要です1,8。コンピュータ化されたデバイス(CAD)は、病理組織学的および細胞病理学的タスクを含む医療分野の革新的な技術として提案されています25。前述したCADを高速に実行し、パターン認識、すなわち人工知能(AI)を用いて計算しました。AI手法は、多数のデータセットサンプル、特にデータ消費時によく訓練されたモデルをトレーニングする教師あり学習アプローチを処理するために使用できる畳み込みニューラルネットワークアルゴリズムを使用して実現されます。

一般に、AIは、データのラベリングなど、専門的な知性を必要とするタスクを解決するコンピューターの能力です。AIのサブフィールドである機械学習(ML)は、特徴抽出とパターン認識で構成される2つの異なるプロセスを持つコンピューターシステムとして表されます。ディープラーニング(DL)、または高度なMLアルゴリズムとは、人間のようなパフォーマンスと、人間の専門家が達成する以上の精度レベルを比較するコンピューター化されたプログラムやデバイスの開発を指します26。現在、医療および獣医学分野におけるDLの役割は、最近の予防を目指し、それを個々の医療スタッフに導くことを目的として、伝染病予防を有望に拡大し、革命を起こしています22,27。DLの用途は、品質ラベルと多数の拡張データセットにより無限に広がり、専門家はプロジェクトタスクの管理に専念できます。具体的には、デジタル画像の進歩とコンピューター支援分析により、報告された病理学の5つのカテゴリで自動診断とスクリーニングが改善されました。静的、動的、ロボット、ホールスライドイメージング、およびハイブリッド方法を含む28.DLアルゴリズムのアプローチとデジタル画像データを統合することで、現地スタッフの日常業務での活用が促進されることを考慮する必要があります。

従来、ハイブリッドモデルを用いた場合の予測精度の向上は証明されていた27。本研究では、顕微鏡画像からトリパノソーマ寄生虫を同定するために、YOLOv4-tiny(物体検出)アルゴリズムとDensenet201(物体分類)アルゴリズムを組み込んだ2つのハイブリッドモデルを提示します。いくつかの検出モデルの中で、CSPDarknet53バックボーンを持つYOLOv4-tinyは、局在化と分類の点で予測結果として高い性能を示した29。リアルタイム検出器は、入力ネットワークの解像度、畳み込み層の量、合計パラメータ、および層出力数の最適なバランスを変更したため、以前のバージョンと比較して、高速動作の優先順位付けと並列計算の最適化が向上しました。Dense Convolutional Network (DenseNet) は、競合データセット全体で最先端の結果を達成するもう 1 つの一般的なモデルです。DenseNet201 では、ResNet101 に匹敵する同様の検証エラーが発生しました。しかし、DenseNet201のパラメータは2,000万個未満であり、ResNet101の4,000万個以上のパラメータ30よりも少ない。したがって、DenseNetモデルは、過学習の兆候のないパラメータの数を増やすことで、予測精度を向上させることができます。ここでは、人工知能(AI)プログラムが、社内のCiRA COREプラットフォーム上で、深層検出および分類ニューラルネットワークバックボーンを備えたハイブリッド深層学習アルゴリズムを利用します。開発したプログラムは、トリパノソーマ原生生物種( Trypanosoma cruziT. brucei、T. evansi)を油浸顕微鏡画像から同定し、分類することができます。この技術は、迅速で自動化された正確なスクリーニング方法を提供することで、疾病の監視と管理に革命をもたらす可能性を秘めています。これは、寄生虫原虫病の伝播遮断戦略について、現地スタッフがより多くの情報に基づいた決定を下すのに役立つ可能性があります。

Subscription Required. Please recommend JoVE to your librarian.

Protocol

アーカイブされた血液フィルムとプロジェクトデザインは、チュラロンコン大学獣医学部の施設バイオセーフティ委員会、動物管理および使用委員会(IBC No.2031033およびIACUC第1931027号)、およびモンクット王工科大学ラカバン校のヒト研究倫理委員会(EC-KMITL_66_014)によって承認されました。

1.RAW画像の準備

  1. 画像データセットの準備
    1. 寄生虫学者の専門家によって確認された、T. bruceiT. cruzi、T. evansi など、血液寄生虫感染症の陽性スライドを少なくとも 13 枚入手する。13 枚のスライドをトレーニング (10 枚) とテスト用 (3 枚) に分けます。
    2. デジタルカメラで光学顕微鏡の油浸場下で、上記のギムザ染色薄膜の画像を取得します。顕微鏡検査で3つの寄生虫種すべてのトリポマスティゴットの複数のオブジェクトを含む画像を取得します。細い形、長い尾、波打つ膜、前端のキネトプラストを探します。
      注:厚い塗抹標本と薄い塗抹標本の両方を作成すると、急性期トリパノソーマ症の検出が強化されます31。指刺しによる採血はWHO32によって推奨されています。それにもかかわらず、Trypanosoma cruziや他の種は厚い膜では歪む傾向があるため、薄膜は Trypanosoma cruzi や他の種の識別においてより効果的である33。このことから、本研究では、寄生虫の適切な形態を維持するために、薄い血液膜画像を用いた。
    3. すべての画像は、1,600 x 1,200 ピクセル、24 ビット深度、JPG ファイル形式の寄生虫固有のフォルダーに保存します。画像をトレーニング セットとテスト セットに ~6:1 の比率で分割します。
      注: https://gitlab.com/parasite3/superior-auto-identification-of-medically-important-trypanosome-parasites-by-using-a-hybrid-deep-learning-model/-/blob/main/JOVEimage.zip を参照してください。650枚の画像をトレーニングモデル(560枚)とテストモデル(90枚)に分割しました。
    4. 関心領域を、トリパノソーマと非トリパノソーマの 2 つのクラスの長方形のラベルとして定義します。自動トリミング モジュールを使用して、適切にトレーニングされたオブジェクト検出モデルを使用して、検出されたすべての画像をトリミングします。オートクロップモジュールは、CiRA COREプログラム( 材料表参照)で開発されたモジュールです。オブジェクト分類をトレーニングするために、イメージごとに 1 つのオブジェクトを収集します。
      注: このホワイト ペーパーでは、1,017 枚の画像をトレーニング (892 枚) とテスト (126 枚) に分割しました。モデルトレーニングは、白血球、T. bruceiT. cruzi、T. evansi の 4 つのラベル付きクラスで実施されました。

2. 自社開発のCiRA COREプラットフォームによるトレーニングプロセス

  1. 新しいプロジェクトの開始
    1. パソコンのデスクトップからCiRA COREアプリケーションを開き( 資料表参照)、プログラムの アイコンをダブルクリックして新しいプロジェクトを作成します。
    2. 左側の垂直ツールバーの 操作アイコン を選択して、必要なツールを選択します。
  2. 物体検出モデルのトレーニング
    1. ドラッグ アンド ドロップ方式を使用して、データのラベル付けと学習のための学習 DL モデル関数を選択します。[一般] ツールバー |CiRAのAI |ドラッグディープトレイン |DeepTrainを画面(右側)にドロップします。
      注: その他のオプションについては、選択したツールを右クリックし、適切な機能(コピー、切り取り、または削除)を実行します。
    2. DeepTrainツールの設定を使用して画像をインポートします。[画像の読み込み]ボタンをクリックして、画像ディレクトリに移動します。オブジェクトにラベルを付けるには、左クリックを押しながら選択したオブジェクトに名前を付けます。[Display Setting] ボタンをクリックして矩形の線の太さとフォント サイズを調整し、GT を同じディレクトリに .gt ファイルとして保存します
      注意: 電力不足、プログラムの自動終了、ラベリングプロセス内でのハングアップなどの望ましくない状態を回避するために、必要に応じて保存してください。
    3. モデルを学習する前に、データを拡張し、回転、コントラスト、ノイズ、ぼかしの 4 つの拡張手法を使用して十分な情報を収集します。Gen Settingボタンをクリックして、この機能にアクセスします。
    4. DeepTrain ツールの [トレーニング] ボタンをクリックして、モデルのトレーニングを開始します。トレーニング部分には、「トレーニングファイルの生成」「トレーニング」の2つのサブ機能があります。[トレーニング ファイルの生成] 関数で、目的のモデル、バッチ サイズ、およびサブディビジョンを選択します。「生成」ボタンをクリックしてデータを生成し、ディレクトリに保存します。[学習] 関数で、次のオプションを選択します: i) 条件とバックアップに生成された別の学習場所を使用する、ii) 事前構築済みの重みを使用して学習を継続する、iii) 現在の学習設計のパラメーターをオーバーライドする。これにより、モデルの構成とトレーニング条件が設計されます。
      注:生成処理時間は、画像ファイルのサイズ、拡張の使用状況、および使用可能なメモリ容量によって異なります。
    5. 必要な構成がすべて完了したら、 [トレーニング] ボタンをクリックしてモデルのトレーニングを開始します。プログラムを継続的に実行し、トレーニング プロセス中にトレーニング損失を評価し、データセットの重みを調整できるようにします。モデルが最適な損失を達成したら、[ エクスポート ] ボタンをクリックして、トレーニング済みの重みファイルを指定されたディレクトリに保存します。

3. 物体検出モデルの評価

    4.画像ごとに1つのオブジェクトの画像トリミング

    1. 画像を切り抜く前に、次の手順を実行します。
      1. 画像スライドツールの設定にアクセスして、画像ファイルディレクトリから画像をインポートします。
      2. Deep Detectツールの設定にアクセスして、登録済みの重みファイル(ステップ2.2.8で保存)をインポートします。[Config] ボタン | [+] ボタンをクリックし、バックエンド (CUDA または CPU) を選択し、名前を入力して [OK] をクリックし、重みファイルのディレクトリを選択して [Choose] をクリックします。Deep Detectツール内で、検出パラメータ(閾値および非最大抑制(nms))を選択します。図面パラメータ;追跡パラメータおよび関心領域 (ROI) パラメーター。
      3. 切り抜きツールの設定にアクセスして、切り抜いた画像を保存するディレクトリを選択します。[参照] をクリックします。 切り抜いた画像を保存するディレクトリを選択 | [選択] をクリックします | 画像形式(jpgまたはpng)を選択します |[自動保存]オプションを有効にします。
    2. 画像をトリミングして、画像の分類とセグメンテーションのために画像ごとに 1 つのオブジェクトを取得します。このプロセスを実行するには、4 つのツールを利用し、それらの間の接続を確立します。 一般 ツールバー |全般 |ボタンの実行。次に、 一般ツールバー |CiRAのAI |ディープディテクト;次に、 一般ツールバー |CiRAのAI |ディープクロップ。最後に、 画像ツールバー |企業買収 |ImageSlideです。
    3. 必要な設定がすべて整ったら、 ボタンをクリックして画像の トリミングプロセスを開始します 実行 ツール。
    4. サイズが 608 x 608 の単一オブジェクト イメージで構成される新しいイメージ トレーニング データセットを取得します。

    5. モデル学習としての画像分類

    1. ドラッグ アンド ドロップを使用して、データ トレーニング用の画像分類モデルのトレーニング関数を選択します。画像ツールバー |ディープクラシフ |ドラッグClassifTrain |ClassifTrainを画面にドロップします。
    2. ClassifTrain ツールの設定を使用して、モデル トレーニング用の画像をインポートします。[フォルダを開く]ボタンをクリックして、目的の画像ディレクトリに移動します。トレーニングの前に、Augmentation ボタンをクリックしてデータを拡張し、回転コントラスト反転 (水平および/または垂直)、ノイズぼかしなどの手法を使用して詳細を確認します。
    3. モデルのトレーニングを開始するには、ClassifTrain ツールの [GenTrain] ボタンをクリックします。関数 GenTrain で、モデル、バッチ サイズ、およびサブディビジョンを選択します。生成されたファイルを保存するディレクトリを割り当てます。[生成] ボタンをクリックして、トレーニング用のデータを続行します。[トレーニング] 関数で、適切なオプションにチェックを入れます: 既定の重みまたはカスタムの重みでトレーニングを続行します。
      注: 生成プロセスは、画像ファイルのサイズ、拡張の使用状況、クラス バランシング、使用可能なメモリ領域などの要因に応じて時間がかかる場合があります。
    4. すべての準備が完了したら、[ 開始 ] ボタンをクリックしてモデルのトレーニングを開始します。プログラムを継続的に実行し、トレーニング プロセス中にトレーニング損失を評価し、データセットの重みを調整します。モデルが目的の損失レベルを達成したら、[ エクスポート ] ボタンをクリックして、トレーニング済みの重みファイルを指定したディレクトリに保存します。

    6. 分類モデルの評価

      7. CiRA COREアプリケーションによるプロセスのテスト

      1. モデルテストとしての物体検出
        1. モデル テストを実行するには、4 つのツールを使用し、それらの間の接続を確立します。[ 一般] ツールバー |全般 |ボタンの実行。次に、 一般ツールバー |全般 |デバッグ。その後、 をクリックします 全般ツールバー |CiRAのAI |DeepDetect、そして最後に 画像ツールバー |企業買収 |ImageSlideです。
        2. イメージをテストする前に、次の手順を実行します。
          1. 画像スライドツールの「設定」オプションをクリックして、画像ファイルディレクトリからテスト画像をインポートします。
          2. ステップ 2.2.8 で保存したトレーニング済みウェイト ファイルをインポートするには、DeepDetect ツールの [設定] オプションをクリックします。[Config] ボタンをクリックし、次に [+] ボタンをクリックし、バックエンド (CUDA または CPU) を選択して名前を入力し、[OK] をクリックし、重みファイルのディレクトリを選択して [Choose] をクリックします。[DeepDetect] ツールで、検出パラメーター (しきい値nms)、描画パラメーター、トラッキング パラメーターROI パラメーターを選択します。
          3. デバッグ・ツールのイメージ関数をクリックして、テスト・イメージの結果を表示します。
        3. 最後に、[ボタン実行] ツールの [実行] ボタンをクリックして、各画像の予測結果を確認します。
      2. モデルテストとしての画像分類
        1. モデル テストを実行するには、4 つのツールを使用し、それらの間の接続を確立します。[ 一般] ツールバー |全般 |ボタンラン;次に、 一般ツールバー |デバッグ。その後、 に移動します 画像ツールバー |企業買収 |ImageSlide、そして最後に [画像] ツールバー |ディープクラシフ |DeepClassifです
        2. イメージをテストする前に、次の手順を実行します。
          1. 画像スライドツールの「設定」オプションをクリックして、画像ファイルディレクトリからテスト画像をインポートします。
          2. セクション 5.5 から保存したトレーニング済みウェイト ファイルをインポートするには、DeepClassif ツールの [設定] オプションをクリックします。[Config] ボタン | + ボタン |バックエンド(CUDAまたはCPU)の選択 |名前を指定する |[OK] |重みファイルディレクトリの選択 |「選択」をクリックします。DeepClassifツールで、分類パラメータ(しきい値トップクラス予測の数)、ガイドマップパラメータ(閾値、アルファ、ベータカラーマップ)、およびカラーマップのさまざまなパラメータを選択します。
          3. デバッグ・ツールのイメージ関数をクリックして、テスト・イメージの結果を表示します。
        3. 最後に、[ボタン実行] ツールの [実行] ボタンをクリックして、各画像の予測結果を確認します。

      8.モデルテストとしてのハイブリッド(検出と分類)

      1. このモデル テストを実行するには、4 つのツールを使用し、それらの間の接続を確立します。[ 一般] ツールバー |全般 |ButtonRunです。次に、 一般ツールバー |全般 |デバッグ。その後、 画像ツールバー |企業買収 |ImageSlide、そして最後に [画像] ツールバー |ディープコンポジット |DeepD->Cです。
      2. 画像をテストする前に、次の手順に従います。 画像スライドツールの「設定」オプションをクリックして、画像ファイルディレクトリからテスト画像をインポートします。セクション2.1.5とセクション4.4から保存した2つのトレーニング済みウェイトファイルを、DeepD->Cツールの[設定]オプションをクリックしてインポートします。
        1. 検出機能では、Configボタン|+ボタンをクリックし、バックエンド(CUDAまたはCPU)を選択します。 |名前を指定する |[OK]をクリックする | ウェイト ファイルのディレクトリを選択 | 選択」をクリックします。[検出] 関数で、検出パラメーター (しきい値nms)、描画パラメーター、追跡パラメーター、および ROI パラメーターを選択します。
        2. Classif関数では、Configボタン|+ボタンをクリックし、バックエンド(CUDAまたはCPU)を選択します名前を指定する |[OK] をクリックし、ウェイト ファイルのディレクトリを選択 | [選択]をクリックします。Classif関数で、分類パラメータ(しきい値最上位クラスの予測数)とガイドマップパラメータ(しきい値、アルファ、ベータ、カラーマップ)を選択します。
      3. デバッグ・ツールのイメージ関数をクリックして、テスト・イメージの結果を表示します。最後に、[ボタン実行] ツールの [実行] ボタンをクリックして、各画像の予測結果を確認します。

      9. 5段階の交差検証

      注: 提案されたモデルの性能をより効果的に検証するために、K 分割交差検証が使用されます。

      1. データセットを交差検証の 5 つの分割に対応する 5 つのセクションに分割します。モデルのトレーニングとテストの各イテレーションでは、1 つのセクションをテスト用の検証セットとして使用し、残りの 4 つのセクションをトレーニング用に使用します。このプロセスを 5 回繰り返し、各フォールドを検証セットとして 1 回使用します。
      2. 折り目 1 から 5 の場合:
        1. セクション 5 を繰り返して、4 つの分割の学習データを使用してモデルに学習させます。
        2. セクション 7.2 を繰り返して、残りの分割をテスト セットとして使用してモデルをテストします。

      10. モデル評価

      1. 混同行列
        1. テスト結果に基づいて、4つの条件は次のように発生します。
          1. 真陽性 (TP): 入力画像が真であり、予測も真である場合。
          2. 偽陽性 (FP): 入力画像が偽であるが、予測が真である場合。
          3. 偽陰性 (FN): 入力画像が真であるが、予測が偽である場合。
          4. 真陰性 (TN): 入力画像が偽で、予測も偽の場合。
        2. これら 4 つの条件を使用して、混同行列で性能を評価します。
      2. 業績評価
        1. 最も一般的に使用される分類パフォーマンス指標は、 精度精度再現率特異性、および F1 スコア値です。混同行列の値からモデルのパフォーマンスを評価するために使用される式 (1-6) のすべての評価メトリックを計算します。
          Equation 1(1)
          Equation 2(2)
          Equation 3(3)
          Equation 4(4)
          Equation 5(5)
          Equation 6(6)
      3. ROC曲線
        注: ROC 曲線 は、しきい値設定が異なる分類問題のパフォーマンス指標です。ROC曲線下面積(AUC)は分離可能性の程度または尺度を表し、 ROC は確率曲線です。
        1. ROC曲線は、真陽性率(TPR)と偽陽性率(FPR)の値がそれぞれY軸とX軸にプロットされた2次元グラフです。混同行列から得られた TPR 値と TFR 値を使用して ROC 曲線を作成します。TPR 値は感度と同じです。式(7)を使用してFPR値を計算します。
          Equation 7(7)
        2. TPR 値と FPR 値を取得したら、Python 環境で Jupyter Notebook オープンソース Web ツールを使用して ROC 曲線をプロットします。AUCは、ROC曲線解析において提案されたモデルの性能を評価するための効果的な方法です。
      4. PR曲線
        1. PR曲線を使用して、PR曲線下の面積を測定することでモデルを評価します。モデルの信頼度しきい値関数を使用してモデルの精度と再現率をプロットし、PR 曲線を作成します。PR 曲線も 2 次元グラフであるため、X 軸Recall を、Y 軸Precision をプロットします。
        2. Python 環境でオープンソースの Jupyter Notebook Web ツールを使用して、ROC 曲線と同様に PR 曲線をプロットします。適合率-再現率曲線(AUC)スコアの下の領域は、多ラベル分類にも役立ちます。

      Subscription Required. Please recommend JoVE to your librarian.

      Representative Results

      本研究では、トリパノソーマ寄生虫に感染した血液サンプルの陽性率を自動的に予測するハイブリッド深層学習アルゴリズムを提案しました。アーカイブされたギムサ染色血液膜を分類し、ダークネットバックボーンニューラルネットワークに基づく物体検出アルゴリズムを使用して、寄生虫と非寄生虫を局在化および分類しました。前のモデルで得られた矩形ボックスの予測結果の中で、T. bruceiT. cruzi、T. evansiを含む医学的および獣医学的に重要なトリパノソーマの3種すべてを分類するために、最も選択された分類モデルが開発されました。使用したハイブリッドモデルの最終出力は、寄生虫の血期形態など、予測結果に影響を与える可能性のある100倍の顕微鏡画像の変動に対する提案されたモデルの頑健性を明らかにしました。また、環境要因により、時間、顕微鏡の光源からの強度、および血液膜の調製スキルを蓄積することにより、染色色の変化の画質が乱れる可能性があります。それにもかかわらず、最も選択されたモデルは、高性能で目標を達成することができます。

      多クラスラベルのローカリゼーションと分類
      ギムザ染色血液膜からの寄生原虫を油浸顕微鏡で検出するのは面倒で、ターンアラウンドタイムが長くなるため、エラーバイアスが発生しやすくなります。適切にトレーニングされた AI アプローチでは、416 x 416 ピクセルの再スケーリングと 3-RGB カラー チャネルのさまざまな特徴特性を使用して、ローカリゼーションと分類の正確な予測を増やすために、大量の画像データ プールが必要です。モデルのトレーニングと最適化中のパラメーターの数は、学習率 0.002、バーンイン 1,000、範囲ステップが 400,000 から 450,000 に設定されています。トレーニング損失は低いが、トレーニング精度は高いため、運動量 0.9、色相 0.1、減衰 0.0005 の場合、最適なレベルまたは飽和度と見なされました。目に見えないデータを使用したテスト段階では、IOU(Intersection over Union)と確率のパーセンテージの概念を使用して、正しい位置推定と分類が実行されました。検定解釈の結果は、閾値50%、非最大抑制(NMS)0.4で行われ、%確率で正解が得られました。

      研究されたすべての寄生血液膜と同様に、非トリパノソーマからのトリパノソーマの識別は、局在化と分類の両方に機能する検出ニューラルネットワークモデルを使用して行われてきました (図1)22。提案した検出タスクの予測結果は、平均精度93.10%という優れた結果を示しました (表1)。トレーニングされた検出モデルは、トリパノソーマ原虫の同定に使用されるものよりも非トリパノソーマクラスを識別するために使用できますが、両方のクラスラベルで91%を超える精度をもたらします。さらに、適合率対再現率曲線は0.969という非常に平均的なAUC値を示し、寄生虫と非寄生虫のAUC値はそれぞれ0.976と0.961でした (図2)。これにより、トレーニングされたモデルが信頼できるものであることを保証しました。最初の検出結果の矩形のボックスは、社内のCiRA COREプログラムで画像キャプチャモジュールを使用してトリミングしました。上記のトリミングされた画像は、トリパノソーマ種に固有の3つのフォルダーに分類されました。このプロセスは、次のサブセクションで説明するトレーニング分類モデルのデータを入力するために準備されました。

      分類モデルごとの分類
      この寄生虫のよく知られた種を分類するための適切に訓練されたモデルを見つけるために、 T. bruceiT. cruzi、 および T. evansi は、相対的なクラス名が割り当てられたフォルダーに保存されました。AIトレーニングでは、再スケーリングされた256 x 256ピクセルの画像を3つのRGBチャネルに供給し、学習率0.1、バーンイン1000、運動量0.9、色相0.1、減衰0.0005。学習損失と学習精度を使用して、最適な学習済みモデルを見つけました。分類予測は、ピクセルごとの決定と50%の閾値での確率%の概念を使用して分析されました。

      3つの一般的な分類ニューラルネットワークアルゴリズムの比較が研究され、最適なものが見つかりました27,30。これら3つのニューラルネットワークは、医療および獣医学の分野で多クラスラベルの分類に広く使用されています27,34,35。% 確率が 0 から 1 のトレーニング済みモデルの推論結果は、しきい値の 50% を超えて正当化されました。さらに、各寄生虫の異なるパターン認識が強調され、アテンションマップによってT.evansiの中央部分の核に特異的でした。T. cruzi の前部の最大の動根形成体細胞小器官も、他の 2 種と比較した場合に強調されました。ヌクレアーゼとキネトプラストはどちらも、T. brucei に見られるアテンションマップによって強調されました(図3)。

      提案された3つのモデルを測定するために、精度、誤分類率、再現率(真陽性率)、特異度(真陰性率)、偽陽性率、偽陰性率、精度、F1スコアなど、いくつかの統計指標が使用されました。その結果、Densenet201ニューラルネットワークを用いた評価指標のほとんどが、他の評価指標よりも優れた値を示しました。平均して、精度、再現率、特異度、精度、およびF1スコアのメトリック値は著しく高く、98%に等しくなりました。しかし、モデルのパフォーマンスの重要度は、誤分類率、偽陽性率、偽陰性率の1.5%以下であることが明らかになりました(表2)。クラスごとの比較を考慮すると、Densenet201モデルは、目に見えないテストデータでこれを行いながら、 エラーなしでT.evansi を正しく識別しているようであり、潜在的なトレーニング済みモデルが寄生虫種を区別するためのものであることを示唆しています。

      図4A-Cでは、ROC曲線下のAUCは、最良の分類モデル(図4C)から得られた0.931で最大の平均精度を示しており、これは調査された最良の選択モデルを確認することを表しています。T. evansi の AUC は 0.817 であり、他のものよりも低く (T. brucei は 0.980-1.00、T. cruzi は 0.955-0.977)、上記の統計指標とは対照的である。これは、これら 2 つの値が異なる式で計算されているためである可能性があります。AUC はすべてのしきい値から取得されましたが、統計メトリックは 50% のしきい値からのみ取得されており、これら 2 つの値は比較できないことが示唆されています。したがって、3つのモデルすべてから得られたクラス名による一貫したAUC値は、それぞれT. brucei>T. cruzi>T. evansiの一般的な精度を示しています。

      K分割交差検証
      真の予測誤差を推定し、上記のようにモデルパラメータを調整するという観点から研究された、最良選択分類モデルの頑健性を評価するために36、5分割交差検証手法が用いられた。データを 5 つのフォルダーにランダムに分割しました。4つのフォルダで割り当てられた学習済みデータと残りのフォルダのテスト済みデータは、選択した分類アルゴリズムで学習する前に準備されました。

      その結果、平均的な統計指標。正確性、再現率(真陽性率)、特異度(真陰性率)、精度、およびF1スコアは、98%以上を示した調査対象の統計指標と同様の値を示しました(表3)。調査した各指標を考慮すると、精度で0.992〜1.000のランキングが見つかりました。0.994から1.000の範囲の高い特異度値が提供されました。.0.988 から 1.000 の範囲のリコールと F1 スコアの両方が示され、同様に 0.989-1.000 が精度で調査されました。興味深いことに、誤分類、偽陰性、偽陽性の割合は1.2%未満と低いことがわかりました。この品質パフォーマンスは、さまざまなデータフォールドで優れたトレーニング済みモデルをサポートし、堅牢性を表しました。

      提案された指標に加えて、得られたROC曲線の下の平均AUCは、0.937から0.944の範囲の閉じ値を示し、データの5つのフォールド間で一般的な精度の同様の値を示しました(図5)。クラスごとの比較では、 T. evansi で 0.831、 T. cruzi で 0.982-1.000、 T. brucei で 1.000 のさまざまな AUC が得られました。 T. evansiのAUC値は他のものよりも低かったが、閾値1%から97%に属する高い偽陽性率(~33%)にさらされている可能性があり、その結果、他の2つのクラスのAUC値と比較してAUC値が小さくなる(図6)。

      ハイブリッド深層学習:実践的なスクリーニング
      このセクションでは、物体検出と分類手法の間のハイブリッド深層学習アプローチの貢献を 図7に示します。寄生虫と非寄生虫の特徴を区別し、最初の検出モデルを使用してピンク色の境界ボックス内でそれらの相対クラスを特定しました。次に、寄生虫の特定の種は、よく訓練された分類モデルを使用して異なる色で診断されました。緑色のラベルは T. evansi、ピンクのラベルは T. brucei、オレンジ色のラベルは T. cruzi です。最初の検出モデルが失敗した場合、2番目の分類ラベルは表示されず、社内のCIRA COREプラットフォームのD-Cモジュールにあるこれら2つの異なるニューラルネットワークバックボーン間の機能が十分に接続されていることを示唆しています。

      Figure 1
      図1:ハイブリッドモデルのアーキテクチャ。トリパノソーマの3つの寄生虫種(Trypanosoma evansiT. brucei、T. cruziを含む)すべてをインプットとして使用しました。100倍の顕微鏡画像内の複数の物体は、検出モデルを使用して検出されました。次に、前のモデルからトリミングされた 1 つのオブジェクトを、最適な分類モデルを使用して、その相対的な種に従って分類しました。最適な分類モデルと統合されたアテンションマップは、各クラスラベルに固有の領域を強調表示しました。この図の拡大版をご覧になるには、ここをクリックしてください。

      Figure 2
      図2:PR曲線。 この研究では、PR曲線下面積(AUC値)を使用して、非トリパノソーマクラスとトリパノソーマクラスを区別する能力を測定します。すべてのサンプルは、両方のクラスラベルで検出できます。AUC が 1 の場合は完全な予測であり、AUC が 0.5 の場合はランダムな予測です。この曲線は、提案された検出モデルのパフォーマンスを測定するために使用されます。このモデルは、非トリパノソーマクラス(AUC = 0.961)よりも高い速度(AUC = 0.976)でトリパノソーマクラスを検出できます。平均AUC値0.969は、非トリパノソーマとトリパノソーマの2つのクラスラベルのバイナリ結果から得られた。略語: PR = 精度と再現率。AUC = 曲線下の面積。 この図の拡大版をご覧になるには、ここをクリックしてください。

      Figure 3
      図3:分類モデルの予測結果。 3つのトリパノソーマ種すべてを使用して、提案された最良のトレーニング済みモデルをテストしました。種分類に基づく確率マップと注意マップの出力画像が表示されます。具体的には、アテンションマップは、寄生虫種の識別を導いていた目に見えない物体内の重要な領域を強調しました。 この図の拡大版をご覧になるには、ここをクリックしてください。

      Figure 4
      図4:モデルごとの比較に基づくROC曲線。ROC曲線下のAUCは、さまざまな識別のしきい値に基づく分類システムのパフォーマンスのグラフィカルプロットです。AUC-PR曲線と同様に、AUC-ROC1は完全な予測であり、AUC0.5はランダムな予測であり、各グラフの破線で示されます。(A)平均AUC0.925の第1分類モデル、(B)平均AUC0.924の第2分類モデル、(C)平均AUC0.931の最良の分類の3つの分類モデルを比較した。したがって、AUCが高いほど、パフォーマンスは向上します。略語:ROC =受信機の動作特性。AUC = 曲線下の面積。この図の拡大版をご覧になるには、ここをクリックしてください。

      Figure 5
      図5:5分割交差検証 最良の分類ニューラルネットワークモデルに基づくすべての実験を比較しました。5分割データの同様のAUC値には、(A)0.944、(B)0.944、(C)0.937、(D)0.941、および(E)0.938が含まれ、これらは、生物学的データの変動に対して使用された提案されたトレーニング済みモデルの堅牢性を示唆しています。 この図の拡大版をご覧になるには、ここをクリックしてください。

      Figure 6
      図6:クラス名ごとの真陽性率と偽陽性率。 X 軸は、1% から 97% までのしきい値を表します。Y 軸は、統計メトリックの次数を表します。 この図の拡大版をご覧になるには、ここをクリックしてください。

      Figure 7
      図7:ハイブリッドモデルの最終出力。 ハイブリッドモデル寄与の最終ステップは、20μmの生の顕微鏡画像として入力データを適用することができます。予測結果は、物体検出モデルと分類モデルの両方から取得できます。最初の予測結果は、未確認の検査画像に長方形(ピンク色のラベル)のトリパノソーマ寄生虫が含まれているかどうかを示しました。次に、寄生虫種に固有の分類結果に続いて、マルチカラーラベルを使用した最初の検出が行われます。 T. evansiは緑、 T. brucei はピンク、 T. cruziはオレンジ。 この図の拡大版をご覧になるには、ここをクリックしてください。

      表1:クラス別の平均精度と検出モデルの平均精度(mAP)。この表をダウンロードするには、ここをクリックしてください。

      表2:分類モデルごとの比較。 モデルのパフォーマンスを測定するために、精度、誤分類率、再現率(真陽性率)、特異度(真陰性率)、偽陽性率、偽陰性率、精度、F1スコアの8つの評価指標を使用しました。太字の値は、クラス ラベルごとの最大値を表します。斜体の値は、各評価指標の平均値を表します。 この表をダウンロードするには、ここをクリックしてください。

      表 3: 5 分割交差検証。 太字の値は、評価メトリックごとの平均値を表します。 この表をダウンロードするには、ここをクリックしてください。

      Subscription Required. Please recommend JoVE to your librarian.

      Discussion

      トリパノソーマ原虫感染の顕微鏡観察は、特に熟練した技術者が不足しており、労働集約的で時間のかかるプロセスがあり、保健機関にタイムリーに報告する上での障害となっている遠隔地でのサーベイランスでは、早期かつ一般的に使用されています。免疫学やポリメラーゼ連鎖反応(PCR)などの分子生物学技術は、検査所見の有効性を裏付ける高感度の方法として承認されていますが、それらに対処するには高価な化学物質、装置、および専門家が必要であり、それらは主に大きな医療センターの中央検査室にあります。3つのトリパノソーマ種の形態の共有、混合感染と未熟感染、および特性は、ユーザーの偏見と誤認を受けやすく、薬物反応と制御手段を低下させます37。提案された AI プログラム内で 2 つの異なるディープ ラーニング モデル間で修正されたハイブリッド アルゴリズムを使用することで、多くの課題を克服し、標準分類法の新時代を自動的に達成可能にすることができます。以前の出版物では、マラリアの血液ステージを特定する上でのハイブリッドモデルの可能性が確認されています27,38。ここでは、提案されたAIモデルをトレーニング、テスト、評価するためのプロトコルを説明し、3つのよく知られたトリパノソーマ種の成熟段階を認識し、顕微鏡フィールド下での寄生原虫の実用的な同定とさらなる定量のために分析するための簡素化されたプロセスを示します。

      提案されたモデルは、血液塗抹標本からT.cruziの感染を特定するために適用されたランダムフォレストアルゴリズムを使用した機械学習モデルを超えています。機械学習モデルは、87.6%の精度、90.5%の感度、および0.94239の受信機動作特性曲線下面積を達成しました。2015年には、血液塗抹標本中のT. cruziとマラリア感染を区別するために、AdaBoost学習とSVM学習という2つの方法が実施されました。感度と特異度の両方が高いことが報告されたが、低次元256×256ピクセルの120のカラー画像の限られたデータセットが研究されたが、これは母集団全体を代表していない可能性がある40。この研究では、3つのよく知られた人獣共通感染症のトリパノソーマ種(例えば、T. cruziT. bruceiT. evansi)を、提案されたハイブリッドモデルを用いて分離し、上記の先行研究を凌駕した。これは、深層学習モデルの費用対効果を表しています。それにもかかわらず、いくつかの大規模なデータセットは、その一般化を確認するために、提案されたモデルの性能の検証を必要とするかもしれない41T. lewisiは日和見的にヒトに感染する可能性があり、ラットが媒介する新たな人獣共通感染症として認識されており、多くの場合、貧困状態に関連しています。タイや中国など一部の国では症例が報告されています20,42。さらに、T. evansiT. lewisi の形態は驚くほど似ている17。データセットと提案されたモデルを強化するために、T. lewisi のインスタンスを多く含めることは、将来の深層学習モデルの開発に有益である可能性があります。追加の動物トリパノソーマ症の診断のための潜在的な深層学習技術の範囲を広げるには、三日熱菌T. theileria、T. melophagium などの他の種のデータセットを収集することをお勧めします。対処すべき重要な課題の1つは、抗体検出法が交差反応のために特異性を低下させる可能性があるため、さまざまなトリパノソーマ種が関与する混合感染症の診断である43。人工知能の応用を進歩させ、家畜、人間、環境の健康を守るためには、診断技術を強化・強化することが不可欠です。

      寄生虫原虫の2D画像を認識するために提案されたAIプログラムをトレーニングする前に、大きなサンプルサイズ、クラスバランス、データ拡張、専門家による品質ラベリングなど、それを完了するために必要な重要な基準。重要なステップとして、専門家はトレーニングフェーズのエラー信号を解明して、ダークネットアルゴリズムとデンセネットアルゴリズムの両方のグラウンドトゥルースラベルを再現することができます。提案されたAIプログラムの主な利点は、簡単なドラッグアンドドロップ手順でコーディングをしないユーザーにとって使いやすいことです。もう一つの重要な特徴は、分類モデルと統合された検出バージョンとアテンションマップの組み合わせモジュールであり、生の画像ファイル形式を気にすることなく、目に見えないデータを可能な限り迅速にテストするのに役立ちます。これは、.jpeg、.jpg、.png、.tif、.tiff、.pdf、.bmpなど、より幅広い画像形式を使用できるためです。顕微鏡のCマウントコンポーネントにAIプログラムを適用することで、遠隔地でのリアルタイム検出が可能になります。

      この方法の限界は、事前トレーニング段階で提案されたプロトコルに影響を与える可能性があります。AI モデルのトレーニングを開始する前に、データセットの品質とエキスパート ラベルなど、いくつかの要件を十分に準備する必要があります。データセット内では、サンプルサイズが小さく、クラスのバランスが崩れているため、モデルが大域的最小値に達し、最適な段階に到達するのが困難でした。大きなサンプルサイズを使用し、データのバランスを取ることで、トレーニング中に高精度かつ低損失でモデルを最適化できます。原生動物のライフサイクル期間を通じた発生段階や、ギムザ染色27,44による色の変化、環境スケール、画像スケールなどの画像の変化は、両方の深層学習モデルのトレーニングに入力する前に正規化されることが望まれます。上述した提案された問題を解決するために、回転角度、明るさおよびコントラスト、垂直および水平反転、ガウスノイズ、およびガウスぼかしなどの種々の拡張関数を使用して、事前訓練フェーズ45を扱うことができる。

      提案するハイブリッドAIモデルの重要な応用は、顕微鏡からの生データ、凍結画像、およびビデオクリップとしての顕微鏡データから寄生原虫をリアルタイムに識別することです。これにより、組込みエッジデバイス46、クラウドベースのモバイルアプリケーション47、ブラウザユーザインタフェース(BUI)48、およびウェブベースのモデル展開49を用いて、訓練済みモデルを展開することができる。その結果、AIモデルは、ハイブリッドディープラーニングをアクティブサーベイランスに適用し、現地スタッフの意思決定をミリ秒単位でサポートする能力により、タイムリーな結果を提供する可能性を秘めており、補助疫学のための自動スクリーニング技術を示唆しています。

      Subscription Required. Please recommend JoVE to your librarian.

      Disclosures

      すべての著者は、財務情報開示や利益相反を持っていません。

      Acknowledgments

      本研究成果(研究助成、助成金No.RGNS 65 - 212)は、高等教育・科学・研究・イノベーション省(OPS MHESI)、タイ科学研究イノベーション省(TSRI)、モンクット王工科大学ラクラバン校の事務次官室から資金援助を受けました。研究プロジェクトに資金を提供してくださったタイ国立研究評議会(NRCT)[NRCT5-RSA63001-10]に感謝します。M.K.は、チュラロンコン大学タイ科学研究イノベーション基金から資金提供を受けました。また、研究プロジェクトをサポートするためのディープラーニングプラットフォームとソフトウェアを提供してくれたラカバンのモンクット王工科大学の先進製造イノベーション大学にも感謝します。

      Materials

      Name Company Catalog Number Comments
      Darknet19, Darknet53 and Densenet201 Gao Huang, Z. L., Laurens van der Maaten. Densely Connected Convolutional Networks. arXiv:1608.06993 [cs.CV]. (2016) https://github.com/liuzhuang13/DenseNet  Deep convolutional neural network model that can function to  classification
      Generic name: YOLO model/ detection model?
      Olympus CX31 Model CX31RRBSFA  Olympus, Tokyo, Japan SN 4G42178  A light microscope 
      Olympus DP21-SAL U-TV0.5XC-3  Olympus, Tokyo, Japan SN 3D03838 A digital camera
      Generic name: Classification models/ densely CNNs
      Window 10 Microsoft Window 10 Operation system in computers
      YOLO v4-tiny  Naing, K. M. et al. Automatic recognition of parasitic products in stool examination using object detection approach. PeerJ Comput Sci. 8 e1065, (2022). https://git.cira-lab.com/users/sign_in Deep convolutional neural network model that can function to both localization and also classification 
      https://git.cira-lab.com/users/sign_in

      DOWNLOAD MATERIALS LIST

      References

      1. Kasozi, K. I., et al. Epidemiology of trypanosomiasis in wildlife-implications for humans at the wildlife interface in Africa. Frontiers in Veterinary Science. 8, 621699 (2021).
      2. Ola-Fadunsin, S. D., Gimba, F. I., Abdullah, D. A., Abdullah, F. J. F., Sani, R. A. Molecular prevalence and epidemiology of Trypanosoma evansi among cattle in peninsular Malaysia. Acta Parasitologica. 65 (1), 165-173 (2020).
      3. Aregawi, W. G., Agga, G. E., Abdi, R. D., Buscher, P. Systematic review and meta-analysis on the global distribution, host range, and prevalence of Trypanosoma evansi. Parasites & Vectors. 12 (1), 67 (2019).
      4. Joshi, P. P., et al. Human trypanosomiasis caused by Trypanosoma evansi in India: the first case report. The Am Journal of Tropical Medicine and Hygiene. 73 (3), 491-495 (2005).
      5. Lidani, K. C. F., et al. Chagas disease: from discovery to a worldwide health problem. Frontiers in Public Health. 7, 166 (2019).
      6. Sazmand, A., Desquesnes, M., Otranto, D. Trypanosoma evansi. Trends in Parasitology. 38 (6), 489-490 (2022).
      7. Powar, R. M., et al. A rare case of human trypanosomiasis caused by Trypanosoma evansi.Indian. Journal of Medical Microbiology. 24 (1), 72-74 (2006).
      8. Shegokar, V. R., et al. Short report: Human trypanosomiasis caused by Trypanosoma evansi in a village in India: preliminary serologic survey of the local population. American Journal of Tropical Medicine and Hygiene. 75 (5), 869-870 (2006).
      9. Haridy, F. M., El-Metwally, M. T., Khalil, H. H., Morsy, T. A. Trypanosoma evansi in dromedary camel: with a case report of zoonosis in greater Cairo, Egypt. Journal of the Egyptian Society of Parasitology. 41 (1), 65-76 (2011).
      10. Dey, S. K. CATT/T.evansi antibody levels in patients suffering from pyrexia of unknown origin in a tertiary care hospital in Kolkata. Research Journal of Pharmaceutical, Biological and Chemical Sciences. 5, 334-338 (2014).
      11. Dakshinkar, N. P., et al. Aberrant trypanosomias in human. Royal Veterinary Journal of India. 3 (1), 6-7 (2007).
      12. Vn Vinh Chau, N., et al. A clinical and epidemiological investigation of the first reported human infection with the zoonotic parasite Trypanosoma evansi in Southeast Asia. Clinical Infectious Diseases. 62 (8), 1002-1008 (2016).
      13. Misra, K. K., Roy, S., Choudhary, A. Biology of Trypanosoma (Trypanozoon) evansi in experimental heterologous mammalian hosts. Journal of Parasitic Diseases. 40 (3), 1047-1061 (2016).
      14. Nakayima, J., et al. Molecular epidemiological studies on animal trypanosomiases in Ghana. Parasites & Vectors. 5, 217 (2012).
      15. Riana, E., et al. The occurrence of Trypanosoma in bats from Western Thailand. The 20th Chulalongkorn University Veterinary Conference CUVC 2021: Research in practice. 51, Bangkok, Thailand. (2021).
      16. Camoin, M., et al. The Indirect ELISA Trypanosoma evansi in equids: optimisation and application to a serological survey including racing horses, in Thailand. BioMed Research International. 2019, 2964639 (2019).
      17. Truc, P., et al. Atypical human infections by animal trypanosomes. PLoS Neglected Tropical Diseases. 7 (9), 2256 (2013).
      18. Desquesnes, M., et al. Diagnosis of animal trypanosomoses: proper use of current tools and future prospects. Parasites & Vectors. 15 (1), 235 (2022).
      19. Da Silva, A. S., et al. Trypanocidal activity of human plasma on Trypanosoma evansi in mice. Revista Brasileira de Parasitologia Veterinaria. 21 (1), 55-59 (2012).
      20. Desquesnes, M., et al. Trypanosoma evansi and surra: a review and perspectives on transmission, epidemiology and control, impact, and zoonotic aspects. BioMed Research International. 2013, 321237 (2013).
      21. World Health Organization. A new form of human trypanosomiasis in India. Description of the first human case in the world caused by Trypanosoma evansi. Weekly Epidemiological Record. 80 (7), 62-63 (2005).
      22. Naing, K. M., et al. Automatic recognition of parasitic products in stool examination using object detection approach. PeerJ Computer Science. 8, 1065 (2022).
      23. Wongsrichanalai, C., Barcus, M. J., Muth, S., Sutamihardja, A., Wernsdorfer, W. H. A review of malaria diagnostic tools: microscopy and rapid diagnostic test (RDT). American Journal of Tropical Medicine and Hygiene. 77, 119-127 (2007).
      24. Rostami, A., Karanis, P., Fallahi, S. Advances in serological, imaging techniques and molecular diagnosis of Toxoplasma gondii infection. Infection. 46 (3), 303-315 (2018).
      25. Ahmad, Z., Rahim, S., Zubair, M., Abdul-Ghafar, J. Artificial intelligence (AI) in medicine, current applications and future role with special emphasis on its potential and promise in pathology: present and future impact, obstacles including costs and acceptance among pathologists, practical and philosophical considerations. A comprehensive review. Diagnostic Pathology. 16 (1), 24 (2021).
      26. Sarker, I. H. Deep learning: a comprehensive overview on techniques, taxonomy, applications and research directions. SN Computer Science. 2 (6), 420 (2021).
      27. Kittichai, V., et al. Classification for avian malaria parasite Plasmodium gallinaceum blood stages by using deep convolutional neural networks. Scientific Reports. 11 (1), 16919 (2021).
      28. Baskota, S. U., Wiley, C., Pantanowitz, L. The next generation robotic microscopy for intraoperative teleneuropathology consultation. Journal of Pathology Informatics. 11, 13 (2020).
      29. Bochkovskiy, A., Wang, C. -Y., Liao, H. -Y. M. YOLOv4: optimal speed and accuracy of object detection. arXiv. , 10934 (2004).
      30. Huang, G., Liu, Z., vander Maaten, L., Weinberger, K. Q. Densely connected convolutional networks. arXiv. , 06993 (2018).
      31. CDC-DPDx. Diagnostic procedures - Blood specimens. , Available from: https://www.cdc.gov/dpdx/diagosticprocedures/blood/specimenproc.html#print (2020).
      32. World Health Organization. Control and surveillance of African trypanosomiasis: report of a WHO expert committee. WHO Technical Report Series 881. , Available from: https://iris.who.int/bitstream/handle/10665/42087/WHO_TRS_881.pdf?sequence=1 (1998).
      33. Leber, A. L. Detection of blood parasites. Clinical Microbiology Procedures Handbook. , ASM Press. Washington, DC. (2022).
      34. Huang, L. -P., Hong, M. -H., Luo, C. -H., Mahajan, S., Chen, L. -J. A vector mosquitoes classification system based on edge computing and deep learning. Proceedings-2018 Conmference on Technologies and Applications of Artifical Intelligence. , Taichung, Taiwan. 24-27 (2018).
      35. Cihan, P., Gökçe, E., Kalipsiz, O. A review of machine learning applications in veterinary field. Kafkas Universitesi Veteriner Fakultesi Dergisi. 23 (4), 673-680 (2017).
      36. Berrar, D. Cross-validation. Encyclopedia of Bioinformatics and Computational Biology. 1, 542-545 (2019).
      37. Gaithuma, A. K., et al. A single test approach for accurate and sensitive detection and taxonomic characterization of Trypanosomes by comprehensive analysis of internal transcribed spacer 1 amplicons. PLoS Neglected Tropical Diseases. 13 (2), 0006842 (2019).
      38. Vijayalakshmi, A., Rajesh Kanna, B. Deep learning approach to detect malaria from microscopic images. Multimedia Tools and Applications. 79 (21-22), 15297-15317 (2019).
      39. Morais, M. C. C., et al. Automatic detection of the parasite Trypanosoma cruzi in blood smears using a machine learning approach applied to mobile phone images. PeerJ. 10, 13470 (2022).
      40. Uc-Cetina, V., Brito-Loeza, C., Ruiz-Pina, H. Chagas parasite detection in blood images using AdaBoost. Computational and Mathematical Methods in Medicine. 2015, 139681 (2015).
      41. Zhang, C., et al. Deep learning for microscopic examination of protozoan parasites. Computational and Structural Biotechnology Journal. 20, 1036-1043 (2022).
      42. Sarataphan, N., et al. Diagnosis of a Trypanosoma lewisi-like (Herpetosoma) infection in a sick infant from Thailand. Journal of Medical Microbiology. 56, 1118-1121 (2007).
      43. Desquesnes, M., et al. A review on the diagnosis of animal trypanosomoses. Parasites & Vectors. 15 (1), 64 (2022).
      44. Fuhad, K. M. F., et al. Deep learning based automatic malaria parasite detection from blood smear and its smartphone based application. Diagnostics (Basel). 10 (5), 329 (2020).
      45. Christian Matek, S. S., Spiekermann, K., Marr, C. Human-level recognition of blast cells in acute myeloid leukaemia with convolutional neural networks. Nature Machine Intelligence. 1, 538-544 (2019).
      46. Hamdan, S., Ayyash, M., Almajali, S. Edge-computing architectures for internet of things applications: a survey. Sensors (Basel). 20 (22), 6441 (2020).
      47. Visser, T., et al. A comparative evaluation of mobile medical APPS (MMAS) for reading and interpreting malaria rapid diagnostic tests. Malaria Journal. 20 (1), 39 (2021).
      48. Giorgi, E., Macharia, P. M., Woodmansey, J., Snow, R. W., Rowlingson, B. Maplaria: a user friendly web-application for spatio-temporal malaria prevalence mapping. Malaria Journal. 20 (1), 471 (2021).
      49. Rajaraman, S., Jaeger, S., Antani, S. K. Performance evaluation of deep neural ensembles toward malaria parasite detection in thin-blood smear images. PeerJ. 7, 6977 (2019).

      Tags

      優れた自己同定、トリパノソーマ寄生虫、ハイブリッド深層学習モデル、トリパノソーマ症、公衆衛生問題、南アジア、東南アジア、ホットスポット地域、アクティブサーベイランス、顕微鏡検査、熟練人材、人工知能(AI)プログラム、ハイブリッド深層学習技術、物体識別、物体分類、ニューラルネットワークバックボーン、ローコードAIプラットフォーム(CiRA CORE)、トリパノソーマ原生動物種、トリパノソーマ・クルジ、T. Brucei、T. Evansi、油浸顕微鏡画像、パターン認識、核および動態形成体、アテンションマップ、統計的測定、精度、再現率、特異度、精度、F1スコア、誤分類率、受信者動作特性(ROC)曲線、精度対再現率(PR)曲線
      ハイブリッド深層学習モデルを用いたトリパノソーマ寄生虫の優れた自動同定
      Play Video
      PDF DOI DOWNLOAD MATERIALS LIST

      Cite this Article

      Kittichai, V., Kaewthamasorn, M.,More

      Kittichai, V., Kaewthamasorn, M., Thanee, S., Sasisaowapak, T., Naing, K. M., Jomtarak, R., Tongloy, T., Chuwongin, S., Boonsang, S. Superior Auto-Identification of Trypanosome Parasites by Using a Hybrid Deep-Learning Model. J. Vis. Exp. (200), e65557, doi:10.3791/65557 (2023).

      Less
      Copy Citation Download Citation Reprints and Permissions
      View Video

      Get cutting-edge science videos from JoVE sent straight to your inbox every month.

      Waiting X
      Simple Hit Counter