Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Bioengineering

Automatisierung des Mikronukleus-Assays mittels bildgebender Durchflusszytometrie und künstlicher Intelligenz

Published: January 27, 2023 doi: 10.3791/64549

Summary

Der Mikronukleus-Assay (MN) ist ein etablierter Test zur Quantifizierung von DNA-Schäden. Die Bewertung des Assays mit herkömmlichen Techniken wie manueller Mikroskopie oder merkmalsbasierter Bildanalyse ist jedoch mühsam und herausfordernd. In diesem Artikel wird die Methodik zur Entwicklung eines Modells der künstlichen Intelligenz beschrieben, um den MN-Assay anhand von bildgebenden Durchflusszytometriedaten zu bewerten.

Abstract

Der Mikronukleus-Assay (MN) wird weltweit von Aufsichtsbehörden verwendet, um Chemikalien auf genetische Toxizität zu bewerten. Der Assay kann auf zwei Arten durchgeführt werden: durch Bewertung von MN in einmal geteilten, durch Zytokinese blockierten zweikernigen Zellen oder vollständig geteilten einkernigen Zellen. In der Vergangenheit war die Lichtmikroskopie die Goldstandardmethode, um den Assay zu bewerten, aber sie ist mühsam und subjektiv. Die Durchflusszytometrie wurde in den letzten Jahren zur Bewertung des Assays eingesetzt, ist jedoch durch die Unfähigkeit, wichtige Aspekte der zellulären Bildgebung visuell zu bestätigen, eingeschränkt. Die bildgebende Durchflusszytometrie (IFC) kombiniert Hochdurchsatz-Bilderfassung und automatisierte Bildanalyse und wurde erfolgreich eingesetzt, um schnell Bilder von allen Schlüsselereignissen im MN-Assay zu erfassen und zu bewerten. Kürzlich wurde gezeigt, dass Methoden der künstlichen Intelligenz (KI), die auf Convolutional Neural Networks basieren, zur Bewertung von MN-Assay-Daten verwendet werden können, die von IFC erfasst wurden. In diesem Whitepaper werden alle Schritte beschrieben, um mithilfe von KI-Software ein Deep-Learning-Modell zu erstellen, um alle wichtigen Ereignisse zu bewerten, und um dieses Modell anzuwenden, um zusätzliche Daten automatisch zu bewerten. Die Ergebnisse des KI-Deep-Learning-Modells lassen sich gut mit der manuellen Mikroskopie vergleichen und ermöglichen so eine vollautomatische Bewertung des MN-Assays durch die Kombination von IFC und KI.

Introduction

Der Mikronukleus-Assay (MN) ist in der genetischen Toxikologie von grundlegender Bedeutung, um DNA-Schäden bei der Entwicklung von Kosmetika, Pharmazeutika und Chemikalien für den menschlichen Gebrauch zu bewerten 1,2,3,4. Mikrokerne werden aus ganzen Chromosomen oder Chromosomenfragmenten gebildet, die sich nach der Teilung nicht in den Zellkern eingliedern und zu kleinen, kreisförmigen Körpern verdichten, die vom Zellkern getrennt sind. Somit kann MN als Endpunkt zur Quantifizierung von DNA-Schäden in Genotoxizitätstestsverwendet werden 1.

Die bevorzugte Methode zur Quantifizierung von MN ist in einmal geteilten zweikernigen Zellen (BNCs) durch Blockierung der Teilung mit Cytochalasin-B (Cyt-B). In dieser Version des Assays wird die Zytotoxizität auch durch das Scoring von einkernigen (MONO) und mehrkernigen (POLY) Zellen beurteilt. Der Assay kann auch durch Scoring von MN in nicht blockierten MONO-Zellen durchgeführt werden, was schneller und einfacher zu bewerten ist, wobei die Zytotoxizität anhand der Zellzählung vor und nach der Exposition bewertet wird, um die Proliferation zu beurteilen 5,6.

Die physikalische Bewertung des Assays wurde in der Vergangenheit durch manuelle Mikroskopie durchgeführt, da dies eine visuelle Bestätigung aller Schlüsselereignisse ermöglicht. Die manuelle Mikroskopie ist jedoch anspruchsvoll und subjektiv1. Daher wurden automatisierte Techniken entwickelt, darunter das Scannen von Objektträgern und die Durchflusszytometrie, die jeweils ihre eigenen Vor- und Nachteile haben. Während Objektträger-Scanning-Methoden die Visualisierung von Schlüsselereignissen ermöglichen, müssen Objektträger mit optimaler Zelldichte erstellt werden, was schwierig zu erreichen sein kann. Darüber hinaus fehlt dieser Technik oft die zytoplasmatische Visualisierung, was das Scoring von MONO- und POLY-Zellen beeinträchtigen kann 7,8. Während die Durchflusszytometrie eine Hochdurchsatz-Datenerfassung ermöglicht, müssen die Zellen lysiert werden, so dass die Verwendung der Cyt-B-Form des Assays nicht möglich ist. Darüber hinaus bietet die konventionelle Durchflusszytometrie als nicht-bildgebendes Verfahren keine visuelle Validierung von Schlüsselereignissen 9,10.

Daher wurde die bildgebende Durchflusszytometrie (IFC) untersucht, um den MN-Assay durchzuführen. Der ImageStreamX Mk II kombiniert die Geschwindigkeit und statistische Robustheit der konventionellen Durchflusszytometrie mit den hochauflösenden Bildgebungsmöglichkeiten der Mikroskopie in einem einzigen System11. Es hat sich gezeigt, dass durch den Einsatz von IFC hochauflösende Bilder aller Schlüsselereignisse erfasst und automatisch mit Hilfe von merkmalsbasierten12,13 oder Techniken der künstlichen Intelligenz (KI)14,15 bewertet werden können. Durch die Verwendung von IFC zur Durchführung des MN-Assays ist die automatische Bewertung von viel mehr Zellen im Vergleich zur Mikroskopie in kürzerer Zeit möglich.

Diese Arbeit weicht von einem zuvor beschriebenen Bildanalyse-Workflow16 ab und diskutiert alle Schritte, die erforderlich sind, um ein Random Forest (RF)- und/oder Convolutional Neural Network (CNN)-Modell unter Verwendung der Amnis AI-Software (im Folgenden als "KI-Software" bezeichnet) zu entwickeln und zu trainieren. Es werden alle notwendigen Schritte beschrieben, einschließlich der Befüllung von Ground-Truth-Daten mit KI-gestützten Tagging-Tools, der Interpretation der Ergebnisse des Modelltrainings und der Anwendung des Modells zur Klassifizierung zusätzlicher Daten, die die Berechnung der Genotoxizität und Zytotoxizität ermöglichen15.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

1. Datenerfassung mittels bildgebender Durchflusszytometrie

HINWEIS: Beziehen Sie sich auf Rodrigues et al.16 mit den folgenden Modifikationen, wobei darauf hingewiesen wird, dass die Erfassungsbereiche mit IFC möglicherweise für eine optimale Bildaufnahme geändert werden müssen:

  1. Führen Sie bei der Nicht-Cyt-B-Methode eine Zellzählung mit einem handelsüblichen Zellzähler gemäß den Anweisungen des Herstellers (siehe Materialtabelle) für jede Kultur unmittelbar vor der Kultur und unmittelbar nach der Erholungsphase durch.
  2. Wenn Sie die Proben mit einem Durchflusszytometer mit einer einzigen Kamera ausführen möchten, platzieren Sie das Hellfeld (BF) in Kanal 4. Ersetzen Sie M01 durch M04 und M07 durch M01.
    HINWEIS: "M" bezieht sich auf den Kamerakanal auf dem IFC.
  3. Verwenden Sie die 40-fache Vergrößerung während der Aufnahme.
  4. Verwenden Sie im Diagramm "BF-Fläche im Vergleich zum BF-Seitenverhältnis" während der Erfassung die folgenden Bereichskoordinaten:
    X-Koordinaten: 100 und 900; Y-Koordinaten: 0,7 und 1 (Cyt-B-Methode)
    X-Koordinaten: 100 und 600; Y-Koordinaten: 0,7 und 1
  5. Verwenden Sie im Hoechst-Intensitätsdiagramm die folgenden Regionskoordinaten:
    X-Koordinaten: 55 und 75; Y-Koordinaten: 9,5 und 15 (Cyt-B-Methode)
    X-Koordinaten: 55 und 75; Y-Koordinaten: 13 und 21 (Nicht-Cyt-B-Methode)
  6. Um Bilder von apoptotischen und nekrotischen Objekten aus den Daten zu entfernen, starten Sie das Softwarepaket IDEAS 6.3 (im Folgenden als "Bildanalysesoftware" bezeichnet; siehe Materialtabelle).
    HINWEIS: Die KI-Software wurde für die Arbeit mit .daf-Dateien entwickelt, die mit der neuesten Version der Bildanalysesoftware verarbeitet wurden. Stellen Sie sicher, dass die Bildanalysesoftware auf dem neuesten Stand ist.
  7. Speichern Sie diese Arbeit als Vorlagendatei (.ast).

2. Erstellen von .daf-Dateien für alle .rif-Dateien

  1. Die KI-Software erlaubt nur den Import von .daf-Dateien. Erstellen Sie DAF-Dateien für alle RIF-Dateien im Experiment durch Stapelverarbeitung.
  2. Klicken Sie im Menü Extras auf Batch-Datendateien und dann auf Batch hinzufügen.
  3. Wählen Sie im neuen Fenster Dateien hinzufügen aus, und wählen Sie die RIF-Dateien aus, die dem Stapel hinzugefügt werden sollen. Wählen Sie unter der Option Vorlage oder Datenanalysedatei (.ast, .daf) auswählen die zuvor erstellte AST-Datei aus.
  4. Vergeben Sie bei Bedarf einen Batch-Namen und klicken Sie auf OK , um .daf-Dateien für alle geladenen .rif-Dateien zu erstellen.

3. Erstellen eines Experiments in der KI-Software

  1. Sehen Sie sich das Flussdiagramm in Abbildung 1 an, das den Prozess der Erstellung eines Deep-Learning-Modells mit der KI-Software beschreibt.
  2. Starten Sie die KI-Software und stellen Sie sicher, dass die neueste Version installiert ist, indem Sie in der unteren linken Ecke des Fensters auf Info klicken. Wenn die neueste Version nicht installiert ist, wenden Sie sich an support@luminexcorp.com, um sie zu erhalten.
  3. Der Standardbildschirm in der Software ist der Bildschirm Neues Experiment . Verwenden Sie das Ordnersymbol, um auszuwählen, wo das Experiment gespeichert werden soll, und geben Sie einen Namen für das Experiment ein (z. B. "MN-Modell").
  4. Klicken Sie unter Experimenttyp auf das Optionsfeld neben Trainieren , um ein Trainingsexperiment zu starten, um mit der Erstellung des CNN-Modells zu beginnen. Klicken Sie auf Weiter.
    1. Optional: Wenn ein Modell zuvor trainiert wurde, kann es als Vorlage für ein neues KI-Modell verwendet und als Vorlage für die Erstellung eines neuen Modells auf dem Bildschirm Vorlagenmodell auswählen ausgewählt werden. Wenn kein Vorlagenmodell vorhanden ist, überspringen Sie diesen Schritt einfach, indem Sie auf Weiter klicken.
  5. Das nächste Bild ist das Bild Neues Modell definieren . Unter Modell wird der Name, der dem Modell in Schritt 3.3 zugewiesen wurde, automatisch ausgefüllt.
    1. Geben Sie unter Beschreibung eine Beschreibung für das Modell ein (optional), und belassen Sie die maximale Bildgröße bei 150 Pixeln.
    2. Klicken Sie unter Kanäle auf BF hinzufügen , um der Liste einen Hellfeldkanal hinzuzufügen. Doppelklicken Sie unter Name auf Brightfield und benennen Sie diesen Kanal in BF um. Klicken Sie auf FL hinzufügen , um der Liste einen fluoreszierenden Kanal hinzuzufügen. Doppelklicken Sie unter Name auf Fluoreszierend und benennen Sie diesen Kanal in DNA um.
    3. Klicken Sie unter Klassennamen auf Hinzufügen. Geben Sie im Popup-Fenster Mononucleated ein und klicken Sie auf OK. Dadurch wird die einkernige Klasse zur Liste der Klassennamen hinzugefügt. Wiederholen Sie diesen Vorgang, um sicherzustellen, dass die folgenden sechs Klassen in der Liste definiert sind:
      Einkernig
      Einkernig mit MN
      Zweikernig
      Zweikernig mit MN
      Polykernig
      Unregelmäßige Morphologie
      Klicken Sie auf Weiter.

      HINWEIS: Diese sechs Ground-Truth-Modellklassen stellen die wichtigsten Ereignisse dar, die bewertet werden sollen, sowie Bilder mit einer Morphologie, die von den akzeptierten Bewertungskriterien5 abweicht.
      1. Optional: Auf Wunsch kann die Analysevorlage aus 1.7 eingebunden werden, um Funktionen aus der Bildanalyse-Software zu nutzen. Wenn Sie diese Funktionen in das KI-Modell aufnehmen möchten, suchen Sie nach der AST-Datei, und wählen Sie dann aus den kanalspezifischen Dropdown-Menüs die Funktionsteilmengen aus, die Sie einschließen möchten.
    4. Klicken Sie unter "Dateien auswählen" auf "Dateien hinzufügen" und suchen Sie nach den gewünschten Dateien, die der KI-Software hinzugefügt werden sollen, um die Ground-Truth-Daten zu erstellen. Klicken Sie auf Weiter.
      HINWEIS: Es ist wichtig, mehrere Datendateien (z. B. Positiv- und Negativkontrolldaten) hinzuzufügen, die eine ausreichende Anzahl aller Schlüsselereignisse enthalten.
  6. Suchen Sie als Nächstes auf dem Bildschirm Basispopulationen auswählen die nicht-apoptotische Population aus der Populationshierarchie. Klicken Sie mit der rechten Maustaste auf die nicht-apoptotische Population und wählen Sie Select All Matching Populations. Klicken Sie auf Weiter.
    HINWEIS: Es ist wichtig, alle Populationen auszuschließen, die nicht klassifiziert werden sollten (z. B. Perlen, Trümmer, Dubletten usw.).
  7. Dieser Bildschirm ist der Bildschirm " Wahrheitspopulationen auswählen ".
    1. Wenn in der Bildanalysesoftware keine getaggten Wahrheitspopulationen der Schlüsselereignisse erstellt wurden, klicken Sie auf Weiter.
    2. Wenn in der Bildanalysesoftware getaggte Wahrheitspopulationen erstellt wurden, weisen Sie sie der entsprechenden Modellklasse zu.
    3. Um eine getaggte Wahrheitspopulation von MONO-Zellen mit MN zuzuweisen, klicken Sie links unter Modellklassen auf die Klasse Mononukleiert mit MN. Klicken Sie dann auf die entsprechende markierte Wahrheitspopulation auf der rechten Seite, die diese Ereignisse enthält.
    4. Wenn die markierten Wahrheitspopulationen in mehr als einer Datendatei erstellt wurden, klicken Sie mit der rechten Maustaste auf eine der Wahrheitspopulationen, und wählen Sie Alle übereinstimmenden Populationen auswählen aus, um markierte Populationen aus mehreren Dateien zur entsprechenden Klasse hinzuzufügen.
    5. Sobald alle entsprechenden Wahrheitspopulationen zugewiesen wurden, klicken Sie auf Weiter.
  8. Wählen Sie auf dem Bildschirm "Kanäle auswählen" die entsprechenden Kanäle für das Experiment aus. Stellen Sie hier BF auf Kanal 1 und Hoechst auf Kanal 7. Klicken Sie mit der rechten Maustaste auf einen Kanal und wählen Sie Auf alle anwenden aus. Klicken Sie auf Weiter.
  9. Klicken Sie abschließend auf dem Bestätigungsbildschirm auf Experiment erstellen.
  10. Die KI-Software lädt Bilder aus den Datendateien und erstellt die in Schritt 3.5.3 definierten Modellklassen mit den Ground-Truth-Bildern, die in Schritt 3.7 zugewiesen wurden. Klicken Sie auf Fertig stellen.
  11. Nachdem das Experiment erstellt wurde, werden fünf Optionen angezeigt:
    Experiment: Stellt Details zum Experiment bereit, einschließlich geladener Datendateien, ausgewählter Kanäle und definierter Ground-Truth-Modellklassen.
    Tagging: Startet das Tagging-Tool, mit dem Benutzer Ground-Truth-Daten ausfüllen können.
    Training: Trainiert ein Modell auf der Grundlage der Ground-Truth-Daten.
    Klassifizieren: Verwendet trainierte Modelle zum Klassifizieren von Daten.
    Ergebnisse: Stellt Ergebnisse sowohl aus einem Trainingsexperiment als auch aus einem Klassifizierungsexperiment bereit.

4. Befüllen der Ground-Truth-Daten mit KI-gestützten Tagging-Tools

  1. Klicken Sie auf Tagging, um die Benutzeroberfläche des Tagging-Tools zu starten.
    1. Klicken Sie auf die Zoom-Werkzeuge (Lupensymbole), um die Bilder zur einfacheren Anzeige zuzuschneiden.
    2. Klicken Sie auf den Schieberegler, um die Bildgröße anzupassen und zu ändern, wie viele Bilder in der Galerie angezeigt werden.
    3. Klicken Sie auf die Option Anzeigeeinstellung und wählen Sie Min-Max, was das beste Kontrastbild zur Identifizierung aller Schlüsselereignisse bietet.
    4. Klicken Sie auf Galerieanzeige einrichten , um die Farbe des DNA-Bildes in Gelb oder Weiß zu ändern, wodurch die Visualisierung kleiner Objekte (z. B. MN) verbessert wird.
  2. Klicken Sie auf Cluster , um den Algorithmus auszuführen und Objekte mit ähnlicher Morphologie zu gruppieren. Sobald das Clustering abgeschlossen ist, werden die einzelnen Cluster mit der Anzahl der Objekte pro Cluster in einer Liste unter Unbekannte Populationen angezeigt. Wählen Sie die einzelnen Cluster aus, um die Objekte innerhalb des Clusters anzuzeigen, und weisen Sie diese Objekte den entsprechenden Modellklassen zu.
  3. Nachdem jeder Modellklasse mindestens 25 Objekte zugewiesen wurden, wird der Predict-Algorithmus verfügbar. Klicken Sie auf Vorhersage.
    HINWEIS: Objekte, die nicht gut in eine Population passen, bleiben als unbekannt klassifiziert. Je mehr Objekte zu den Wahrheitspopulationen hinzugefügt werden, desto besser ist die Vorhersagegenauigkeit.
  4. Füllen Sie die Ground Truth-Modellklassen so lange mit den entsprechenden Bilddaten, bis eine ausreichende Anzahl von Objekten in jeder Klasse erreicht ist.
  5. Sobald jeder Modellklasse mindestens 100 Objekte zugewiesen wurden, klicken Sie oben auf dem Bildschirm auf die Registerkarte Training . Klicken Sie auf die Schaltfläche Trainieren , um ein Modell mit den Algorithmen Random Forest und CNN zu erstellen.
    HINWEIS: Die KI-Software erstellt Modelle sowohl mit dem Random Forest- als auch mit dem CNN-Algorithmus, die Kontrollkästchen erlauben die Erstellung von Modellen nur mit Random Forest von CNN-Algorithmen.

5. Bewertung der Modellgenauigkeit

  1. Sobald das Modelltraining abgeschlossen ist, klicken Sie auf Ergebnisse anzeigen.
  2. Verwenden Sie den Ergebnisbildschirm, um die Modellgenauigkeit zu bewerten. Verwenden Sie das Pulldown-Menü, um zwischen Random Forest und CNN zu wechseln.
    HINWEIS: Die Wahrheitspopulationen können aktualisiert werden, und das Modell kann neu trainiert oder unverändert verwendet werden, um zusätzliche Daten zu klassifizieren.
    1. Um die Wahrheitspopulationen zu aktualisieren, klicken Sie oben auf Tagging und folgen Sie Abschnitt 4.

6. Klassifizieren von Daten mithilfe des Modells

  1. Starten Sie die KI-Software. Der Standardbildschirm ist der Bildschirm Neues Experiment . Verwenden Sie das Ordnersymbol, um auszuwählen, wo das Experiment gespeichert werden soll, und geben Sie einen Namen für das Experiment ein.
  2. Klicken Sie unter Experimenttyp auf das Optionsfeld neben Klassifizieren , um ein Klassifizierungsexperiment zu starten. Klicken Sie auf Weiter.
  3. Klicken Sie auf das Modell, das für die Klassifizierung verwendet werden soll, und klicken Sie dann auf Weiter.
  4. Klicken Sie auf dem Bildschirm "Dateien auswählen" auf "Dateien hinzufügen" und suchen Sie nach den Dateien, die vom CNN-Modell klassifiziert werden sollen. Klicken Sie auf Weiter.
  5. Klicken Sie als Nächstes auf dem Bildschirm Basispopulationen auswählen auf das Kontrollkästchen neben der nicht-apoptotischen Population in einer der geladenen Dateien. Klicken Sie mit der rechten Maustaste auf die nicht-apoptotische Population und klicken Sie auf Select All Matching Populations , um diese Population aus allen geladenen Dateien auszuwählen. Klicken Sie auf Weiter.
  6. Optional: Wenn die zu klassifizierenden Daten Wahrheitspopulationen enthalten, können diese auf dem Bild Wahrheitspopulationen auswählen den entsprechenden Modellklassen zugeordnet werden. Klicken Sie andernfalls auf Weiter, um diesen Schritt zu überspringen.
  7. Wählen Sie auf dem Bildschirm " Kanäle auswählen" Kanal 1 für Hellfeld und Kanal 7 für die DNA-Färbung aus. Klicken Sie mit der rechten Maustaste auf einen Kanal und klicken Sie auf Auf alle anwenden. Klicken Sie dann auf Weiter.
  8. Klicken Sie abschließend auf dem Bestätigungsbildschirm auf Experiment erstellen. Die KI-Software lädt das ausgewählte Modell und alle Bilder aus den ausgewählten Datendateien. Klicken Sie auf Fertig stellen.
  9. Klicken Sie auf Klassifizieren , um den Klassifizierungsbildschirm zu öffnen. Klicken Sie auf die Schaltfläche Klassifizieren . Dadurch wird der Prozess der Verwendung des RF- und CNN-Modells gestartet, um zusätzliche Daten zu klassifizieren und alle Objekte zu identifizieren, die zu den angegebenen Modellklassen gehören.
    HINWEIS: Die Kontrollkästchen können verwendet werden, um das HF-Modell und/oder das CNN-Modell auszuwählen.
  10. Sobald die Klassifizierung abgeschlossen ist, klicken Sie auf Ergebnisse anzeigen.
  11. Klicken Sie auf die Schaltfläche DAFs aktualisieren, um das Fenster DAFs mit Klassifizierungsergebnissen aktualisieren aufzurufen. Klicken Sie auf OK, um die .daf-Dateien zu aktualisieren.

7. Generieren eines Berichts über die Klassifizierungsergebnisse

  1. Klicken Sie auf dem Ergebnisbildschirm auf Bericht erstellen. Aktivieren Sie das Kontrollkästchen neben Bericht für jeden Eingangs-DAF erstellen, wenn ein individueller Bericht für jeden Eingangs-DAF erforderlich ist. Klicken Sie auf OK.
  2. Wenn Sie fertig sind, öffnen Sie den Ordner, in dem die Berichtsdateien gespeichert wurden. Innerhalb des Ordners befinden sich ein Experiment .pdf Bericht und ein Ressourcenordner.
  3. Öffnen Sie die .pdf, um den Bericht anzuzeigen. Der Bericht enthält Modell- und Experimentinformationen, die Liste der DAF-Eingabedateien, die Klassenanzahl und die Klassenprozentsätze im Tabellen- und Histogrammformat sowie eine Konfusionsmatrix, die die mittlere Vorhersagewahrscheinlichkeit für alle DAF-Eingabedateien zusammenfasst.
  4. Öffnen Sie den Ordner Resources und dann den Ordner CNN . In diesem Ordner befinden sich .png Dateien der Klassenanzahl und der prozentualen Balkendiagramme sowie der Konfusionsmatrix. Darüber hinaus gibt es .csv Dateien, die die Klassenanzahl und die Prozentsätze für jede Eingabedatei enthalten.

8. Bestimmung der MN-Häufigkeit und Zytotoxizität

  1. Berechnung der MN-Frequenz
    1. Nicht-Cyt-B-Methode: Um die MN-Frequenz zu bestimmen, öffnen Sie die class_count.csv Datei aus Schritt 7.4. Teilen Sie für jede Eingabedatei die Anzahl in der Population "Mononucleated with MN" durch die Anzahl in der Population "Mononucleated" und multiplizieren Sie sie mit 100:
      Equation 1
    2. Cyt-B-Methode: Um die MN-Frequenz zu bestimmen, öffnen Sie die class_count.csv Datei aus Schritt 7.4. Teilen Sie für jede Eingabedatei die Anzahl in der Population "Zweikernig mit MN" durch die Anzahl in der Population "Zweikernig" und multiplizieren Sie sie mit 100:
      Equation 2
  2. Berechnung der Zytotoxizität
    1. Nicht-Cyt-B-Methode:
      1. Berechnen Sie anhand der anfänglichen Zellzahlen und der Zellzahlen nach der Behandlung zunächst die Verdopplung der Grundgesamtheit (PD) für jede Stichprobe2:
        Equation 3
      2. Berechnen Sie als Nächstes die relative Bevölkerungsverdopplung2:
        Equation 4
      3. Berechnen Sie abschließend die Zytotoxizität2 für jede Probe:
        Equation 5
    2. Cyt-B-Methode:
      1. Um den Zytokinese-Block-Proliferationsindex (CBPI)2 zu berechnen, verwenden Sie die Zählungen in den einkernigen, zweikernigen und mehrkernigen Klassen für jede Probe aus der class_count.csv Datei:
        Equation 6
      2. Um die Zytotoxizität2 zu berechnen, verwenden Sie den CBPI aus den Kontrollkulturen (C) und den exponierten Kulturen (T):
        Equation 7

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Abbildung 1 zeigt den Arbeitsablauf für die Verwendung der KI-Software zur Erstellung eines Modells für den MN-Assay. Der Benutzer lädt die gewünschten .daf-Dateien in die KI-Software und weist dann den Ground-Truth-Modellklassen mithilfe der KI-gestützten Cluster- (Abbildung 2) und Predict-Tagging-Algorithmen (Abbildung 3) Objekte zu. Sobald alle Ground-Truth-Modellklassen mit ausreichend Objekten gefüllt wurden, kann das Modell mit den RF- oder CNN-Algorithmen trainiert werden. Nach dem Training kann die Leistung des Modells mithilfe von Werkzeugen wie Klassenverteilungshistogrammen, Genauigkeitsstatistiken und einer interaktiven Konfusionsmatrix bewertet werden (Abbildung 4). Vom Ergebnisbildschirm in der KI-Software aus kann der Benutzer entweder zum Trainingsteil des Workflows zurückkehren, um die Ground-Truth-Daten zu verbessern, oder, wenn eine ausreichende Genauigkeit erreicht wurde, kann der Benutzer das Modell verwenden, um zusätzliche Daten zu klassifizieren.

Sowohl mit dem Cluster- als auch mit dem Predict-Algorithmus wurden 190 Segmente mit insgesamt 285.000 Objekten den richtigen Ground-Truth-Klassen zugeordnet, bis alle Klassen mit 1.500 bis 10.000 Bildern gefüllt waren. Insgesamt wurden 31.500 Objekte (nur 10,5 % der ursprünglich geladenen Objekte) für das Training dieses Modells verwendet. Präzision (Prozentsatz der falsch positiven Ergebnisse), Erinnerung (Prozentsatz der falsch negativen Ergebnisse) und F1-Wert (Gleichgewicht zwischen Präzision und Abruf) sind im Deep-Learning-Softwarepaket verfügbar, um die Modellgenauigkeit zu quantifizieren. Hier reichten diese Werte von 86,0 % bis 99,4 %, was auf eine hohe Modellgenauigkeit hindeutet (Abbildung 4).

Unter Verwendung von Cyt-B lagen die Hintergrund-MN-Frequenzen für alle Kontrollproben zwischen 0,43 % und 1,69 %, verglichen mit Literatur17. Statistisch signifikante Anstiege der MN-Frequenz, die von 2,09 % bis 9,50 % für (Mitomycin C) MMC und von 2,99 % bis 7,98 % für Etoposid reichten, wurden im Vergleich zu Lösungsmittelkontrollen beobachtet und gut mit manuellem Mikroskopie-Scoring verglichen. Bei der Untersuchung der Negativkontrolle Mannitol wurden keine signifikanten Anstiege der MN-Häufigkeit beobachtet. Darüber hinaus wurde sowohl für Etoposid als auch für MMC eine zunehmende Zytotoxizität mit der Dosis beobachtet, wobei sowohl die Mikroskopie als auch die KI ähnliche Trends über den gesamten Dosisbereich zeigten. Für Mannitol wurde kein beobachtbarer Anstieg der Zytotoxizität beobachtet (Abbildung 5).

Wenn Cyt-B nicht verwendet wurde, lagen die Hintergrund-MN-Frequenzen für alle Kontrollproben zwischen 0,38 % und 1,0 %, was mit den in der Literatur veröffentlichten Ergebnissen übereinstimmt17. Statistisch signifikante Anstiege der MN-Frequenz, die von 2,55 % bis 7,89 % für MMC und von 2,37 % bis 5,13 % für Etoposid reichten, wurden im Vergleich zu Lösungsmittelkontrollen beobachtet und gut mit manuellem Mikroskopie-Scoring verglichen. Bei der Untersuchung der Negativkontrolle Mannitol wurden keine signifikanten Anstiege der MN-Häufigkeit beobachtet. Darüber hinaus wurde sowohl für Etoposid als auch für MMC eine zunehmende Zytotoxizität mit der Dosis beobachtet, wobei sowohl die Mikroskopie als auch die KI ähnliche Trends über den gesamten Dosisbereich zeigten. Für Mannitol wurde kein beobachtbarer Anstieg der Zytotoxizität beobachtet (Abbildung 5).

Bei der mikroskopischen Bewertung wurden aus jeder Kultur 1.000 zweikernige Zellen bewertet, um die MN-Frequenz zu beurteilen, und weitere 500 einkernige, zweikernige oder mehrkernige Zellen, um die Zytotoxizität in der Cyt-B-Version des Assays zu bestimmen. In der Nicht-Cyt-B-Version des Assays wurden 1.000 einkernige Zellen bewertet, um die MN-Frequenz zu bestimmen. Nach IFC wurden durchschnittlich 7.733 zweikernige Zellen, 6.493 einkernige Zellen und 2.649 mehrkernige Zellen pro Kultur bewertet, um die Zytotoxizität zu bestimmen. Die MN-Frequenz wurde innerhalb der zweikernigen Zellpopulation für die Cyt-B-Version des Assays bestimmt. Für die nicht-Cyt-B-Version des Assays wurden durchschnittlich 27.866 mononukleäre Zellen auf das Vorhandensein von MN untersucht (Abbildung 5).

Figure 1
Abbildung 1: KI-Software-Workflow. Der Benutzer wählt zunächst die .daf-Dateien aus, die in die KI-Software geladen werden sollen. Sobald die Daten geladen wurden, beginnt der Benutzer über die Benutzeroberfläche mit der Zuweisung von Objekten zu den Ground-Truth-Modellklassen. Um die Ground-Truth-Population zu unterstützen, können die Cluster- und Vorhersagealgorithmen verwendet werden, um Bilddaten mit ähnlicher Morphologie zu identifizieren. Sobald jeder Modellklasse genügend Objekte hinzugefügt wurden, kann das Modell trainiert werden. Nach dem Training kann der Benutzer die Leistung des Modells mit den bereitgestellten Werkzeugen, einschließlich einer interaktiven Konfusionsmatrix, bewerten. Schließlich kann der Benutzer entweder zum Trainingsteil des Workflows zurückkehren, um die Ground-Truth-Daten zu verbessern, oder, wenn eine ausreichende Genauigkeit erreicht wurde, kann der Benutzer die Trainings-/Tagging-Workflow-Schleife verlassen und das Modell verwenden, um zusätzliche Daten zu klassifizieren. Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

Figure 2
Abbildung 2: Cluster-Algorithmus. Der Cluster-Algorithmus kann jederzeit auf einem Segment von 1.500 Objekten ausgeführt werden, die zufällig aus den Eingabedaten ausgewählt werden. Dieser Algorithmus gruppiert ähnliche Objekte innerhalb eines Segments entsprechend der Morphologie von nicht klassifizierten Objekten und Objekten, die den Ground-Truth-Modellklassen zugewiesen wurden. Beispielbilder zeigen zweikernige, einkernige und mehrkernige Zellen sowie Zellen mit unregelmäßiger Morphologie. Cluster mit einkernigen Zellen befinden sich auf einer Seite der Objektzuordnung, während sich Cluster mit mehrkernigen Zellen auf der gegenüberliegenden Seite der Objektzuordnung befinden. Zweikernige Zellcluster liegen irgendwo zwischen ein- und mehrkernigen Zellclustern. Schließlich fallen Cluster mit unregelmäßiger Morphologie in einen ganz anderen Bereich der Objektkarte. Die Benutzeroberfläche ermöglicht das Hinzufügen ganzer Cluster oder ausgewählter Objekte innerhalb von Clustern zu den Ground-Truth-Modellklassen. Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

Figure 3
Abbildung 3: Vorhersagealgorithmus. Der Vorhersagealgorithmus erfordert mindestens 25 Objekte in jeder Ground-Truth-Modellklasse und versucht, die am besten geeignete Modellklasse vorherzusagen, um nicht klassifizierte Objekte innerhalb eines Segments zuzuweisen. Der Vorhersagealgorithmus ist im Vergleich zum Clusteralgorithmus robuster in Bezug auf die Identifizierung subtiler Morphologien in Bildern (d.h. einkernige Zellen mit MN [gelb] im Vergleich zu einkernigen Zellen ohne MN [rot]). Objekte mit diesen Ähnlichkeiten werden in unmittelbarer Nähe auf der Objektkarte platziert. Der Benutzer ist jedoch leicht in der Lage, die Bilder in jeder vorhergesagten Klasse zu untersuchen und Objekte der entsprechenden Modellklasse zuzuweisen. Objekte, für die der Algorithmus keine Klasse vorhersagen kann, bleiben als "unbekannt" erhalten. Der Vorhersagealgorithmus ermöglicht es Benutzern, die Ground-Truth-Modellklassen schnell zu füllen, insbesondere bei Ereignissen, die als selten gelten und in den Eingabedaten nur schwer zu finden sind, wie z. B. mikrokernige Zellen. Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

Figure 4
Abbildung 4: Konfusionsmatrix mit Modellergebnissen. Der Ergebnisbildschirm der KI-Software bietet dem Benutzer drei verschiedene Werkzeuge zur Bewertung der Modellgenauigkeit. (A) Die Klassenverteilungshistogramme ermöglichen es dem Benutzer, auf die Klassen des Histogramms zu klicken, um die Beziehung zwischen Objekten in den Wahrheitspopulationen und Objekten zu bewerten, von denen vorhergesagt wurde, dass sie zu dieser Modellklasse gehören. Im Allgemeinen gilt: Je näher die Prozentwerte zwischen der Wahrheit und den vorhergesagten Grundgesamtheiten für eine bestimmte Modellklasse beieinander liegen, desto genauer ist das Modell. (B) Die Tabelle mit den Genauigkeitsstatistiken ermöglicht es dem Benutzer, drei gängige Metriken für maschinelles Lernen zu bewerten, um die Modellgenauigkeit zu bewerten: Präzision, Abruf und F1. Im Allgemeinen gilt: Je näher diese Metriken an 100 % liegen, desto genauer ist das Modell bei der Identifizierung von Ereignissen in den Modellklassen. Schließlich (C) liefert die interaktive Konfusionsmatrix einen Hinweis darauf, wo das Modell Ereignisse falsch klassifiziert. Die Einträge auf der Achse (grün) zeigen Objekte aus den Ground-Truth-Daten an, die während des Trainings korrekt klassifiziert wurden. Off-Axis-Einträge (orange schattiert) weisen auf Objekte aus den Ground-Truth-Daten hin, die falsch klassifiziert wurden. Es werden verschiedene Beispiele für falsch klassifizierte Objekte gezeigt, darunter (i) eine einkernige Zelle, die als einkernige Zelle mit MN klassifiziert ist, (ii) eine zweikernige Zelle, die als zweikernige Zelle mit MN klassifiziert ist, (iii) eine einkernige Zelle, die als eine Zelle mit unregelmäßiger Morphologie klassifiziert ist, (iv) eine zweikernige Zelle mit MN, die als eine Zelle mit unregelmäßiger Morphologie klassifiziert ist, und (v) eine zweikernige Zelle mit einer MN, die als zweikernige Zelle klassifiziert ist. Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

Figure 5
Abbildung 5: Ergebnisse der Genotoxizität und Zytotoxizität. Genotoxizität, gemessen anhand des prozentualen MN-Gehalts durch Mikroskopie (klare Balken) und AI (gestrichelte Balken) nach einer 3-stündigen Exposition und einer 24-stündigen Erholung für Mannitol, Etoposid und MMC unter Verwendung der (A-C) Cyt-B- und (D-F) Nicht-Cyt-B-Methode. Statistisch signifikante Anstiege der MN-Häufigkeit im Vergleich zu Kontrollen sind durch Sternchen gekennzeichnet (*p < 0,001, Fisher's Exact Test). Fehlerbalken stellen die Standardabweichung des Mittelwerts von drei Replikatkulturen an jedem Dosispunkt dar, mit Ausnahme der MMC durch Mikroskopie, bei der nur doppelte Kulturen bewertet wurden. Diese Abbildung wurde von Rodrigues et al.15 modifiziert. Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Die hier vorgestellte Arbeit beschreibt den Einsatz von Deep-Learning-Algorithmen zur Automatisierung des Scorings des MN-Assays. Mehrere neuere Veröffentlichungen haben gezeigt, dass intuitive, interaktive Werkzeuge die Erstellung von Deep-Learning-Modellen zur Analyse von Bilddaten ermöglichen, ohne dass tiefgreifende Rechenkenntnisse erforderlich sind18,19. Das in dieser Arbeit beschriebene Protokoll, das ein benutzeroberflächengesteuertes Softwarepaket verwendet, wurde so konzipiert, dass es gut mit sehr großen Datendateien funktioniert und die Erstellung von Deep-Learning-Modellen mit Leichtigkeit ermöglicht. Alle notwendigen Schritte zum Erstellen und Trainieren von HF- und CNN-Modellen im KI-Softwarepaket werden diskutiert und ermöglichen eine hochgenaue Identifizierung und Quantifizierung aller Schlüsselereignisse sowohl in der Cyt-B- als auch in der Nicht-Cyt-B-Version des Assays. Abschließend werden die Schritte zur Verwendung dieser Deep-Learning-Modelle zur Klassifizierung zusätzlicher Daten und zur Bewertung der chemischen Zytotoxizität und MN-Häufigkeit beschrieben.

Die in dieser Arbeit verwendete KI-Software wurde mit einer komfortablen Benutzeroberfläche erstellt und so konstruiert, dass sie problemlos mit großen Datensätzen arbeiten kann, die von IFC-Systemen generiert wurden. Das Training, die Auswertung und die Erweiterung von Deep-Learning-Modellen folgen einem einfachen iterativen Ansatz (Abbildung 1), und die Anwendung der trainierten Modelle zur Klassifizierung zusätzlicher Daten kann in nur wenigen Schritten durchgeführt werden. Die Software enthält ausgeprägte Cluster- (Abbildung 2) und Vorhersagealgorithmen (Abbildung 3), die eine schnelle Zuordnung von Objekten zu geeigneten Ground-Truth-Modellklassen ermöglichen. Das Protokoll in diesem Artikel zeigt, wie ein CNN-Modell, das mit KI-Software konstruiert und trainiert wurde, in der Lage ist, alle Schlüsselereignisse im MN-Assay robust zu identifizieren. Es liefert Ergebnisse, die sich gut mit herkömmlicher Mikroskopie vergleichen lassen, wodurch die Notwendigkeit von Bildanalyse und Computercodierung entfällt. Darüber hinaus ermöglichen die interaktiven Modellergebnisse (Abbildung 4) die Untersuchung spezifischer Ereignisse, die das Modell falsch klassifiziert. Der iterative Prozess ermöglicht es, diese falsch klassifizierten Ereignisse den entsprechenden Modellklassen zuzuweisen, sodass das Modell erneut trainiert werden kann, um die Genauigkeit zu verbessern.

Die hier vorgestellten Ergebnisse (Abbildung 5) zeigen die Auswertung von Mannitol, Etoposid und MMC mittels Mikroskopie und eines in der KI-Software erstellten CNN-Modells. Unter Verwendung beider Versionen des MN-Assays, die mit einem einzigen KI-Modell ausgewertet wurden, stimmt ein Anstieg der Zytotoxizität mit steigenden Dosen sowohl für MMC als auch für Etoposid überein, während die Exposition gegenüber Mannitol wie erwartet nicht zu einer Erhöhung der Zytotoxizität führt. Für die Bewertung der Genotoxizität wurden signifikante (Fisher's Exact Test, einseitig) Erhöhungen der MN-Häufigkeit unter Verwendung von MMC und Etoposid, aber nicht unter Verwendung von Mannitol nachgewiesen. Die Ergebnisse sowohl für die Mikroskopie als auch für das KI-Modell verglichen sich gut über die Dosisbereiche für jede getestete Chemikalie.

In mehreren früheren Veröffentlichungen wurde gezeigt, dass ein IFC-basierter MN-Assay mit unkomplizierten und einfachen Probenvorbereitungsschritten zusammen mit einer bildbasierten Analyse unter Verwendung von Masken (Regions of Interest, die Pixel in einem Bild hervorheben) und Merkmalen, die mit diesen Masken berechnet wurden, durchgeführt werden kann, um alle Schlüsselereignisse automatisch zu bewerten12,13,16 . Dieser IFC-basierte Assay nutzt die Stärken von IFC, einschließlich der Hochdurchsatz-Bilderfassung, der vereinfachten Probenverarbeitung mit einfachen DNA-Farbstoffen und der automatisierten Differenzierung zellulärer Bilddaten mit einer Morphologie, die mit den veröffentlichten MN-Assay-Bewertungskriterien übereinstimmt. Dieser Workflow enthielt jedoch auch Nachteile, wie z. B. die Komplexität merkmalsbasierter Analysetechniken, die oft starr sind und fortgeschrittene Kenntnisse von Bildanalyse-Softwarepaketenerfordern 12. Der Einsatz von Deep Learning zur Analyse von MN-Daten, die von IFC erfasst wurden, zeigt, dass CNNs verwendet werden können, um sich von den Einschränkungen und Schwierigkeiten merkmalsbasierter Analysen zu lösen und Ergebnisse zu liefern, die hochgenau sind und sich gut mit Mikroskopie-Scoringvergleichen lassen 14,15. Obwohl dieser KI-basierte Ansatz vielversprechend ist, sollten weitere Studien mit einer erweiterten Auswahl gut beschriebener Chemikalien durchgeführt werden, um die Robustheit der Technik weiter zu testen und zu validieren. Diese Arbeit demonstriert die Vorteile der IFC gegenüber traditionelleren Methoden wie der Mikroskopie und der konventionellen Durchflusszytometrie, um die Leistung von Assays mit anspruchsvollen Morphologien und strengen Bewertungsanforderungen zu verbessern.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Die Autoren sind angestellt bei der Luminex Corporation, einem DiaSorin-Unternehmen, dem Hersteller des bildgebenden Durchflusszytometers ImageStream und der in dieser Arbeit verwendeten Software Amnis AI.

Acknowledgments

Nichts.

Materials

Name Company Catalog Number Comments
15 mL centrifuge tube Falcon 352096
Cleanser - Coulter Clenz  Beckman Coulter 8546931 Fill container with 200 mL of Cleanser.  https://www.beckmancoulter.com/wsrportal/page/itemDetails?itemNumber=8546931#2/10//0/25/
1/0/asc/2/8546931///0/1//0/
Colchicine MilliporeSigma 64-86-8
Corning bottle-top vacuum filter  MilliporeSigma CLS430769 0.22 µm filter, 500 mL bottle
Cytochalasin B MilliporeSigma 14930-96-2 5 mg bottle
Debubbler - 70% Isopropanol MilliporeSigma 1.3704 Fill container with 200 mL of Debubbler.  http://www.emdmillipore.com/US/en/product/2-Propanol-70%25-%28V%2FV%29-0.1-%C2%B5m-filtred,MDA_CHEM-137040?ReferrerURL=https%3A%2F%2Fwww.google.com%2F
Dimethyl Sulfoxide (DMSO) MilliporeSigma 67-68-5
Dulbecco's Phosphate Buffered Saline 1X EMD Millipore BSS-1006-B PBS Ca++MG++ Free 
Fetal Bovine Serum HyClone SH30071.03
Formaldehyde, 10%, methanol free, Ultra Pure Polysciences, Inc. 04018 This is what is used for the 4% and 1% Formalin. CAUTION: Formalin/Formaldehyde toxic by inhalation and if swallowed.  Irritating to the eyes, respiratory systems and skin.  May cause sensitization by inhalation or skin contact. Risk of serious damage to eyes.  Potential cancer hazard.  http://www.polysciences.com/default/catalog-products/life-sciences/histology-microscopy/fixatives/formaldehydes/formaldehyde-10-methanol-free-pure/
Guava Muse Cell Analyzer Luminex 0500-3115 A standard configuration Guava Muse Cell Analyzer was used.
Hoechst 33342 Thermo Fisher H3570 10 mg/mL solution
Mannitol MilliporeSigma 69-65-8
MEM Non-Essential Amino Acids 100X HyClone SH30238.01
MIFC - ImageStreamX Mark II Luminex, a DiaSorin company 100220 A 2 camera ImageStreamX Mark II eqiped with the 405 nm, 488 nm, and 642 nm lasers was used.
MIFC analysis software - IDEAS Luminex, a DiaSorin company 100220 "Image analysis sofware"
The companion software to the MIFC (ImageStreamX MKII)
MIFC software - INSPIRE Luminex, a DiaSorin company 100220 "Image acquisition software"
This is the software that runs the MIFC (ImageStreamX MKII)
Amnis AI software Luminex, a DiaSorin company 100221 "AI software"
This is the software that permits the creation of artificial intelligence models to analyze data
Mitomycin C MilliporeSigma 50-07-7
NEAA Mixture 100x Lonza BioWhittaker 13-114E
Penicllin/Streptomycin/Glutamine solution 100X Gibco 15070063
Potassium Chloride (KCl) MilliporeSigma P9541
Rinse - Ultrapure water or deionized water NA NA Use any ultrapure water or deionized water.  Fill container with 900 mL of Rinse.
RNase MilliporeSigma 9001-99-4
RPMI-1640 Medium 1x HyClone SH30027.01
Sheath - PBS MilliporeSigma BSS-1006-B This is the same as Dulbecco's Phosphate Buffered Saline 1x  Ca++MG++ free.  Fill container with 900 mL of Sheath.
Sterile water HyClone SH30529.01
Sterilizer - 0.4%–0.7% Hypochlorite VWR JT9416-1 This is assentually 10% Clorox bleach that can be made by deluting Clorox bleach with water.  Fill container with 200 mL of Sterilzer.
T25 flask Falcon 353109
T75 flask Falcon 353136
TK6 cells MilliporeSigma 95111735

DOWNLOAD MATERIALS LIST

References

  1. Fenech, M., et al. HUMN project initiative and review of validation, quality control and prospects for further development of automated micronucleus assays using image cytometry systems. International Journal of Hygiene and Environmental Health. 216 (5), 541-552 (2013).
  2. OECD. Test No. 487: In Vitro Mammalian Cell Micronucleus Test. Section 4. OECD Guidelines for the Testing of Chemicals. , OECD Publishing. Paris. (2016).
  3. Fenech, M. The in vitro micronucleus technique. Mutation Research/Fundamental and Molecular Mechanisms of Mutagenesis. 455 (1), 81-95 (2000).
  4. Bonassi, S., et al. An increased micronucleus frequency in peripheral blood lymphocytes predicts the risk of cancer in humans. Carcinogenesis. 28 (3), 625-631 (2007).
  5. Fenech, M. Cytokinesis-block micronucleus cytome assay. Nature Protocols. 2 (5), 1084-1104 (2007).
  6. Fenech, M. Commentary on the SFTG international collaborative study on the in vitro micronucleus test: To Cyt-B or not to Cyt-B. Mutation Research/Fundamental and Molecular Mechanisms of Mutagenesis. 607 (1), 9-12 (2006).
  7. Seager, A. L., et al. Recommendations, evaluation and validation of a semi-automated, fluorescent-based scoring protocol for micronucleus testing in human cells. Mutagenesis. 29 (3), 155-164 (2014).
  8. Rossnerova, A., Spatova, M., Schunck, C., Sram, R. J. Automated scoring of lymphocyte micronuclei by the MetaSystems Metafer image cytometry system and its application in studies of human mutagen sensitivity and biodosimetry of genotoxin exposure. Mutagenesis. 26 (1), 169-175 (2011).
  9. Bryce, S. M., Bemis, J. C., Avlasevich, S. L., Dertinger, S. D. In vitro micronucleus assay scored by flow cytometry provides a comprehensive evaluation of cytogenetic damage and cytotoxicity. Mutation Research/Genetic Toxicology and Environmental Mutagenesis. 630 (1), 78-91 (2007).
  10. Avlasevich, S. L., Bryce, S. M., Cairns, S. E., Dertinger, S. D. In vitro micronucleus scoring by flow cytometry: Differential staining of micronuclei versus apoptotic and necrotic chromatin enhances assay reliability. Environmental and Molecular Mutagenesis. 47 (1), 56-66 (2006).
  11. Basiji, D. A. Principles of Amnis imaging flow cytometry. Methods in Molecular Biology. 1389, 13-21 (2016).
  12. Rodrigues, M. A. Automation of the in vitro micronucleus assay using the Imagestream® imaging flow cytometer. Cytometry Part A. 93 (7), 706-726 (2018).
  13. Verma, J. R., et al. Investigating FlowSight® imaging flow cytometry as a platform to assess chemically induced micronuclei using human lymphoblastoid cells in vitro. Mutagenesis. 33 (4), 283-289 (2018).
  14. Wills, J. W., et al. Inter-laboratory automation of the in vitro micronucleus assay using imaging flow cytometry and deep learning. Archives of Toxicology. 95 (9), 3101-3115 (2021).
  15. Rodrigues, M. A., et al. The in vitro micronucleus assay using imaging flow cytometry and deep learning. Npj Systems Biology and Applications. 7 (1), 20 (2021).
  16. Rodrigues, M. A. An automated method to perform the in vitro micronucleus assay using multispectral imaging flow cytometry. Journal of Visualized Experiments. (147), e59324 (2019).
  17. Lovell, D. P., et al. Analysis of negative historical control group data from the in vitro micronucleus assay using TK6 cells. Mutation Research/Genetic Toxicology and Environmental Mutagenesis. 825, 40-50 (2018).
  18. Berg, S., et al. ilastik: interactive machine learning for (bio)image analysis. Nature Methods. 16 (12), 1226-1232 (2019).
  19. Hennig, H., et al. An open-source solution for advanced imaging flow cytometry data analysis using machine learning. Methods. 112, 201-210 (2017).

Tags

Bioengineering Ausgabe 191 Mikrokernassay Genotoxizität Zytotoxizität bildgebende Durchflusszytometrie Bildanalyse maschinelles Lernen künstliche Intelligenz
Automatisierung des Mikronukleus-Assays mittels bildgebender Durchflusszytometrie und künstlicher Intelligenz
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Rodrigues, M. A., Gracia García More

Rodrigues, M. A., Gracia García Mendoza, M., Kong, R., Sutton, A., Pugsley, H. R., Li, Y., Hall, B. E., Fogg, D., Ohl, L., Venkatachalam, V. Automation of the Micronucleus Assay Using Imaging Flow Cytometry and Artificial Intelligence. J. Vis. Exp. (191), e64549, doi:10.3791/64549 (2023).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter