Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Bioengineering

Automatisation du test du micronoyau à l’aide de la cytométrie en flux d’imagerie et de l’intelligence artificielle

Published: January 27, 2023 doi: 10.3791/64549

Summary

Le test du micronoyau (MN) est un test bien établi pour quantifier les dommages à l’ADN. Cependant, la notation du test à l’aide de techniques conventionnelles telles que la microscopie manuelle ou l’analyse d’images basée sur des caractéristiques est laborieuse et difficile. Cet article décrit la méthodologie pour développer un modèle d’intelligence artificielle pour noter le test MN à l’aide de données de cytométrie de flux d’imagerie.

Abstract

Le test du micronoyau (MN) est utilisé dans le monde entier par les organismes de réglementation pour évaluer la toxicité génétique des produits chimiques. Le test peut être effectué de deux manières: en marquant MN dans des cellules binucléées une fois divisées, bloquées par cytocinèse ou des cellules mononucléées entièrement divisées. Historiquement, la microscopie optique a été la méthode de référence pour noter le test, mais elle est laborieuse et subjective. La cytométrie en flux a été utilisée ces dernières années pour évaluer le test, mais elle est limitée par l’incapacité de confirmer visuellement les aspects clés de l’imagerie cellulaire. La cytométrie de flux d’imagerie (IFC) combine la capture d’images à haut débit et l’analyse automatisée des images, et a été appliquée avec succès pour acquérir rapidement des images et marquer tous les événements clés du test MN. Récemment, il a été démontré que les méthodes d’intelligence artificielle (IA) basées sur des réseaux neuronaux convolutifs peuvent être utilisées pour évaluer les données de test MN acquises par IFC. Ce document décrit toutes les étapes d’utilisation d’un logiciel d’IA pour créer un modèle d’apprentissage en profondeur afin de noter tous les événements clés et d’appliquer ce modèle pour noter automatiquement des données supplémentaires. Les résultats du modèle d’apprentissage profond de l’IA se comparent bien à la microscopie manuelle, permettant ainsi une notation entièrement automatisée du test MN en combinant IFC et IA.

Introduction

Le test du micronoyau (MN) est fondamental en toxicologie génétique pour évaluer les dommages à l’ADN dans le développement de cosmétiques, de produits pharmaceutiques et de produits chimiques à usage humain 1,2,3,4. Les micronoyaux sont formés à partir de chromosomes entiers ou de fragments de chromosomes qui ne s’incorporent pas dans le noyau après la division et se condensent en petits corps circulaires séparés du noyau. Ainsi, MN peut être utilisé comme critère d’évaluation pour quantifier les dommages à l’ADN dans les essais de génotoxicité1.

La méthode préférée pour quantifier la MN est dans les cellules binucléées (BNC) une fois divisées en bloquant la division à l’aide de la cytochalasine-B (Cyt-B). Dans cette version du test, la cytotoxicité est également évaluée en marquant les cellules mononucléées (MONO) et polynucléées (POLY). Le test peut également être effectué en marquant MN dans les cellules MONO non bloquées, ce qui est plus rapide et plus facile à noter, la cytotoxicité étant évaluée à l’aide du nombre de cellules pré- et post-exposition pour évaluer la prolifération 5,6.

La notation physique du test a toujours été effectuée par microscopie manuelle, car cela permet une confirmation visuelle de tous les événements clés. Cependant, la microscopie manuelle est difficile et subjective1. Ainsi, des techniques automatisées ont été développées, y compris le balayage de lames de microscope et la cytométrie en flux, chacune avec ses propres avantages et limites. Alors que les méthodes de balayage des lames permettent de visualiser les événements clés, les lames doivent être créées à une densité cellulaire optimale, ce qui peut être difficile à réaliser. De plus, cette technique manque souvent de visualisation cytoplasmique, ce qui peut compromettre la notation des cellules MONO et POLY 7,8. Bien que la cytométrie en flux offre une capture de données à haut débit, les cellules doivent être lysées, ce qui ne permet pas l’utilisation de la forme Cyt-B du test. De plus, en tant que technique non d’imagerie, la cytométrie en flux conventionnelle ne permet pas de valider visuellement les événements clés 9,10.

Par conséquent, la cytométrie de flux d’imagerie (IFC) a été étudiée pour effectuer le test MN. L’ImageStreamX Mk II combine la vitesse et la robustesse statistique de la cytométrie en flux conventionnelle avec les capacités d’imagerie haute résolution de la microscopie dans un seul système11. Il a été démontré qu’en utilisant IFC, l’imagerie haute résolution de tous les événements clés peut être capturée et notée automatiquement à l’aide de techniques basées sur les caractéristiques 12,13 ou d’intelligence artificielle (IA) 14,15. En utilisant IFC pour effectuer le test MN, la notation automatique de beaucoup plus de cellules par rapport à la microscopie dans un laps de temps plus court est réalisable.

Ce travail s’écarte d’un flux de travail d’analyse d’imagesdécrit précédemment 16 et traite de toutes les étapes nécessaires pour développer et entraîner un modèle de forêt aléatoire (RF) et / ou de réseau neuronal convolutif (CNN) à l’aide du logiciel Amnis AI (ci-après dénommé « logiciel d’IA »). Toutes les étapes nécessaires sont décrites, y compris le remplissage des données de réalité sur le terrain à l’aide d’outils de marquage assistés par l’IA, l’interprétation des résultats de formation du modèle et l’application du modèle pour classer des données supplémentaires, permettant de calculer la génotoxicité et la cytotoxicité15.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

1. Acquisition de données par cytométrie de flux d’imagerie

REMARQUE : Se reporter à Rodrigues et al.16 avec les modifications suivantes, en notant que les régions d’acquisition utilisant IFC peuvent devoir être modifiées pour une capture d’image optimale :

  1. Pour la méthode non-Cyt-B, effectuer une numération cellulaire à l’aide d’un compteur de cellules disponible dans le commerce en suivant les instructions du fabricant (voir le tableau des matériaux) sur chaque culture immédiatement avant la culture et immédiatement après la période de récupération.
  2. Si vous exécutez des échantillons sur un cytomètre en flux d’imagerie à caméra unique, placez le Brightfield (BF) dans le canal 4. Remplacez M01 par M04 et M07 par M01.
    REMARQUE: « M » fait référence au canal de la caméra sur l’IFC.
  3. Utilisez le grossissement 40x lors de l’acquisition.
  4. Sur le diagramme du rapport d’aspect BF par rapport au format BF lors de l’acquisition, utilisez les coordonnées régionales suivantes :
    Coordonnées X: 100 et 900; Coordonnées Y: 0,7 et 1 (méthode Cyt-B)
    Coordonnées X: 100 et 600; Coordonnées Y: 0.7 et 1
  5. Sur le diagramme d’intensité de Hoechst, utilisez les coordonnées régionales suivantes :
    Coordonnées X: 55 et 75; Coordonnées Y: 9.5 et 15 (méthode Cyt-B)
    Coordonnées X: 55 et 75; Coordonnées Y: 13 et 21 (méthode non-Cyt-B)
  6. Pour supprimer des images d’objets apoptotiques et nécrotiques des données, lancez le progiciel IDEAS 6.3 (ci-après dénommé « logiciel d’analyse d’images » ; voir Tableau des matériaux).
    REMARQUE: Le logiciel AI a été conçu pour fonctionner avec les fichiers .daf qui ont été traités à l’aide de la dernière version du logiciel d’analyse d’image. Assurez-vous que le logiciel d’analyse d’images est à jour.
  7. Enregistrez ce travail en tant que fichier de modèle (.ast).

2. Création de fichiers .daf pour tous les fichiers .rif

  1. Le logiciel d’IA permet uniquement l’importation de fichiers .daf. Créez des fichiers .daf pour tous les fichiers .rif de l’expérience via le traitement par lots.
  2. Dans le menu Outils , cliquez sur Fichiers de données par lots , puis sur Ajouter un lot.
  3. Dans la nouvelle fenêtre, sélectionnez Ajouter des fichiers et sélectionnez les fichiers .rif à ajouter au lot. Sous l’option Sélectionner un modèle ou un fichier d’analyse de données (.ast, .daf), sélectionnez le fichier .ast créé précédemment.
  4. Attribuez un nom de lot si nécessaire et cliquez sur OK pour créer des fichiers .daf pour tous les fichiers .rif chargés.

3. Créer une expérience dans le logiciel d’IA

  1. Reportez-vous à l’organigramme de la figure 1 qui décrit le processus de création d’un modèle d’apprentissage profond à l’aide du logiciel d’IA.
  2. Lancez le logiciel d’IA et assurez-vous que la version la plus récente est installée en cliquant sur À propos dans le coin inférieur gauche de la fenêtre. Si la version la plus récente n’est pas installée, contactez support@luminexcorp.com pour l’obtenir.
  3. L’écran par défaut dans le logiciel est l’écran Nouvelle expérience . Utilisez l’icône Dossier pour choisir l’emplacement d’enregistrement de l’expérience et tapez un nom pour l’expérience (par exemple, « Modèle MN »).
  4. Sous Type d’expérience, cliquez sur la case d’option en regard de Train pour démarrer une expérience d’apprentissage et commencer à créer le modèle CNN. Cliquez sur Suivant.
    1. Facultatif : si un modèle a déjà été formé, il peut être utilisé comme modèle pour un nouveau modèle d’IA et peut être sélectionné comme modèle pour la création d’un nouveau modèle à partir de l’écran Sélectionner un modèle de modèle . Si aucun modèle de modèle n’existe, ignorez simplement cette étape en cliquant sur Suivant.
  5. L’écran suivant est l’écran Définir un nouveau modèle . Sous Modèle, le nom donné au modèle à l’étape 3.3 sera automatiquement renseigné.
    1. Sous Description, tapez une description pour le modèle (facultatif) et laissez la taille d’image maximale à 150 pixels.
    2. Sous Canaux, cliquez sur Ajouter un BF pour ajouter un canal en fond clair à la liste. Sous Nom, double-cliquez sur Brightfield et renommez cette chaîne en BF. Cliquez sur Ajouter FL pour ajouter un canal fluorescent à la liste. Sous Nom, double-cliquez sur Fluorescent et renommez ce canal en DNA.
    3. Sous Noms de classe, cliquez sur Ajouter. Dans la fenêtre pop-up, tapez Mononucleated et cliquez sur OK. Cela ajoute la classe mononucléée à la liste des noms de classe. Répétez ce processus pour vous assurer que les six classes suivantes sont définies dans la liste :
      Mononucléé
      Mononucléé avec MN
      Binucléé
      Binucléé avec MN
      Polynucléé
      Morphologie irrégulière
      Cliquez sur Suivant.

      NOTE: Ces six classes de modèles de vérité de terrain représenteront les événements clés à noter, ainsi que des images dont la morphologie diffère du critère de notationaccepté 5.
      1. Facultatif : Si vous le souhaitez, le modèle d’analyse de la version 1.7 peut être inclus pour utiliser les fonctionnalités du logiciel d’analyse d’images. Si vous souhaitez inclure ces fonctionnalités dans le modèle d’IA, recherchez le fichier .ast, puis dans les listes déroulantes spécifiques au canal, choisissez les sous-ensembles de fonctionnalités que vous souhaitez inclure.
    4. Sous Sélectionner des fichiers, cliquez sur Ajouter des fichiers et recherchez les fichiers souhaités à ajouter au logiciel d’IA pour créer les données de réalité sur le terrain. Cliquez sur Suivant.
      REMARQUE : Il est important d’ajouter plusieurs fichiers de données (p. ex., données de contrôle positif et négatif) qui contiennent un nombre suffisant de tous les événements clés.
  6. Ensuite, dans l’écran Sélectionner les populations de base , recherchez la population non apoptotique dans la hiérarchie des populations. Cliquez avec le bouton droit sur la population non apoptotique et sélectionnez Sélectionner toutes les populations correspondantes. Cliquez sur Suivant.
    REMARQUE : Il est important d’exclure toutes les populations qui ne devraient pas être classées (p. ex. perles, débris, doublets, etc.).
  7. Cet écran est l’écran Sélectionner les populations de vérité .
    1. Si les populations de vérité marquées des événements clés n’ont pas été créées dans le logiciel d’analyse d’images, cliquez sur Suivant.
    2. Si des populations de vérité balisées ont été créées dans le logiciel d’analyse d’images, affectez-les à la classe de modèle appropriée.
    3. Pour attribuer une population de vérité balisée de cellules MONO avec MN, cliquez sur la classe Mononucléé avec MN sous Classes modèles à gauche. Cliquez ensuite sur la population de vérité balisée appropriée à droite qui contient ces événements.
    4. Si les populations de vérité balisées ont été créées dans plusieurs fichiers de données, cliquez avec le bouton droit sur l’une des populations de vérité et sélectionnez Sélectionner toutes les populations correspondantes pour ajouter des populations balisées de plusieurs fichiers à la classe appropriée.
    5. Une fois que toutes les populations de vérité appropriées ont été attribuées, cliquez sur Suivant.
  8. Dans l’écran Sélectionner les canaux , choisissez les canaux appropriés pour l’expérience. Ici, réglez BF sur le canal 1 et Hoechst sur le canal 7. Cliquez avec le bouton droit sur une chaîne et sélectionnez Appliquer à tous. Cliquez sur Suivant.
  9. Enfin, sur l’écran de confirmation , cliquez sur Créer une expérience.
  10. Le logiciel d’IA charge les images à partir des fichiers de données et crée les classes de modèle définies à l’étape 3.5.3 avec l’imagerie de réalité de terrain qui a été attribuée à l’étape 3.7. Cliquez sur Terminer.
  11. Une fois l’expérience créée, cinq options sont présentées :
    Expérience : fournit des détails sur l’expérience, y compris les fichiers de données chargés, les canaux choisis et les classes de modèles de vérité de terrain définies.
    Balisage: lance l’outil de marquage grâce auquel les utilisateurs peuvent remplir les données de réalité du terrain.
    Formation : forme un modèle basé sur les données de réalité terrain.
    Classifier : utilise des modèles formés pour classer les données.
    Résultats : fournit les résultats d’une expérience d’apprentissage et d’une expérience de classification.

4. Remplir les données de réalité sur le terrain à l’aide d’outils de marquage assistés par l’IA

  1. Cliquez sur Balisage pour lancer l’interface de l’outil de balisage .
    1. Cliquez sur les outils de zoom (icônes de loupe) pour recadrer les images et faciliter la visualisation.
    2. Cliquez sur la barre de défilement pour ajuster la taille de l’image afin de changer le nombre d’images affichées dans la galerie.
    3. Cliquez sur l’option Paramètres d’affichage et choisissez Min-Max, qui fournit la meilleure image de contraste pour identifier tous les événements clés.
    4. Cliquez sur Configurer l’affichage de la galerie pour changer la couleur de l’image ADN en jaune ou blanc, ce qui améliorera la visualisation de petits objets (par exemple, MN).
  2. Cliquez sur Cluster pour exécuter l’algorithme permettant de regrouper des objets de morphologie similaire. Une fois le clustering terminé, les clusters individuels avec le nombre d’objets par cluster sont affichés dans une liste sous Populations inconnues. Sélectionnez les clusters individuels pour afficher les objets dans le cluster et affecter ces objets à leurs classes de modèle appropriées.
  3. Une fois qu’un minimum de 25 objets a été affecté à chaque classe de modèle, l’algorithme Predict devient disponible. Cliquez sur Prédire.
    REMARQUE: Les objets qui ne correspondent pas bien à une population restent classés comme inconnus. Au fur et à mesure que de plus en plus d’objets sont ajoutés aux populations de vérité, la précision de la prédiction s’améliore.
  4. Continuez à remplir les classes de modèle de vérité de terrain avec des images appropriées jusqu’à ce qu’un nombre suffisant d’objets dans chaque classe soit atteint.
  5. Une fois qu’un minimum de 100 objets a été affecté à chaque classe de modèle, cliquez sur l’onglet Formation en haut de l’écran. Cliquez sur le bouton Train pour créer un modèle à l’aide des algorithmes Random Forest et CNN.
    REMARQUE: Le logiciel d’IA crée des modèles en utilisant à la fois les algorithmes Random Forest et CNN, les cases à cocher permettent la création de modèles en utilisant uniquement les algorithmes Random Forest of CNN.

5. Évaluation de l’exactitude du modèle

  1. Une fois la formation du modèle terminée, cliquez sur Afficher les résultats.
  2. Utilisez l’écran des résultats pour évaluer la précision du modèle. Utilisez le menu déroulant pour basculer entre Random Forest et CNN.
    REMARQUE : Les populations de vérité peuvent être mises à jour et le modèle peut être réformé ou utilisé tel quel pour classer des données supplémentaires.
    1. Pour mettre à jour les populations de vérité, cliquez sur Balisage en haut et suivez la section 4.

6. Classification des données à l’aide du modèle

  1. Lancez le logiciel d’IA. L’écran par défaut est l’écran Nouvelle expérience . Utilisez l’icône Dossier pour choisir l’emplacement d’enregistrement de l’expérience et tapez un nom pour l’expérience.
  2. Sous Type d’expérience, cliquez sur la case d’option en regard de Classifier pour démarrer une expérience de classification. Cliquez sur Suivant.
  3. Cliquez sur le modèle à utiliser pour la classification, puis cliquez sur Suivant.
  4. Sur l’écran Sélectionner des fichiers , cliquez sur Ajouter des fichiers et recherchez les fichiers à classer selon le modèle CNN. Cliquez sur Suivant.
  5. Ensuite, dans l’écran Sélectionner les populations de base , cliquez sur la case à cocher en regard de la population non apoptotique dans l’un des fichiers chargés. Faites un clic droit sur la population non apoptotique et cliquez sur Sélectionner toutes les populations correspondantes pour sélectionner cette population parmi tous les fichiers chargés. Cliquez sur Suivant.
  6. Facultatif : si les données à classer contiennent des populations de vérité, elles peuvent être affectées aux classes de modèles appropriées sur l’écran Sélectionner les populations de vérité. Sinon, cliquez sur Suivant pour ignorer cette étape.
  7. Sur l’écran Select Channels (Sélectionner les canaux ), choisissez Channel 1 pour brightfield et Channel 7 pour la coloration ADN. Faites un clic droit sur une chaîne et cliquez sur Appliquer à tous. Cliquez ensuite sur Suivant.
  8. Enfin, sur l’écran de confirmation , cliquez sur Créer une expérience. Le logiciel d’IA charge le modèle sélectionné et toutes les images des fichiers de données choisis. Cliquez sur Terminer.
  9. Cliquez sur Classifier pour lancer l’écran de classification. Cliquez sur le bouton Classer . Cela commence le processus d’utilisation des modèles RF et CNN pour classer des données supplémentaires et identifier tous les objets qui appartiennent aux classes de modèle spécifiées.
    REMARQUE: Les cases à cocher peuvent être utilisées pour sélectionner le modèle RF et / ou le modèle CNN.
  10. Une fois la classification terminée, cliquez sur Afficher les résultats.
  11. Cliquez sur le bouton Mettre à jour les fichiers DAF pour afficher la fenêtre Mettre à jour les fichiers DAF avec résultats de classification. Cliquez sur OK pour mettre à jour les fichiers .daf.

7. Générer un rapport des résultats de la classification

  1. Sur l’écran Résultats, cliquez sur Générer un rapport. Cochez la case en regard de Créer un rapport pour chaque DAF d’entrée si un rapport individuel pour chaque DAF d’entrée est requis. Cliquez sur OK.
  2. Une fois terminé, ouvrez le dossier dans lequel les fichiers de rapport ont été enregistrés. Dans le dossier, il existe un rapport d’expérience .pdf et un dossier Ressources .
  3. Ouvrez la .pdf pour afficher le rapport. Le rapport contient des informations sur le modèle et l’expérience, la liste des fichiers .daf d’entrée, le nombre de classes et les pourcentages de classe sous forme de tableau et d’histogramme, ainsi qu’une matrice de confusion résumant la probabilité médiane de prédiction dans tous les fichiers .daf d’entrée.
  4. Ouvrez le dossier Ressources , puis le dossier CNN . Dans ce dossier se trouvent .png fichiers des graphiques à barres de classe et de pourcentage, ainsi que la matrice de confusion. En outre, il existe .csv fichiers contenant le nombre de classes et les pourcentages pour chaque fichier d’entrée.

8. Détermination de la fréquence et de la cytotoxicité des MN

  1. Calcul de la fréquence MN
    1. Méthode non Cyt-B : pour déterminer la fréquence MN, ouvrez le fichier class_count.csv de l’étape 7.4. Pour chaque fichier d’entrée, divisez les comptes dans la population « Mononucléés avec MN » par les nombres dans la population « Mononucléés » et multipliez par 100 :
      Equation 1
    2. Méthode Cyt-B : Pour déterminer la fréquence MN, ouvrez le fichier class_count.csv de l’étape 7.4. Pour chaque fichier d’entrée, divisez les comptes dans la population « Binucléée avec MN » par les nombres dans la population « Binucléée » et multipliez par 100 :
      Equation 2
  2. Calcul de la cytotoxicité
    1. Méthode non Cyt-B:
      1. À l’aide du nombre initial de cellules et du nombre de cellules post-traitement, calculez d’abord le doublement de la population () pour chaque échantillon2 :
        Equation 3
      2. Ensuite, calculez le doublement de la population relative2 :
        Equation 4
      3. Enfin, calculez la cytotoxicité2 pour chaque échantillon :
        Equation 5
    2. Méthode Cyt-B :
      1. Pour calculer l’indice de prolifération par bloc de cytocinèse (CBPI)2, utilisez les numérations des classes mononucléées, binucléées et polynucléées pour chaque échantillon du fichier class_count.csv :
        Equation 6
      2. Pour calculer la cytotoxicité2, utiliser l’IPBC des cultures témoins (C) et des cultures exposées (T) :
        Equation 7

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

La figure 1 montre le flux de travail pour l’utilisation du logiciel d’IA afin de créer un modèle pour le test MN. L’utilisateur charge les fichiers .daf souhaités dans le logiciel d’IA, puis affecte des objets aux classes de modèles de réalité sur le terrain à l’aide des algorithmes de marquage de cluster assisté par l’IA (Figure 2) et de prédiction (Figure 3). Une fois que toutes les classes de modèles de vérité de terrain ont été remplies avec suffisamment d’objets, le modèle peut être entraîné à l’aide des algorithmes RF ou CNN. Après la formation, la performance du modèle peut être évaluée à l’aide d’outils tels que des histogrammes de distribution des classes, des statistiques de précision et une matrice de confusion interactive (Figure 4). À partir de l’écran des résultats du logiciel d’IA, l’utilisateur peut soit revenir à la partie formation du flux de travail pour améliorer les données de réalité sur le terrain, soit, si une précision suffisante a été atteinte, l’utilisateur peut utiliser le modèle pour classer des données supplémentaires.

En utilisant à la fois les algorithmes de cluster et de prédiction, 190 segments avec un total de 285 000 objets ont été affectés aux classes de vérité de terrain appropriées jusqu’à ce que toutes les classes soient remplies avec entre 1 500 et 10 000 images. Au total, 31 500 objets (seulement 10,5% des objets initialement chargés) ont été utilisés dans la formation de ce modèle. La précision (pourcentage de faux positifs), le rappel (pourcentage de faux négatifs) et le score F1 (équilibre entre précision et rappel) sont disponibles dans le progiciel d’apprentissage profond pour quantifier la précision du modèle. Ici, ces statistiques variaient de 86,0 % à 99,4 %, ce qui indique une grande précision du modèle (figure 4).

En utilisant Cyt-B, les fréquences MN de fond pour tous les échantillons témoins se situaient entre 0,43 % et 1,69 %, ce qui se compare bien à la littérature17. Des augmentations statistiquement significatives de la fréquence des MN, allant de 2,09 % à 9,50 % pour la MMC (Mitomycine C) et de 2,99 % à 7,98 % pour l’étoposide, ont été observées par rapport aux témoins de solvants et bien comparées à la notation de la microscopie manuelle. Lors de l’examen du témoin négatif Mannitol, aucune augmentation significative de la fréquence MN n’a été observée. De plus, une cytotoxicité croissante avec la dose a été observée pour l’étoposide et la MMC, la microscopie et l’IA montrant des tendances similaires dans toute la gamme de doses. Pour le mannitol, aucune augmentation observable de la cytotoxicité n’a été observée (figure 5).

Lorsque le Cyt-B n’était pas utilisé, les fréquences MN de fond pour tous les échantillons témoins se situaient entre 0,38 % et 1,0 %, ce qui concorde avec les résultats publiés dans la littérature17. Des augmentations statistiquement significatives de la fréquence des MN, allant de 2,55 % à 7,89 % pour MMC et de 2,37 % à 5,13 % pour l’étoposide, ont été observées par rapport aux témoins de solvants et bien comparées à la notation de la microscopie manuelle. Lors de l’examen du témoin négatif Mannitol, aucune augmentation significative de la fréquence MN n’a été observée. De plus, une cytotoxicité croissante avec la dose a été observée pour l’étoposide et la MMC, la microscopie et l’IA montrant des tendances similaires dans toute la gamme de doses. Pour le mannitol, aucune augmentation observable de la cytotoxicité n’a été observée (figure 5).

Lors de la notation par microscopie, de chaque culture, 1 000 cellules binucléées ont été notées pour évaluer la fréquence MN et 500 autres cellules mononucléées, binucléées ou polynucléées ont été notées pour déterminer la cytotoxicité dans la version Cyt-B du test. Dans la version non-Cyt-B du test, 1 000 cellules mononucléées ont été notées pour évaluer la fréquence MN. Par IFC, une moyenne de 7 733 cellules binucléées, 6 493 cellules mononucléées et 2 649 cellules polynucléées ont été notées par culture pour déterminer la cytotoxicité. La fréquence MN a été déterminée à partir de la population de cellules binucléées pour la version Cyt-B du test. Pour la version non-Cyt-B de l’essai, une moyenne de 27 866 cellules mononucléées a été évaluée pour la présence de MN (Figure 5).

Figure 1
Figure 1 : Flux de travail du logiciel d’IA. L’utilisateur commence par sélectionner les fichiers .daf à charger dans le logiciel d’IA. Une fois les données chargées, l’utilisateur commence à affecter des objets aux classes de modèle de vérité de terrain via l’interface utilisateur. Pour faciliter la population de réalité sur le terrain, les algorithmes de cluster et de prédiction peuvent être utilisés pour identifier des images ayant une morphologie similaire. Une fois que suffisamment d’objets ont été ajoutés à chaque classe de modèle, le modèle peut être formé. Après la formation, l’utilisateur peut évaluer la performance du modèle à l’aide des outils fournis, y compris une matrice de confusion interactive. Enfin, l’utilisateur peut soit revenir à la partie formation du flux de travail pour améliorer les données de réalité sur le terrain, soit, si une précision suffisante a été atteinte, l’utilisateur peut sortir de la boucle du flux de travail de formation/marquage et utiliser le modèle pour classer des données supplémentaires. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 2
Figure 2 : Algorithme du cluster. L’algorithme de cluster peut être exécuté à tout moment sur un segment de 1 500 objets sélectionnés au hasard parmi les données d’entrée. Cet algorithme regroupe des objets similaires au sein d’un segment en fonction de la morphologie des objets non classés et des objets qui ont été affectés aux classes de modèles de vérité de terrain. L’imagerie montre des cellules binucléées, mononucléées et multinucléées, ainsi que des cellules à morphologie irrégulière. Les clusters contenant des cellules mononucléées se trouvent d’un côté de la carte d’objets, tandis que les clusters contenant des cellules multinucléées se trouvent du côté opposé de la carte d’objets. Les amas de cellules binucléées se situent quelque part entre les amas de cellules mononucléées et multinucléées. Enfin, les amas à morphologie irrégulière se situent dans une zone complètement différente de la carte des objets. L’interface utilisateur permet d’ajouter des clusters entiers ou de sélectionner des objets dans des clusters aux classes de modèle de vérité de terrain. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 3
Figure 3 : Algorithme de prédiction. L’algorithme de prédiction nécessite un minimum de 25 objets dans chaque classe de modèle de réalité de terrain et tente de prédire la classe de modèle la plus appropriée pour affecter des objets non classés dans un segment. L’algorithme de prédiction est plus robuste que l’algorithme de grappe en ce qui concerne l’identification de morphologies subtiles dans les images (c.-à-d. cellules mononucléées avec MN [jaune] versus cellules mononucléées sans MN [rouge]). Les objets présentant ces similitudes sont placés à proximité immédiate sur la carte des objets ; Toutefois, l’utilisateur peut facilement inspecter les images de chaque classe prédite et affecter des objets à la classe de modèle appropriée. Les objets pour lesquels l’algorithme est incapable de prédire une classe resteront « inconnus ». L’algorithme de prédiction permet aux utilisateurs de remplir rapidement les classes de modèles de vérité de terrain, en particulier dans le cas d’événements considérés comme rares et difficiles à trouver dans les données d’entrée, tels que les cellules micronucléées. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 4
Figure 4 : Matrice de confusion avec les résultats du modèle. L’écran de résultats du logiciel d’IA présente à l’utilisateur trois outils différents pour évaluer la précision du modèle. (A) Les histogrammes de distribution de classes permettent à l’utilisateur de cliquer sur les bacs de l’histogramme pour évaluer la relation entre les objets dans les populations de vérité et les objets qui ont été prédits appartenir à cette classe de modèle. En général, plus les valeurs en pourcentage entre les populations réelles et prédites sont proches l’une de l’autre pour une classe de modèle donnée, plus le modèle est précis. (B) Le tableau des statistiques d’exactitude permet à l’utilisateur d’évaluer trois mesures d’apprentissage automatique courantes pour évaluer la précision du modèle : précision, rappel et F1. En général, plus ces mesures sont proches de 100 %, plus le modèle est précis pour identifier les événements dans les classes de modèles. Enfin, (C) la matrice de confusion interactive fournit une indication des endroits où le modèle classe mal les événements. Les entrées sur l’axe (en vert) indiquent les objets des données de réalité sur le terrain qui ont été classés correctement pendant l’entraînement. Les entrées hors axe (ombrées en orange) indiquent les objets des données de réalité sur le terrain qui ont été mal classés. Divers exemples d’objets mal classés sont présentés, y compris (i) une cellule mononucléée classée comme cellule mononucléée avec MN, (ii) une cellule binucléée classée comme une cellule binucléée avec MN, (iii) une cellule mononucléée classée comme une cellule ayant une morphologie irrégulière, (iv) une cellule binucléée avec MN classée comme une cellule ayant une morphologie irrégulière, et (v) une cellule binucléée avec une MN classée comme une cellule binucléée. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 5
Figure 5 : Résultats de génotoxicité et de cytotoxicité. Génotoxicité mesurée par le pourcentage de MN par microscopie (barres transparentes) et IA (barres pointillées) après une exposition de 3 heures et une récupération de 24 heures pour le mannitol, l’étoposide et la MMC à l’aide des méthodes Cyt-B (A-C) et (D-F) non-Cyt-B. Les augmentations statistiquement significatives de la fréquence MN par rapport aux témoins sont indiquées par des astérisques (*p < 0,001, test exact de Fisher). Les barres d’erreur représentent l’écart-type de la moyenne de trois cultures répliquées à chaque point de dose, sauf pour MMC par microscopie, où seules les cultures en double ont été notées. Cette figure a été modifiée à partir de Rodrigues et al.15. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Le travail présenté ici décrit l’utilisation d’algorithmes d’apprentissage profond pour automatiser la notation du test MN. Plusieurs publications récentes ont montré que des outils intuitifs et interactifs permettent la création de modèles d’apprentissage profond pour analyser les données d’images sans avoir besoin de connaissances informatiques approfondies18,19. Le protocole décrit dans ce travail à l’aide d’un progiciel piloté par interface utilisateur a été conçu pour bien fonctionner avec de très gros fichiers de données et permettre la création de modèles d’apprentissage profond avec facilité. Toutes les étapes nécessaires pour créer et entraîner des modèles RF et CNN dans le progiciel d’IA sont discutées, permettant une identification et une quantification très précises de tous les événements clés dans les versions Cyt-B et non-Cyt-B du test. Enfin, les étapes d’utilisation de ces modèles d’apprentissage profond pour classer des données supplémentaires et évaluer la cytotoxicité chimique et la fréquence MN sont décrites.

Le logiciel d’IA utilisé dans ce travail a été créé avec une interface utilisateur pratique et construit pour fonctionner facilement avec de grands ensembles de données générés à partir des systèmes IFC. La formation, l’évaluation et l’amélioration des modèles d’apprentissage profond suivent une approche itérative simple (Figure 1), et l’application des modèles formés pour classer des données supplémentaires peut être réalisée en quelques étapes seulement. Le logiciel contient des algorithmes distinctifs de cluster (Figure 2) et de prédiction (Figure 3) qui permettent d’assigner rapidement des objets dans des classes de modèles de vérité de terrain appropriées. Le protocole de cet article démontre comment un modèle CNN, construit et entraîné à l’aide d’un logiciel d’IA, est capable d’identifier de manière robuste tous les événements clés du test MN; Il donne des résultats qui se comparent bien à la microscopie traditionnelle, éliminant ainsi le besoin d’analyse d’images et d’expérience en codage informatique. De plus, les résultats du modèle interactif (figure 4) permettent d’étudier des événements spécifiques que le modèle classe à tort. Le processus itératif permet d’affecter ces événements mal classés aux classes de modèles appropriées afin que le modèle puisse être réentraîné pour améliorer la précision.

Les résultats présentés ici (Figure 5) montrent l’évaluation du mannitol, de l’étoposide et de la MMC à l’aide de la microscopie et d’un modèle CNN créé dans le logiciel d’IA. En utilisant les deux versions du test MN, évaluées avec un seul modèle d’IA, les augmentations de la cytotoxicité sont compatibles avec l’augmentation des doses pour MMC et Etoposide, tandis que l’exposition au mannitol n’entraîne aucune augmentation de la cytotoxicité, comme prévu. Pour l’évaluation de la génotoxicité, des augmentations significatives (test exact de Fisher, unilatérales) de la fréquence des MN ont été démontrées en utilisant MMC et Etoposide, mais pas en utilisant Mannitol. Les résultats de la microscopie et du modèle d’IA ont été bien comparés entre les gammes de doses pour chaque produit chimique testé.

Dans plusieurs publications antérieures, il a été démontré qu’un test MN basé sur IFC peut être effectué avec des étapes de préparation d’échantillons simples et directes, ainsi qu’une analyse basée sur l’image à l’aide de masques (régions d’intérêt qui mettent en évidence les pixels d’une image) et de caractéristiques calculées à l’aide de ces masques pour noter automatiquement tous les événements clés12,13,16 . Ce test basé sur IFC tire parti des points forts de l’IFC, notamment la capture d’images à haut débit, le traitement simplifié des échantillons avec des colorants ADN simples et la différenciation automatisée de l’imagerie cellulaire avec une morphologie qui s’aligne sur les critères de notation du test MN publiés. Cependant, ce flux de travail comportait également des inconvénients, tels que la complexité des techniques d’analyse basées sur les caractéristiques qui sont souvent rigides et nécessitent une connaissance avancée des progiciels d’analyse d’images12. L’utilisation de l’apprentissage profond pour analyser les données MN acquises par IFC démontre que les CNN peuvent être utilisés pour rompre avec les restrictions et les difficultés des analyses basées sur les caractéristiques, produisant des résultats très précis et bien comparables à la microscopie14,15. Bien que cette approche basée sur l’IA soit prometteuse, d’autres études avec une sélection élargie de produits chimiques bien décrits devraient être effectuées pour tester et valider davantage la robustesse de la technique. Ce travail démontre en outre les avantages de l’IFC par rapport aux méthodes plus traditionnelles, telles que la microscopie et la cytométrie en flux conventionnelle, pour améliorer les performances des tests avec des morphologies difficiles et des exigences de notation strictes.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Les auteurs sont employés par Luminex Corporation, une société DiaSorin, le fabricant du cytomètre en flux d’imagerie ImageStream et du logiciel Amnis AI utilisé dans ce travail.

Acknowledgments

Aucun.

Materials

Name Company Catalog Number Comments
15 mL centrifuge tube Falcon 352096
Cleanser - Coulter Clenz  Beckman Coulter 8546931 Fill container with 200 mL of Cleanser.  https://www.beckmancoulter.com/wsrportal/page/itemDetails?itemNumber=8546931#2/10//0/25/
1/0/asc/2/8546931///0/1//0/
Colchicine MilliporeSigma 64-86-8
Corning bottle-top vacuum filter  MilliporeSigma CLS430769 0.22 µm filter, 500 mL bottle
Cytochalasin B MilliporeSigma 14930-96-2 5 mg bottle
Debubbler - 70% Isopropanol MilliporeSigma 1.3704 Fill container with 200 mL of Debubbler.  http://www.emdmillipore.com/US/en/product/2-Propanol-70%25-%28V%2FV%29-0.1-%C2%B5m-filtred,MDA_CHEM-137040?ReferrerURL=https%3A%2F%2Fwww.google.com%2F
Dimethyl Sulfoxide (DMSO) MilliporeSigma 67-68-5
Dulbecco's Phosphate Buffered Saline 1X EMD Millipore BSS-1006-B PBS Ca++MG++ Free 
Fetal Bovine Serum HyClone SH30071.03
Formaldehyde, 10%, methanol free, Ultra Pure Polysciences, Inc. 04018 This is what is used for the 4% and 1% Formalin. CAUTION: Formalin/Formaldehyde toxic by inhalation and if swallowed.  Irritating to the eyes, respiratory systems and skin.  May cause sensitization by inhalation or skin contact. Risk of serious damage to eyes.  Potential cancer hazard.  http://www.polysciences.com/default/catalog-products/life-sciences/histology-microscopy/fixatives/formaldehydes/formaldehyde-10-methanol-free-pure/
Guava Muse Cell Analyzer Luminex 0500-3115 A standard configuration Guava Muse Cell Analyzer was used.
Hoechst 33342 Thermo Fisher H3570 10 mg/mL solution
Mannitol MilliporeSigma 69-65-8
MEM Non-Essential Amino Acids 100X HyClone SH30238.01
MIFC - ImageStreamX Mark II Luminex, a DiaSorin company 100220 A 2 camera ImageStreamX Mark II eqiped with the 405 nm, 488 nm, and 642 nm lasers was used.
MIFC analysis software - IDEAS Luminex, a DiaSorin company 100220 "Image analysis sofware"
The companion software to the MIFC (ImageStreamX MKII)
MIFC software - INSPIRE Luminex, a DiaSorin company 100220 "Image acquisition software"
This is the software that runs the MIFC (ImageStreamX MKII)
Amnis AI software Luminex, a DiaSorin company 100221 "AI software"
This is the software that permits the creation of artificial intelligence models to analyze data
Mitomycin C MilliporeSigma 50-07-7
NEAA Mixture 100x Lonza BioWhittaker 13-114E
Penicllin/Streptomycin/Glutamine solution 100X Gibco 15070063
Potassium Chloride (KCl) MilliporeSigma P9541
Rinse - Ultrapure water or deionized water NA NA Use any ultrapure water or deionized water.  Fill container with 900 mL of Rinse.
RNase MilliporeSigma 9001-99-4
RPMI-1640 Medium 1x HyClone SH30027.01
Sheath - PBS MilliporeSigma BSS-1006-B This is the same as Dulbecco's Phosphate Buffered Saline 1x  Ca++MG++ free.  Fill container with 900 mL of Sheath.
Sterile water HyClone SH30529.01
Sterilizer - 0.4%–0.7% Hypochlorite VWR JT9416-1 This is assentually 10% Clorox bleach that can be made by deluting Clorox bleach with water.  Fill container with 200 mL of Sterilzer.
T25 flask Falcon 353109
T75 flask Falcon 353136
TK6 cells MilliporeSigma 95111735

DOWNLOAD MATERIALS LIST

References

  1. Fenech, M., et al. HUMN project initiative and review of validation, quality control and prospects for further development of automated micronucleus assays using image cytometry systems. International Journal of Hygiene and Environmental Health. 216 (5), 541-552 (2013).
  2. OECD. Test No. 487: In Vitro Mammalian Cell Micronucleus Test. Section 4. OECD Guidelines for the Testing of Chemicals. , OECD Publishing. Paris. (2016).
  3. Fenech, M. The in vitro micronucleus technique. Mutation Research/Fundamental and Molecular Mechanisms of Mutagenesis. 455 (1), 81-95 (2000).
  4. Bonassi, S., et al. An increased micronucleus frequency in peripheral blood lymphocytes predicts the risk of cancer in humans. Carcinogenesis. 28 (3), 625-631 (2007).
  5. Fenech, M. Cytokinesis-block micronucleus cytome assay. Nature Protocols. 2 (5), 1084-1104 (2007).
  6. Fenech, M. Commentary on the SFTG international collaborative study on the in vitro micronucleus test: To Cyt-B or not to Cyt-B. Mutation Research/Fundamental and Molecular Mechanisms of Mutagenesis. 607 (1), 9-12 (2006).
  7. Seager, A. L., et al. Recommendations, evaluation and validation of a semi-automated, fluorescent-based scoring protocol for micronucleus testing in human cells. Mutagenesis. 29 (3), 155-164 (2014).
  8. Rossnerova, A., Spatova, M., Schunck, C., Sram, R. J. Automated scoring of lymphocyte micronuclei by the MetaSystems Metafer image cytometry system and its application in studies of human mutagen sensitivity and biodosimetry of genotoxin exposure. Mutagenesis. 26 (1), 169-175 (2011).
  9. Bryce, S. M., Bemis, J. C., Avlasevich, S. L., Dertinger, S. D. In vitro micronucleus assay scored by flow cytometry provides a comprehensive evaluation of cytogenetic damage and cytotoxicity. Mutation Research/Genetic Toxicology and Environmental Mutagenesis. 630 (1), 78-91 (2007).
  10. Avlasevich, S. L., Bryce, S. M., Cairns, S. E., Dertinger, S. D. In vitro micronucleus scoring by flow cytometry: Differential staining of micronuclei versus apoptotic and necrotic chromatin enhances assay reliability. Environmental and Molecular Mutagenesis. 47 (1), 56-66 (2006).
  11. Basiji, D. A. Principles of Amnis imaging flow cytometry. Methods in Molecular Biology. 1389, 13-21 (2016).
  12. Rodrigues, M. A. Automation of the in vitro micronucleus assay using the Imagestream® imaging flow cytometer. Cytometry Part A. 93 (7), 706-726 (2018).
  13. Verma, J. R., et al. Investigating FlowSight® imaging flow cytometry as a platform to assess chemically induced micronuclei using human lymphoblastoid cells in vitro. Mutagenesis. 33 (4), 283-289 (2018).
  14. Wills, J. W., et al. Inter-laboratory automation of the in vitro micronucleus assay using imaging flow cytometry and deep learning. Archives of Toxicology. 95 (9), 3101-3115 (2021).
  15. Rodrigues, M. A., et al. The in vitro micronucleus assay using imaging flow cytometry and deep learning. Npj Systems Biology and Applications. 7 (1), 20 (2021).
  16. Rodrigues, M. A. An automated method to perform the in vitro micronucleus assay using multispectral imaging flow cytometry. Journal of Visualized Experiments. (147), e59324 (2019).
  17. Lovell, D. P., et al. Analysis of negative historical control group data from the in vitro micronucleus assay using TK6 cells. Mutation Research/Genetic Toxicology and Environmental Mutagenesis. 825, 40-50 (2018).
  18. Berg, S., et al. ilastik: interactive machine learning for (bio)image analysis. Nature Methods. 16 (12), 1226-1232 (2019).
  19. Hennig, H., et al. An open-source solution for advanced imaging flow cytometry data analysis using machine learning. Methods. 112, 201-210 (2017).

Tags

Bioengineering numéro 191 essai du micronoyau génotoxicité cytotoxicité cytométrie en flux d’imagerie analyse d’images apprentissage automatique intelligence artificielle
Automatisation du test du micronoyau à l’aide de la cytométrie en flux d’imagerie et de l’intelligence artificielle
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Rodrigues, M. A., Gracia García More

Rodrigues, M. A., Gracia García Mendoza, M., Kong, R., Sutton, A., Pugsley, H. R., Li, Y., Hall, B. E., Fogg, D., Ohl, L., Venkatachalam, V. Automation of the Micronucleus Assay Using Imaging Flow Cytometry and Artificial Intelligence. J. Vis. Exp. (191), e64549, doi:10.3791/64549 (2023).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter