Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Bioengineering

Automazione del test del micronucleo mediante citometria a flusso di imaging e intelligenza artificiale

Published: January 27, 2023 doi: 10.3791/64549

Summary

Il test del micronucleo (MN) è un test ben consolidato per quantificare il danno al DNA. Tuttavia, la valutazione del test utilizzando tecniche convenzionali come la microscopia manuale o l'analisi delle immagini basata sulle caratteristiche è laboriosa e impegnativa. Questo articolo descrive la metodologia per sviluppare un modello di intelligenza artificiale per valutare il test MN utilizzando i dati di citometria a flusso di imaging.

Abstract

Il test del micronucleo (MN) viene utilizzato in tutto il mondo dagli organismi di regolamentazione per valutare le sostanze chimiche per la tossicità genetica. Il test può essere eseguito in due modi: segnando MN in cellule binucleate una volta divise, bloccate dalla citochinesi o cellule mononucleate completamente divise. Storicamente, la microscopia ottica è stata il metodo gold standard per valutare il test, ma è laboriosa e soggettiva. La citometria a flusso è stata utilizzata negli ultimi anni per valutare il test, ma è limitata dall'incapacità di confermare visivamente aspetti chiave delle immagini cellulari. La citometria a flusso di imaging (IFC) combina l'acquisizione di immagini ad alta produttività e l'analisi automatizzata delle immagini ed è stata applicata con successo per acquisire rapidamente immagini e valutare tutti gli eventi chiave nel test MN. Recentemente, è stato dimostrato che i metodi di intelligenza artificiale (AI) basati su reti neurali convoluzionali possono essere utilizzati per valutare i dati del saggio MN acquisiti da IFC. Questo documento descrive tutti i passaggi per utilizzare il software di intelligenza artificiale per creare un modello di deep learning per valutare tutti gli eventi chiave e applicare questo modello per assegnare automaticamente un punteggio a dati aggiuntivi. I risultati del modello di deep learning AI si confrontano bene con la microscopia manuale, consentendo quindi un punteggio completamente automatizzato del test MN combinando IFC e AI.

Introduction

Il test del micronucleo (MN) è fondamentale nella tossicologia genetica per valutare il danno al DNA nello sviluppo di cosmetici, prodotti farmaceutici e chimici per uso umano 1,2,3,4. I micronuclei sono formati da interi cromosomi o frammenti cromosomici che non si incorporano nel nucleo dopo la divisione e si condensano in piccoli corpi circolari separati dal nucleo. Pertanto, il MN può essere utilizzato come endpoint per quantificare il danno al DNA nei test di genotossicità1.

Il metodo preferito per quantificare la MN è all'interno di cellule binucleate (BNC) una volta divise bloccando la divisione utilizzando la citocalasina-B (Cyt-B). In questa versione del test, la citotossicità viene valutata anche segnando cellule mononucleate (MONO) e polinucleate (POLY). Il test può anche essere eseguito assegnando un punteggio MN in cellule MONO non bloccate, che è più veloce e più facile da valutare, con la citotossicità valutata utilizzando la conta cellulare pre e post-esposizione per valutare la proliferazione 5,6.

Il punteggio fisico del test è stato storicamente eseguito attraverso la microscopia manuale, poiché ciò consente la conferma visiva di tutti gli eventi chiave. Tuttavia, la microscopia manuale è impegnativa e soggettiva1. Pertanto, sono state sviluppate tecniche automatizzate, tra cui la scansione del vetrino da microscopio e la citometria a flusso, ognuna con i propri vantaggi e limiti. Mentre i metodi di scansione dei vetrini consentono di visualizzare gli eventi chiave, i vetrini devono essere creati con una densità di cella ottimale, che può essere difficile da raggiungere. Inoltre, questa tecnica spesso manca di visualizzazione citoplasmatica, che può compromettere il punteggio delle cellule MONO e POLY 7,8. Mentre la citometria a flusso offre un'acquisizione di dati ad alto rendimento, le cellule devono essere lisate, quindi non consentendo l'uso della forma Cyt-B del test. Inoltre, come tecnica non-imaging, la citometria a flusso convenzionale non fornisce la convalida visiva degli eventi chiave 9,10.

Pertanto, la citometria a flusso di imaging (IFC) è stata studiata per eseguire il test MN. ImageStreamX Mk II combina la velocità e la robustezza statistica della citometria a flusso convenzionale con le capacità di imaging ad alta risoluzione della microscopia in un unico sistema11. È stato dimostrato che utilizzando IFC, le immagini ad alta risoluzione di tutti gli eventi chiave possono essere catturate e valutate automaticamente utilizzando tecniche basate su funzionalità 12,13 o intelligenza artificiale (AI) 14,15. Utilizzando IFC per eseguire il test MN, è possibile ottenere il punteggio automatico di molte più cellule rispetto alla microscopia in un lasso di tempo più breve.

Questo lavoro si discosta da un flusso di lavoro di analisi delle immagini precedentemente descritto16 e discute tutti i passaggi necessari per sviluppare e addestrare un modello di foresta casuale (RF) e / o rete neurale convoluzionale (CNN) utilizzando il software Amnis AI (d'ora in poi denominato "software AI"). Vengono descritti tutti i passaggi necessari, tra cui il popolamento dei dati di verità sul terreno utilizzando strumenti di tagging assistiti dall'IA, l'interpretazione dei risultati dell'addestramento del modello e l'applicazione del modello per classificare dati aggiuntivi, consentendo il calcolo della genotossicità e della citotossicità15.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

1. Acquisizione dati mediante citometria a flusso di imaging

NOTA: Fare riferimento a Rodrigues et al.16 con le seguenti modifiche, notando che le regioni di acquisizione utilizzando IFC potrebbero dover essere modificate per un'acquisizione ottimale dell'immagine:

  1. Per il metodo non-Cyt-B, eseguire un conteggio delle cellule utilizzando un contatore di cellule disponibile in commercio seguendo le istruzioni del produttore (vedere la tabella dei materiali) su ciascuna coltura immediatamente prima della coltura e immediatamente dopo il periodo di recupero.
  2. Se si eseguono campioni su un citometro a flusso di imaging con una singola telecamera, posizionare il campo luminoso (BF) nel canale 4. Sostituire M01 con M04 e M07 con M01.
    NOTA: "M" si riferisce al canale della telecamera sull'IFC.
  3. Utilizzare l'ingrandimento 40x durante l'acquisizione.
  4. Nel grafico delle proporzioni dell'area BF rispetto a BF durante l'acquisizione, utilizzare le seguenti coordinate regionali:
    Coordinate X: 100 e 900; Coordinate Y: 0,7 e 1 (metodo Cyt-B)
    Coordinate X: 100 e 600; Coordinate Y: 0.7 e 1
  5. Nel grafico dell'intensità di Hoechst, utilizzare le seguenti coordinate regionali:
    Coordinate X: 55 e 75; Coordinate Y: 9.5 e 15 (metodo Cyt-B)
    Coordinate X: 55 e 75; Coordinate Y: 13 e 21 (metodo non Cyt-B)
  6. Per rimuovere immagini di oggetti apoptotici e necrotici dai dati, avviare il pacchetto software IDEAS 6.3 (d'ora in poi denominato "software di analisi delle immagini"; vedi Tabella dei materiali).
    NOTA: il software AI è stato progettato per funzionare con file .daf elaborati utilizzando la versione più recente del software di analisi delle immagini. Assicurarsi che il software di analisi delle immagini sia aggiornato.
  7. Salvare il lavoro come file modello (.ast).

2. Creazione di file .daf per tutti i file .rif

  1. Il software AI consente solo l'importazione di file .daf. Creare file con estensione daf per tutti i file con estensione rif nell'esperimento tramite l'elaborazione batch.
  2. Nel menu Strumenti , fare clic su File di dati batch e quindi fare clic su Aggiungi batch.
  3. Nella nuova finestra, selezionare Aggiungi file e selezionare i file .rif da aggiungere al batch. Nell'opzione Selezionare un modello o un file di analisi dei dati (ast, daf) selezionare il file ast creato in precedenza.
  4. Se necessario, assegnare un nome batch e fare clic su OK per creare file .daf per tutti i file .rif caricati.

3. Creazione di un esperimento nel software AI

  1. Fare riferimento al diagramma di flusso nella Figura 1 che descrive il processo di creazione di un modello di deep learning utilizzando il software di intelligenza artificiale.
  2. Avvia il software AI e assicurati che sia installata la versione più recente facendo clic su Informazioni nell'angolo in basso a sinistra della finestra. Se non è installata la versione più recente, contattare support@luminexcorp.com per ottenerla.
  3. La schermata predefinita nel software è la schermata Nuovo esperimento . Utilizza l'icona Cartella per scegliere dove salvare l'esperimento e digita un nome per l'esperimento (ad esempio, "Modello MN").
  4. In Tipo esperimento, fai clic sul pulsante di opzione accanto a Treno per avviare un esperimento di addestramento e iniziare a creare il modello CNN. Fare clic su Avanti.
    1. Facoltativo: se un modello è stato precedentemente addestrato, può essere utilizzato come modello per un nuovo modello di intelligenza artificiale e può essere selezionato come modello per la creazione di un nuovo modello dalla schermata Seleziona modello modello . Se non esiste alcun modello di modello, è sufficiente ignorare questo passaggio facendo clic su Avanti.
  5. La schermata successiva è la schermata Definisci nuovo modello . In Modello il nome assegnato al modello nel passaggio 3.3 verrà compilato automaticamente.
    1. In Descrizione digitare una descrizione per il modello (facoltativo) e lasciare la dimensione massima dell'immagine a 150 pixel.
    2. In Canali, fare clic su Aggiungi BF per aggiungere un canale brightfield all'elenco. In Nome, fare doppio clic su Brightfield e rinominare questo canale in BF. Fare clic su Aggiungi FL per aggiungere un canale fluorescente all'elenco. In Nome, fare doppio clic su Fluorescente e rinominare questo canale in DNA.
    3. In Nomi delle classi, fai clic su Aggiungi. Nella finestra pop-up, digitare Mononucleated e fare clic su OK. In questo modo la classe mononucleata viene aggiunta all'elenco dei nomi delle classi. Ripetere questa procedura per assicurarsi che nell'elenco siano definite le sei classi seguenti:
      Mononucleati
      Mononucleato con MN
      Binucleato
      Binucleato con MN
      Polinucleati
      Morfologia irregolare
      Fare clic su Avanti.

      NOTA: Queste sei classi di modelli di verità di base rappresenteranno gli eventi chiave da valutare, nonché immagini con morfologia diversa dal criterio di punteggio accettato5.
      1. Facoltativo: se lo si desidera, il modello di analisi della versione 1.7 può essere incluso per utilizzare le funzionalità del software di analisi delle immagini. Se desideri includere queste funzionalità nel modello di intelligenza artificiale, cerca il file .ast, quindi dai menu a discesa specifici del canale, scegli i sottoinsiemi di funzionalità che desideri includere.
    4. In Seleziona file, fai clic su Aggiungi file e cerca i file desiderati da aggiungere al software AI per creare i dati di verità di base. Fare clic su Avanti.
      NOTA: è importante aggiungere più file di dati (ad esempio, dati di controllo positivi e negativi) che contengano un numero sufficiente di tutti gli eventi chiave.
  6. Quindi, nella schermata Seleziona popolazioni di base , individuare la popolazione non apoptotica dalla gerarchia della popolazione. Fare clic con il pulsante destro del mouse sulla popolazione non apoptotica e selezionare Seleziona tutte le popolazioni corrispondenti. Fare clic su Avanti.
    NOTA: È importante escludere tutte le popolazioni che non dovrebbero essere classificate (ad esempio, perline, detriti, doppiette, ecc.)
  7. Questa schermata è la schermata Seleziona popolazioni di verità .
    1. Se le popolazioni di verità taggate degli eventi chiave non sono state create nel software di analisi delle immagini, fare clic su Avanti.
    2. Se nel software di analisi delle immagini sono state create popolazioni di verità contrassegnate, assegnarle alla classe di modello appropriata.
    3. Per assegnare una popolazione di verità taggata di cellule MONO con MN, fare clic sulla classe Mononucleata con MN in Classi modello a sinistra. Quindi fare clic sulla popolazione di verità appropriata taggata sulla destra che contiene questi eventi.
    4. Se le popolazioni di verità contrassegnate sono state create in più di un file di dati, fare clic con il pulsante destro del mouse su una delle popolazioni di verità e selezionare Seleziona tutte le popolazioni corrispondenti per aggiungere le popolazioni contrassegnate da più file alla classe appropriata.
    5. Una volta assegnate tutte le popolazioni di verità appropriate, fare clic su Avanti.
  8. Nella schermata Seleziona canali, scegli i canali appropriati per l'esperimento. Qui, impostare BF sul canale 1 e Hoechst sul canale 7. Fai clic con il pulsante destro del mouse su un canale e seleziona Applica a tutti. Fare clic su Avanti.
  9. Infine, nella schermata di conferma , fai clic su Crea esperimento.
  10. Il software AI carica le immagini dai file di dati e crea le classi di modello definite nel passaggio 3.5.3 con le immagini di verità di base assegnate nel passaggio 3.7. Fare clic su Fine.
  11. Una volta creato l'esperimento, vengono presentate cinque opzioni:
    Esperimento: fornisce i dettagli dell'esperimento, inclusi i file di dati caricati, i canali scelti e le classi definite del modello di verità di base.
    Tagging: lancia lo strumento di tagging attraverso il quale gli utenti possono popolare i dati di verità sul terreno.
    Addestramento: addestra un modello basato sui dati di verità sul terreno.
    Classifica: utilizza modelli addestrati per classificare i dati.
    Risultati: fornisce i risultati sia di un esperimento di addestramento che di un esperimento di classificazione.

4. Popolare i dati di verità di base utilizzando strumenti di tagging assistiti dall'intelligenza artificiale

  1. Fare clic su Tagging per avviare l'interfaccia dello strumento di tagging .
    1. Fare clic sugli strumenti di zoom (icone della lente di ingrandimento) per ritagliare le immagini e facilitarne la visualizzazione.
    2. Fare clic sulla barra di scorrimento per regolare le dimensioni dell'immagine e modificare il numero di immagini visualizzate nella galleria.
    3. Fare clic sull'opzione Impostazioni di visualizzazione e scegliere Min-Max, che fornisce la migliore immagine di contrasto per identificare tutti gli eventi chiave.
    4. Fare clic su Setup Gallery Display per modificare il colore dell'immagine del DNA in giallo o bianco, che migliorerà la visualizzazione di piccoli oggetti (ad esempio, MN).
  2. Fare clic su Cluster per eseguire l'algoritmo per raggruppare oggetti con morfologia simile. Una volta completato il clustering, i singoli cluster con il numero di oggetti per cluster vengono visualizzati in un elenco in Popolazioni sconosciute. Selezionare i singoli cluster per visualizzare gli oggetti all'interno del cluster e assegnare tali oggetti alle classi di modello appropriate.
  3. Dopo aver assegnato un minimo di 25 oggetti a ciascuna classe del modello, l'algoritmo Predict diventa disponibile. Fare clic su Prevedi.
    NOTA: gli oggetti che non si adattano bene a nessuna popolazione rimangono classificati come sconosciuti. Man mano che più oggetti vengono aggiunti alle popolazioni di verità, l'accuratezza della previsione migliora.
  4. Continuare a popolare le classi del modello di verità di base con immagini appropriate fino a raggiungere un numero sufficiente di oggetti in ogni classe.
  5. Una volta assegnato un minimo di 100 oggetti a ciascuna classe di modello, fare clic sulla scheda Formazione nella parte superiore dello schermo. Fare clic sul pulsante Treno per creare un modello utilizzando gli algoritmi Random Forest e CNN.
    NOTA: Il software AI crea modelli utilizzando entrambi gli algoritmi Random Forest e CNN, le caselle di controllo consentono la creazione di modelli utilizzando solo algoritmi Random Forest of CNN.

5. Valutazione dell'accuratezza del modello

  1. Una volta completato il training del modello, fare clic su Visualizza risultati.
  2. Utilizzare la schermata dei risultati per valutare l'accuratezza del modello. Utilizzare il menu a discesa per passare da Random Forest a CNN.
    NOTA: le popolazioni di verità possono essere aggiornate e il modello può essere nuovamente addestrato o utilizzato così com'è per classificare dati aggiuntivi.
    1. Per aggiornare le popolazioni della verità, clicca su Tagging in alto e segui la sezione 4.

6. Classificazione dei dati utilizzando il modello

  1. Avvia il software AI. La schermata predefinita è la schermata Nuovo esperimento . Usa l'icona Cartella per scegliere dove salvare l'esperimento e digita un nome per l'esperimento.
  2. In Tipo di esperimento, fai clic sul pulsante di opzione accanto a Classifica per avviare un esperimento di classificazione. Fare clic su Avanti.
  3. Fare clic sul modello da utilizzare per la classificazione, quindi fare clic su Avanti.
  4. Nella schermata Seleziona file, fare clic su Aggiungi file e cercare i file da classificare in base al modello CNN. Fare clic su Avanti.
  5. Successivamente, nella schermata Seleziona popolazioni di base , fare clic sulla casella di controllo accanto alla popolazione non apoptotica in uno dei file caricati. Fare clic con il pulsante destro del mouse sulla popolazione non apoptotica e fare clic su Seleziona tutte le popolazioni corrispondenti per selezionare questa popolazione da tutti i file caricati. Fare clic su Avanti.
  6. Facoltativo: se i dati da classificare contengono popolazioni di verità, possono essere assegnati alle classi di modello appropriate nella schermata Seleziona popolazioni di verità. In caso contrario, fare clic su Avanti per ignorare questo passaggio.
  7. Nella schermata Seleziona canali , scegliere Canale 1 per il campo chiaro e Canale 7 per la colorazione del DNA. Fai clic con il pulsante destro del mouse su un canale e fai clic su Applica a tutti. Quindi fare clic su Avanti.
  8. Infine, nella schermata di conferma , fai clic su Crea esperimento. Il software AI carica il modello selezionato e tutte le immagini dai file di dati scelti. Fare clic su Fine.
  9. Fare clic su Classifica per avviare la schermata di classificazione. Fare clic sul pulsante Classifica. Viene avviato il processo di utilizzo del modello RF e CNN per classificare dati aggiuntivi e identificare tutti gli oggetti che appartengono alle classi di modello specificate.
    NOTA: le caselle di controllo possono essere utilizzate per selezionare il modello RF e/o il modello CNN.
  10. Una volta completata la classificazione, fare clic su Visualizza risultati.
  11. Fare clic sul pulsante Aggiorna DAF per visualizzare la finestra Aggiorna DAF con risultati classificazione. Fare clic su OK per aggiornare i file .daf.

7. Generazione di un report dei risultati della classificazione

  1. Nella schermata Risultati, fare clic su Genera report. Selezionare la casella di controllo accanto a Crea report per ogni DAF di input se è necessario un singolo report per ogni DAF di input. Fare clic su OK.
  2. Al termine, aprire la cartella in cui sono stati salvati i file di report. All'interno della cartella sono presenti un report .pdf dell'esperimento e una cartella Risorse .
  3. Aprire il .pdf per visualizzare il report. Il report contiene informazioni sul modello e sull'esperimento, l'elenco dei file .daf di input, i conteggi delle classi e le percentuali delle classi in formato tabellare e istogramma e una matrice di confusione che riassume la probabilità di previsione mediana in tutti i file .daf di input.
  4. Aprire la cartella Risorse e quindi la cartella CNN . All'interno di questa cartella sono .png file del conteggio delle classi e dei grafici a barre percentuali, nonché la matrice di confusione. Inoltre, sono disponibili .csv file contenenti i conteggi delle classi e le percentuali per ogni file di input.

8. Determinazione della frequenza MN e della citotossicità

  1. Calcolo della frequenza MN
    1. Metodo non Cyt-B: per determinare la frequenza MN, aprire il file class_count.csv dal passaggio 7.4. Per ogni file di input, dividere i conteggi nella popolazione "Mononucleati con MN" per i conteggi nella popolazione "Mononucleata" e moltiplicare per 100:
      Equation 1
    2. Metodo Cyt-B: Per determinare la frequenza MN, aprire il file class_count.csv dal passaggio 7.4. Per ogni file di input, dividere i conteggi nella popolazione "Binucleated with MN" per i conteggi nella popolazione "Binucleated" e moltiplicare per 100:
      Equation 2
  2. Calcolo della citotossicità
    1. Metodo non Cyt-B:
      1. Utilizzando la conta delle cellule iniziali e la conta delle cellule post-trattamento, calcolare prima il raddoppio della popolazione (PD) per ciascun campione2:
        Equation 3
      2. Quindi, calcola la popolazione relativa raddoppiando2:
        Equation 4
      3. Infine, calcolare la citotossicità2 per ciascun campione:
        Equation 5
    2. Metodo Cyt-B:
      1. Per calcolare l'indice di proliferazione dei blocchi di citochinesi (CBPI)2, utilizzare i conteggi nelle classi mononucleata, binucleata e polinucleata per ciascun campione dal file class_count.csv :
        Equation 6
      2. Per calcolare la citotossicità2, utilizzare il CBPI dalle colture di controllo (C) e dalle colture esposte (T):
        Equation 7

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

La Figura 1 mostra il flusso di lavoro per l'utilizzo del software AI per creare un modello per il test MN. L'utente carica i file .daf desiderati nel software AI, quindi assegna gli oggetti alle classi del modello di verità di terra utilizzando gli algoritmi di tagging cluster assistito da AI (Figura 2) e predict (Figura 3). Una volta che tutte le classi del modello di verità di base sono state popolate con oggetti sufficienti, il modello può essere addestrato utilizzando gli algoritmi RF o CNN. Dopo l'addestramento, le prestazioni del modello possono essere valutate utilizzando strumenti quali istogrammi di distribuzione delle classi, statistiche di accuratezza e una matrice di confusione interattiva (Figura 4). Dalla schermata dei risultati nel software AI, l'utente può tornare alla parte di addestramento del flusso di lavoro per migliorare i dati di verità di base o, se è stata raggiunta una precisione sufficiente, l'utente può utilizzare il modello per classificare dati aggiuntivi.

Utilizzando sia l'algoritmo cluster che quello di previsione, 190 segmenti con un totale di 285.000 oggetti sono stati assegnati alle classi di verità di terra appropriate fino a quando tutte le classi sono state popolate con tra 1.500 e 10.000 immagini. In totale, 31.500 oggetti (solo il 10,5% degli oggetti iniziali caricati) sono stati utilizzati nell'addestramento di questo modello. La precisione (percentuale di falsi positivi), il richiamo (percentuale di falsi negativi) e il punteggio F1 (equilibrio tra precisione e richiamo) sono disponibili nel pacchetto software di deep learning per quantificare l'accuratezza del modello. Qui, queste statistiche variavano dall'86,0% al 99,4%, indicando un'elevata precisione del modello (Figura 4).

Utilizzando Cyt-B, le frequenze MN di fondo per tutti i campioni di controllo erano comprese tra 0,43% e 1,69%, confrontandosi bene con la letteratura17. Sono stati osservati aumenti statisticamente significativi della frequenza di MN, compresi tra il 2,09% e il 9,50% per la MMC (mitomicina C) e dal 2,99% al 7,98% per l'etoposide, rispetto ai controlli con solvente e confrontati bene con il punteggio della microscopia manuale. Durante l'esame del controllo negativo Mannitolo, non sono stati osservati aumenti significativi della frequenza di MN. Inoltre, è stato osservato un aumento della citotossicità con la dose sia per Etoposide che per MMC, con microscopia e AI che hanno mostrato tendenze simili in tutto l'intervallo di dosaggio. Per Mannitolo, non è stato osservato alcun aumento osservabile della citotossicità (Figura 5).

Quando non si utilizza Cyt-B, le frequenze MN di fondo per tutti i campioni di controllo erano comprese tra 0,38% e 1,0%, in linea con i risultati pubblicati in letteratura17. Sono stati osservati aumenti statisticamente significativi della frequenza di MN, compresi tra il 2,55% e il 7,89% per MMC e dal 2,37% al 5,13% per l'etoposide, rispetto ai controlli con solvente e confrontati bene con il punteggio della microscopia manuale. Durante l'esame del controllo negativo Mannitolo, non sono stati osservati aumenti significativi della frequenza di MN. Inoltre, è stato osservato un aumento della citotossicità con la dose sia per Etoposide che per MMC, con microscopia e AI che hanno mostrato tendenze simili in tutto l'intervallo di dosaggio. Per Mannitolo, non è stato osservato alcun aumento osservabile della citotossicità (Figura 5).

Durante il punteggio al microscopio, da ciascuna coltura, sono state valutate 1.000 cellule binucleate per valutare la frequenza di MN e altre 500 cellule mononucleate, binucleate o polinucleate sono state valutate per determinare la citotossicità nella versione Cyt-B del test. Nella versione non-Cyt-B del test, sono state valutate 1.000 cellule mononucleate per valutare la frequenza di MN. Con IFC, una media di 7.733 cellule binucleate, 6.493 cellule mononucleate e 2.649 cellule polinucleate sono state valutate per coltura per determinare la citotossicità. La frequenza MN è stata determinata all'interno della popolazione cellulare binucleata per la versione Cyt-B del test. Per la versione non-Cyt-B del test, una media di 27.866 cellule mononucleate sono state valutate per la presenza di MN (Figura 5).

Figure 1
Figura 1: flusso di lavoro del software AI. L'utente inizia selezionando i file .daf da caricare nel software AI. Una volta caricati i dati, l'utente inizia ad assegnare oggetti alle classi del modello di verità di base tramite l'interfaccia utente. Per aiutare nella popolazione della verità di base, il cluster e gli algoritmi di previsione possono essere utilizzati per identificare immagini con morfologia simile. Una volta aggiunto un numero sufficiente di oggetti a ciascuna classe del modello, è possibile eseguire il training del modello. Dopo la formazione, l'utente può valutare le prestazioni del modello utilizzando gli strumenti forniti, inclusa una matrice di confusione interattiva. Infine, l'utente può tornare alla parte di addestramento del flusso di lavoro per migliorare i dati di verità di base oppure, se è stata raggiunta una precisione sufficiente, l'utente può uscire dal ciclo del flusso di lavoro di addestramento/tagging e utilizzare il modello per classificare dati aggiuntivi. Fare clic qui per visualizzare una versione ingrandita di questa figura.

Figure 2
Figura 2: Algoritmo cluster. L'algoritmo del cluster può essere eseguito in qualsiasi momento su un segmento di 1.500 oggetti selezionati casualmente dai dati di input. Questo algoritmo raggruppa oggetti simili all'interno di un segmento in base alla morfologia sia degli oggetti non classificati che degli oggetti che sono stati assegnati alle classi del modello di verità di base. Le immagini di esempio mostrano cellule binucleate, mononucleate e multinucleate e cellule con morfologia irregolare. I cluster contenenti cellule mononucleate cadono su un lato della mappa degli oggetti, mentre i cluster con cellule multinucleate si trovano sul lato opposto della mappa degli oggetti. I cluster di cellule binucleate cadono da qualche parte tra i cluster di cellule mono- e multinucleate. Infine, gli ammassi con morfologia irregolare cadono in un'area completamente diversa della mappa degli oggetti. L'interfaccia utente consente di aggiungere interi cluster, o selezionare oggetti all'interno di cluster, alle classi del modello di verità di base. Fare clic qui per visualizzare una versione ingrandita di questa figura.

Figure 3
Figura 3: Prevedere l'algoritmo. L'algoritmo di previsione richiede un minimo di 25 oggetti in ogni classe del modello di verità di base e tenta di prevedere la classe di modello più appropriata per assegnare oggetti non classificati all'interno di un segmento. L'algoritmo di previsione è più robusto rispetto all'algoritmo cluster per quanto riguarda l'identificazione di morfologie sottili nelle immagini (cioè cellule mononucleate con MN [giallo] rispetto a cellule mononucleate senza MN [rosso]). Gli oggetti con queste somiglianze sono posti in stretta vicinanza sulla mappa degli oggetti; Tuttavia, l'utente è facilmente in grado di ispezionare le immagini in ogni classe prevista e assegnare oggetti alla classe di modello appropriata. Gli oggetti per i quali l'algoritmo non è in grado di prevedere una classe rimarranno come "sconosciuti". L'algoritmo di previsione consente agli utenti di popolare rapidamente le classi del modello di verità di base, in particolare nel caso di eventi considerati rari e difficili da trovare all'interno dei dati di input, come le cellule micronucleate. Fare clic qui per visualizzare una versione ingrandita di questa figura.

Figure 4
Figura 4: Matrice di confusione con i risultati del modello. La schermata dei risultati del software AI presenta all'utente tre diversi strumenti per valutare l'accuratezza del modello. (A) Gli istogrammi di distribuzione di classe consentono all'utente di fare clic sui contenitori dell'istogramma per valutare la relazione tra oggetti nelle popolazioni di verità e oggetti che si prevedeva appartenessero a quella classe modello. In generale, più i valori percentuali tra la verità e le popolazioni previste sono vicini l'uno all'altro per una data classe di modello, più accurato è il modello. (B) La tabella delle statistiche di accuratezza consente all'utente di valutare tre metriche comuni di apprendimento automatico per valutare l'accuratezza del modello: precisione, richiamo e F1. In generale, più queste metriche sono vicine al 100%, più accurato è il modello nell'identificare gli eventi nelle classi del modello. Infine, (C) la matrice di confusione interattiva fornisce un'indicazione di dove il modello sta classificando erroneamente gli eventi. Le voci sull'asse (verde) indicano oggetti dai dati di verità sul terreno che sono stati classificati correttamente durante l'addestramento. Le voci fuori asse (arancione ombreggiato) indicano oggetti dai dati di verità del terreno che sono stati classificati in modo errato. Vengono mostrati vari esempi di oggetti classificati erroneamente, tra cui (i) una cellula mononucleata classificata come cellula mononucleata con MN, (ii) una cellula binucleata classificata come cellula binucleata con MN, (iii) una cellula mononucleata classificata come cellula con morfologia irregolare, (iv) una cellula binucleata con MN classificata come cellula irregolare e (v) una cellula binucleata con MN classificata come cellula binucleata. Fare clic qui per visualizzare una versione ingrandita di questa figura.

Figure 5
Figura 5: Risultati di genotossicità e citotossicità. Genotossicità misurata dalla percentuale di MN al microscopio (barre trasparenti) e AI (barre tratteggiate) dopo un'esposizione di 3 ore e un recupero di 24 ore per Mannitolo, Etoposide e MMC utilizzando entrambi i metodi (A-C) Cyt-B e (D-F) non-Cyt-B. Aumenti statisticamente significativi della frequenza di MN rispetto ai controlli sono indicati da asterischi (*p < 0,001, Fisher's Exact Test). Le barre di errore rappresentano la deviazione standard della media da tre colture replicate in ciascun punto di dose, ad eccezione della MMC al microscopio, dove sono state valutate solo colture duplicate. Questa cifra è stata modificata da Rodrigues et al.15. Fare clic qui per visualizzare una versione ingrandita di questa figura.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Il lavoro qui presentato descrive l'uso di algoritmi di deep learning per automatizzare il punteggio del test MN. Diverse pubblicazioni recenti hanno dimostrato che strumenti intuitivi e interattivi consentono la creazione di modelli di deep learning per analizzare i dati delle immagini senza la necessità di conoscenze computazionali approfondite18,19. Il protocollo descritto in questo lavoro utilizzando un pacchetto software basato sull'interfaccia utente è stato progettato per funzionare bene con file di dati molto grandi e consentire la creazione di modelli di deep learning con facilità. Vengono discussi tutti i passaggi necessari per creare e addestrare modelli RF e CNN nel pacchetto software AI, consentendo un'identificazione e una quantificazione altamente accurate di tutti gli eventi chiave sia nelle versioni Cyt-B che non Cyt-B del test. Infine, vengono descritti i passaggi per utilizzare questi modelli di deep learning per classificare dati aggiuntivi e valutare la citotossicità chimica e la frequenza del MN.

Il software AI utilizzato in questo lavoro è stato creato con una comoda interfaccia utente e costruito per funzionare facilmente con grandi set di dati generati da sistemi IFC. Il training, la valutazione e il miglioramento dei modelli di deep learning seguono un approccio iterativo semplice (Figura 1) e l'applicazione dei modelli addestrati per classificare dati aggiuntivi può essere eseguita in pochi passaggi. Il software contiene algoritmi distintivi di cluster (Figura 2) e previsione (Figura 3) che consentono una rapida assegnazione di oggetti in appropriate classi di modelli di verità di base. Il protocollo in questo documento dimostra come un modello CNN, costruito e addestrato utilizzando software AI, sia in grado di identificare in modo robusto tutti gli eventi chiave nel test MN; Produce risultati che si confrontano bene con la microscopia tradizionale, eliminando così la necessità di analisi delle immagini e di esperienza di codifica informatica. Inoltre, i risultati del modello interattivo (Figura 4) consentono l'analisi di eventi specifici che il modello classifica erroneamente. Il processo iterativo consente di assegnare questi eventi classificati in modo errato alle classi di modello appropriate in modo che il modello possa essere nuovamente addestrato per migliorare la precisione.

I risultati presentati qui (Figura 5) mostrano la valutazione di Mannitolo, Etoposide e MMC utilizzando la microscopia e un modello CNN creato nel software AI. Utilizzando entrambe le versioni del test MN, valutate con un singolo modello di intelligenza artificiale, gli aumenti della citotossicità sono coerenti con l'aumento delle dosi sia per MMC che per l'etoposide, mentre l'esposizione al mannitolo non produce alcun aumento della citotossicità, come previsto. Per la valutazione della genotossicità, sono stati dimostrati aumenti significativi (test esatto di Fisher, unilaterale) della frequenza di MN utilizzando MMC ed etoposide ma non usando mannitolo. I risultati sia per la microscopia che per il modello AI sono stati confrontati bene tra gli intervalli di dosaggio per ciascuna sostanza chimica testata.

In diverse pubblicazioni precedenti, è stato dimostrato che un test MN basato su IFC può essere eseguito con passaggi di preparazione del campione semplici e diretti insieme a un'analisi basata su immagini utilizzando maschere (regioni di interesse che evidenziano i pixel in un'immagine) e caratteristiche calcolate utilizzando queste maschere per valutare automaticamente tutti gli eventi chiave12,13,16 . Questo test basato su IFC sfrutta i punti di forza dell'IFC, tra cui l'acquisizione di immagini ad alto rendimento, l'elaborazione semplificata dei campioni con semplici coloranti del DNA e la differenziazione automatizzata delle immagini cellulari con morfologia che si allinea con i criteri di punteggio del test MN pubblicati. Tuttavia, questo flusso di lavoro presentava anche degli svantaggi, come la complessità delle tecniche di analisi basate sulle caratteristiche, che sono spesso rigide e richiedono una conoscenza avanzata dei pacchetti software di analisi delle immagini12. L'uso del deep learning per analizzare i dati MN acquisiti da IFC dimostra che le CNN possono essere utilizzate per liberarsi dalle restrizioni e dalle difficoltà delle analisi basate sulle caratteristiche, producendo risultati altamente accurati e confrontabili con il punteggio di microscopia14,15. Mentre questo approccio basato sull'intelligenza artificiale è promettente, ulteriori studi con una selezione ampliata di sostanze chimiche ben descritte dovrebbero essere eseguiti per testare e convalidare ulteriormente la robustezza della tecnica. Questo lavoro dimostra ulteriormente i vantaggi dell'IFC rispetto ai metodi più tradizionali, come la microscopia e la citometria a flusso convenzionale, per migliorare le prestazioni dei saggi con morfologie impegnative e requisiti di punteggio rigorosi.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Gli autori sono impiegati da Luminex Corporation, una società DiaSorin, il produttore del citometro a flusso di imaging ImageStream e del software Amnis AI utilizzato in questo lavoro.

Acknowledgments

Nessuno.

Materials

Name Company Catalog Number Comments
15 mL centrifuge tube Falcon 352096
Cleanser - Coulter Clenz  Beckman Coulter 8546931 Fill container with 200 mL of Cleanser.  https://www.beckmancoulter.com/wsrportal/page/itemDetails?itemNumber=8546931#2/10//0/25/
1/0/asc/2/8546931///0/1//0/
Colchicine MilliporeSigma 64-86-8
Corning bottle-top vacuum filter  MilliporeSigma CLS430769 0.22 µm filter, 500 mL bottle
Cytochalasin B MilliporeSigma 14930-96-2 5 mg bottle
Debubbler - 70% Isopropanol MilliporeSigma 1.3704 Fill container with 200 mL of Debubbler.  http://www.emdmillipore.com/US/en/product/2-Propanol-70%25-%28V%2FV%29-0.1-%C2%B5m-filtred,MDA_CHEM-137040?ReferrerURL=https%3A%2F%2Fwww.google.com%2F
Dimethyl Sulfoxide (DMSO) MilliporeSigma 67-68-5
Dulbecco's Phosphate Buffered Saline 1X EMD Millipore BSS-1006-B PBS Ca++MG++ Free 
Fetal Bovine Serum HyClone SH30071.03
Formaldehyde, 10%, methanol free, Ultra Pure Polysciences, Inc. 04018 This is what is used for the 4% and 1% Formalin. CAUTION: Formalin/Formaldehyde toxic by inhalation and if swallowed.  Irritating to the eyes, respiratory systems and skin.  May cause sensitization by inhalation or skin contact. Risk of serious damage to eyes.  Potential cancer hazard.  http://www.polysciences.com/default/catalog-products/life-sciences/histology-microscopy/fixatives/formaldehydes/formaldehyde-10-methanol-free-pure/
Guava Muse Cell Analyzer Luminex 0500-3115 A standard configuration Guava Muse Cell Analyzer was used.
Hoechst 33342 Thermo Fisher H3570 10 mg/mL solution
Mannitol MilliporeSigma 69-65-8
MEM Non-Essential Amino Acids 100X HyClone SH30238.01
MIFC - ImageStreamX Mark II Luminex, a DiaSorin company 100220 A 2 camera ImageStreamX Mark II eqiped with the 405 nm, 488 nm, and 642 nm lasers was used.
MIFC analysis software - IDEAS Luminex, a DiaSorin company 100220 "Image analysis sofware"
The companion software to the MIFC (ImageStreamX MKII)
MIFC software - INSPIRE Luminex, a DiaSorin company 100220 "Image acquisition software"
This is the software that runs the MIFC (ImageStreamX MKII)
Amnis AI software Luminex, a DiaSorin company 100221 "AI software"
This is the software that permits the creation of artificial intelligence models to analyze data
Mitomycin C MilliporeSigma 50-07-7
NEAA Mixture 100x Lonza BioWhittaker 13-114E
Penicllin/Streptomycin/Glutamine solution 100X Gibco 15070063
Potassium Chloride (KCl) MilliporeSigma P9541
Rinse - Ultrapure water or deionized water NA NA Use any ultrapure water or deionized water.  Fill container with 900 mL of Rinse.
RNase MilliporeSigma 9001-99-4
RPMI-1640 Medium 1x HyClone SH30027.01
Sheath - PBS MilliporeSigma BSS-1006-B This is the same as Dulbecco's Phosphate Buffered Saline 1x  Ca++MG++ free.  Fill container with 900 mL of Sheath.
Sterile water HyClone SH30529.01
Sterilizer - 0.4%–0.7% Hypochlorite VWR JT9416-1 This is assentually 10% Clorox bleach that can be made by deluting Clorox bleach with water.  Fill container with 200 mL of Sterilzer.
T25 flask Falcon 353109
T75 flask Falcon 353136
TK6 cells MilliporeSigma 95111735

DOWNLOAD MATERIALS LIST

References

  1. Fenech, M., et al. HUMN project initiative and review of validation, quality control and prospects for further development of automated micronucleus assays using image cytometry systems. International Journal of Hygiene and Environmental Health. 216 (5), 541-552 (2013).
  2. OECD. Test No. 487: In Vitro Mammalian Cell Micronucleus Test. Section 4. OECD Guidelines for the Testing of Chemicals. , OECD Publishing. Paris. (2016).
  3. Fenech, M. The in vitro micronucleus technique. Mutation Research/Fundamental and Molecular Mechanisms of Mutagenesis. 455 (1), 81-95 (2000).
  4. Bonassi, S., et al. An increased micronucleus frequency in peripheral blood lymphocytes predicts the risk of cancer in humans. Carcinogenesis. 28 (3), 625-631 (2007).
  5. Fenech, M. Cytokinesis-block micronucleus cytome assay. Nature Protocols. 2 (5), 1084-1104 (2007).
  6. Fenech, M. Commentary on the SFTG international collaborative study on the in vitro micronucleus test: To Cyt-B or not to Cyt-B. Mutation Research/Fundamental and Molecular Mechanisms of Mutagenesis. 607 (1), 9-12 (2006).
  7. Seager, A. L., et al. Recommendations, evaluation and validation of a semi-automated, fluorescent-based scoring protocol for micronucleus testing in human cells. Mutagenesis. 29 (3), 155-164 (2014).
  8. Rossnerova, A., Spatova, M., Schunck, C., Sram, R. J. Automated scoring of lymphocyte micronuclei by the MetaSystems Metafer image cytometry system and its application in studies of human mutagen sensitivity and biodosimetry of genotoxin exposure. Mutagenesis. 26 (1), 169-175 (2011).
  9. Bryce, S. M., Bemis, J. C., Avlasevich, S. L., Dertinger, S. D. In vitro micronucleus assay scored by flow cytometry provides a comprehensive evaluation of cytogenetic damage and cytotoxicity. Mutation Research/Genetic Toxicology and Environmental Mutagenesis. 630 (1), 78-91 (2007).
  10. Avlasevich, S. L., Bryce, S. M., Cairns, S. E., Dertinger, S. D. In vitro micronucleus scoring by flow cytometry: Differential staining of micronuclei versus apoptotic and necrotic chromatin enhances assay reliability. Environmental and Molecular Mutagenesis. 47 (1), 56-66 (2006).
  11. Basiji, D. A. Principles of Amnis imaging flow cytometry. Methods in Molecular Biology. 1389, 13-21 (2016).
  12. Rodrigues, M. A. Automation of the in vitro micronucleus assay using the Imagestream® imaging flow cytometer. Cytometry Part A. 93 (7), 706-726 (2018).
  13. Verma, J. R., et al. Investigating FlowSight® imaging flow cytometry as a platform to assess chemically induced micronuclei using human lymphoblastoid cells in vitro. Mutagenesis. 33 (4), 283-289 (2018).
  14. Wills, J. W., et al. Inter-laboratory automation of the in vitro micronucleus assay using imaging flow cytometry and deep learning. Archives of Toxicology. 95 (9), 3101-3115 (2021).
  15. Rodrigues, M. A., et al. The in vitro micronucleus assay using imaging flow cytometry and deep learning. Npj Systems Biology and Applications. 7 (1), 20 (2021).
  16. Rodrigues, M. A. An automated method to perform the in vitro micronucleus assay using multispectral imaging flow cytometry. Journal of Visualized Experiments. (147), e59324 (2019).
  17. Lovell, D. P., et al. Analysis of negative historical control group data from the in vitro micronucleus assay using TK6 cells. Mutation Research/Genetic Toxicology and Environmental Mutagenesis. 825, 40-50 (2018).
  18. Berg, S., et al. ilastik: interactive machine learning for (bio)image analysis. Nature Methods. 16 (12), 1226-1232 (2019).
  19. Hennig, H., et al. An open-source solution for advanced imaging flow cytometry data analysis using machine learning. Methods. 112, 201-210 (2017).

Tags

Bioingegneria Numero 191 saggio del micronucleo genotossicità citotossicità citometria a flusso di imaging analisi delle immagini apprendimento automatico intelligenza artificiale
Automazione del test del micronucleo mediante citometria a flusso di imaging e intelligenza artificiale
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Rodrigues, M. A., Gracia García More

Rodrigues, M. A., Gracia García Mendoza, M., Kong, R., Sutton, A., Pugsley, H. R., Li, Y., Hall, B. E., Fogg, D., Ohl, L., Venkatachalam, V. Automation of the Micronucleus Assay Using Imaging Flow Cytometry and Artificial Intelligence. J. Vis. Exp. (191), e64549, doi:10.3791/64549 (2023).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter