Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Medicine

Test robotizzati delle posizioni della telecamera per determinare la configurazione ideale per la visualizzazione 3D stereo della chirurgia a cuore aperto

Published: August 12, 2021 doi: 10.3791/62786

Summary

La percezione della profondità umana dei video stereo 3D dipende dalla separazione della telecamera, dal punto di convergenza, dalla distanza e dalla familiarità dell'oggetto. Questo documento presenta un metodo robotizzato per la raccolta rapida e affidabile dei dati di test durante la chirurgia a cuore aperto dal vivo per determinare la configurazione ideale della telecamera.

Abstract

Il video 3D stereo delle procedure chirurgiche può essere molto prezioso per l'educazione medica e migliorare la comunicazione clinica. Ma l'accesso alla sala operatoria e al campo chirurgico è limitato. È un ambiente sterile e lo spazio fisico è affollato di personale chirurgico e attrezzature tecniche. In questo contesto, la cattura non oscurata e la riproduzione realistica delle procedure chirurgiche sono difficili. Questo documento presenta un metodo per la raccolta rapida e affidabile di dati di video 3D stereoscopici a diverse distanze di base della telecamera e distanze di convergenza. Per raccogliere i dati dei test con interferenze minime durante l'intervento chirurgico, con alta precisione e ripetibilità, le telecamere sono state collegate a ciascuna mano di un robot a doppio braccio. Il robot era montato a soffitto in sala operatoria. È stato programmato per eseguire una sequenza temporizzata di movimenti sincronizzati della telecamera che attraversano una serie di posizioni di prova con distanza di base compresa tra 50-240 mm a passi incrementali di 10 mm e a due distanze di convergenza di 1100 mm e 1400 mm. L'intervento chirurgico è stato sospeso per consentire 40 campioni video consecutivi da 5 s. Sono stati registrati un totale di 10 scenari chirurgici.

Introduction

In chirurgia, la visualizzazione 3D può essere utilizzata per l'istruzione, le diagnosi, la pianificazione pre-operatoria e la valutazione post-operatoria1,2. La percezione realistica della profondità può migliorare la comprensione3,4,5,6 di anatomie normali e anormali. Semplici registrazioni video 2D di procedure chirurgiche sono un buon inizio. Tuttavia, la mancanza di percezione della profondità può rendere difficile per i colleghi non chirurgici comprendere appieno le relazioni antero-posteriori tra diverse strutture anatomiche e quindi introdurre anche un rischio di interpretazione errata dell'anatomia7,8,9,10.

L'esperienza di visualizzazione 3D è influenzata da cinque fattori: (1) La configurazione della telecamera può essere parallela o integrata come mostrato nella Figura 1, (2) Distanza di base (la separazione tra le telecamere). (3) Distanza dall'oggetto di interesse e altre caratteristiche della scena come lo sfondo. (4) Caratteristiche dei dispositivi di visualizzazione come le dimensioni dello schermo e la posizione di visualizzazione1,11,12,13. (5) Preferenze individuali degli spettatori14,15.

La progettazione di una configurazione della fotocamera 3D inizia con l'acquisizione di video di prova registrati a varie distanze e configurazioni di base della telecamera da utilizzare per la valutazione soggettiva o automatica16,17,18,19,20. La distanza della fotocamera deve essere costante rispetto al campo chirurgico per acquisire immagini nitide. La messa a fuoco fissa è preferita perché l'autofocus si regola per mettere a fuoco mani, strumenti o teste che potrebbero entrare in vista. Tuttavia, questo non è facilmente realizzabile quando la scena di interesse è il campo chirurgico. Le sale operatorie sono aree ad accesso limitato perché queste strutture devono essere mantenute pulite e sterili. Attrezzature tecniche, chirurghi e infermieri di scrub sono spesso raggruppati strettamente attorno al paziente per garantire una buona panoramica visiva e un flusso di lavoro efficiente. Per confrontare e valutare l'effetto delle posizioni della telecamera sull'esperienza di visualizzazione 3D, una gamma di test completa delle posizioni della telecamera deve registrare la stessa scena perché le caratteristiche dell'oggetto come forma, dimensioni e colore possono influire sull'esperienza di visione 3D21.

Per lo stesso motivo, le gamme di test complete delle posizioni della telecamera devono essere ripetute su diverse procedure chirurgiche. L'intera sequenza di posizioni deve essere ripetuta con elevata precisione. In un ambiente chirurgico, i metodi esistenti che richiedono la regolazione manuale della distanza di base22 o diverse coppie di telecamere con distanze fisse di base23 non sono fattibili a causa di vincoli di spazio e tempo. Per affrontare questa sfida, è stata progettata questa soluzione robotizzata.

I dati sono stati raccolti con un robot industriale collaborativo a doppio braccio montato nel soffitto della sala operatoria. Le telecamere sono state attaccate ai polsi del robot e spostate lungo una traiettoria a forma di arco con una distanza di base crescente, come mostrato nella Figura 2.

Per dimostrare l'approccio, sono state registrate 10 serie di test da 4 diversi pazienti con 4 diversi difetti cardiaci congeniti. Le scene sono state scelte quando una pausa in chirurgia era fattibile: con i cuori che battono appena prima e dopo la riparazione chirurgica. Le serie sono state fatte anche quando i cuori sono stati arrestati. Gli interventi chirurgici sono stati sospesi per 3 minuti e 20 secondi per raccogliere quaranta 5-ssequence con diverse distanze di convergenza della fotocamera e distanze di base per catturare la scena. I video sono stati successivamente post-elaborati, visualizzati in 3D per il team clinico, che ha valutato quanto fosse realistico il video 3D su una scala da 0 a 5.

Il punto di convergenza per le telecamere stereo toed-in è dove si incontrano i punti centrali di entrambe le immagini. Il punto di convergenza può, in linea di principio, essere posizionato davanti, all'interno o dietro l'oggetto, vedi Figura 1A-C. Quando il punto di convergenza si trova di fronte all'oggetto, l'oggetto verrà catturato e visualizzato a sinistra della linea mediana per l'immagine della fotocamera sinistra e a destra della linea mediana per l'immagine della fotocamera destra (Figura 1A). Il contrario si applica quando il punto di convergenza è dietro l'oggetto (Figura 1B). Quando il punto di convergenza è sull'oggetto, l'oggetto apparirà anche nella linea mediana delle immagini della fotocamera (Figura 1C), che presumibilmente dovrebbe produrre la visione più comoda poiché non è necessario strizzare gli occhi per unire le immagini. Per ottenere un comodo video 3D stereo, il punto di convergenza deve essere posizionato sopra, o leggermente dietro, l'oggetto di interesse, altrimenti lo spettatore è tenuto a strizzare volontariamente gli occhi verso l'esterno (esotropia).

I dati sono stati raccolti utilizzando un robot industriale collaborativo a doppio braccio per posizionare le telecamere (Figura 2A-B). Il robot pesa 38 kg senza attrezzatura. Il robot è intrinsecamente sicuro; quando rileva un impatto imprevisto, smette di muoversi. Il robot è stato programmato per posizionare le telecamere da 5 Megapixel con obiettivi con innesto C lungo una traiettoria a forma di arco fermandosi a distanze di base predeterminate (Figura 2C). Le telecamere sono state attaccate alle mani del robot utilizzando piastre adattatori, come mostrato nella Figura 3. Ogni telecamera ha registrato a 25 fotogrammi al secondo. Le lenti sono state impostate a f-stop 1/8 con messa a fuoco fissa sull'oggetto di interesse (centro geometrico approssimativo del cuore). Ogni fotogramma dell'immagine aveva un timestamp che veniva utilizzato per sincronizzare i due flussi video.

Gli offset tra il polso del robot e la fotocamera sono stati calibrati. Ciò può essere ottenuto allineando il mirino delle immagini della fotocamera, come mostrato nella Figura 4. In questa configurazione, l'offset traslazionale totale dal punto di montaggio sul polso del robot e dal centro del sensore di immagine della telecamera era di 55,3 mm nella direzione X e 21,2 mm nella direzione Z, visualizzati nella Figura 5. Gli offset rotazionali sono stati calibrati a una distanza di convergenza di 1100 mm e una distanza di base di 50 mm e regolati manualmente con il joystick sul pannello di controllo del robot. Il robot in questo studio aveva una precisione specificata di 0,02 mm nello spazio cartesiano e una risoluzione rotazionale di 0,01 gradi24. Con un raggio di 1100 m, una differenza d'angolo di 0,01 gradi compensa il punto centrale di 0,2 mm. Durante il movimento completo del robot da 50-240 mm di separazione, il mirino di ogni telecamera era entro 2 mm dal centro ideale di convergenza.

La distanza di base è stata aumentata gradualmente dalla separazione simmetrica delle telecamere attorno al centro del campo visivo con incrementi di 10 mm compresi tra 50 e 240 mm (Figura 2). Le telecamere sono state tenute ferme per 5 s in ogni posizione e spostate tra le posizioni ad una velocità di 50 mm/s. Il punto di convergenza può essere regolato nelle direzioni X e Z utilizzando un'interfaccia utente grafica (Figura 6). Il robot ha seguito di conseguenza all'interno del suo raggio di lavoro.

L'accuratezza del punto di convergenza è stata stimata utilizzando i triangoli uniformi e i nomi delle variabili nella Figura 7A e B. L'altezza 'z' è stata calcolata dalla distanza di convergenza 'R' con il teorema di Pitagora come

Equation 1

Quando il punto di convergenza reale era più vicino del punto desiderato, come mostrato nella Figura 7A, la distanza di errore 'f1' è stata calcolata come

Equation 2

Allo stesso modo, quando il punto di convergenza era distale al punto desiderato, la distanza di errore 'f2' veniva calcolata come

Equation 3

Qui, 'e' era la massima separazione tra il mirino, al massimo 2 mm alla massima separazione della linea di base durante la calibrazione (D = 240 mm). Per R = 1100 mm (z = 1093 mm), l'errore era inferiore a ± 9,2 mm. Per R = 1400 mm (z = 1395 mm), l'errore è stato ± 11,7 mm. Cioè, l'errore del posizionamento del punto di convergenza era entro l'1% del desiderato. Le due distanze di prova di 1100 mm e 1400 mm erano quindi ben separate.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Gli esperimenti sono stati approvati dal Comitato Etico locale di Lund, in Svezia. La partecipazione è stata volontaria e i tutori legali dei pazienti hanno fornito un consenso scritto informato.

1. Configurazione e configurazione del robot

NOTA: questo esperimento ha utilizzato un robot industriale collaborativo a doppio braccio e il pannello di controllo standard con display touch. Il robot è controllato con il software di controllo RobotWare 6.10.01 e l'ambiente di sviluppo integrato robot (IDE) RobotStudio 2019.525. Il software sviluppato dagli autori, tra cui l'applicazione robot, l'applicazione di registrazione e gli script di post-elaborazione, sono disponibili nel repository GitHub26.

ATTENZIONE: utilizzare occhiali protettivi e velocità ridotta durante l'installazione e il collaudo del programma robot.

  1. Montare il robot a soffitto o su un tavolo utilizzando bulloni dimensionati per 100 kg come descritto a pagina 25 delle specifiche del prodotto24, seguendo le specifiche del produttore. Assicurarsi che le braccia possano muoversi liberamente e che la linea di vista verso il campo visivo non sia oscurata.
    ATTENZIONE: utilizzare corde di sollevamento o di sicurezza quando si monta il robot in posizione elevata.
  2. Avviare il robot ruotando l'interruttore di avvio situato alla base del robot. Calibrare il robot seguendo la procedura descritta nel manuale d'uso alle pagine 47-5625.
  3. Avviare l'IDE del robot su un computer Windows.
  4. Collegarsi al sistema robotizzato fisico (manuale operativo pagina 14027).
  5. Caricare il codice per il programma robot e le librerie di applicazioni per l'interfaccia utente sul robot:
    1. Il codice robot per un robot montato a soffitto si trova nella cartella Robot/InvertedCode e per un robot montato su tavolo in Robot/TableMountedCode. Per ciascuno dei file left/Data.mod, left/MainModule.mod, right/Data.mod e right/MainModule.mod:
    2. Creare un nuovo modulo di programma (vedere manuale operativo pagina 31827) con lo stesso nome del file (Data o MainModule) e copiare il contenuto del file nel nuovo modulo.
    3. Premere su Applica nell'IDE del robot per salvare i file sul robot.
  6. Utilizzare Trasferimento file (pagina del manuale operativo 34627) per trasferire i file dell'applicazione robot TpSViewStereo2.dll, TpsViewStereo2.gtpu.dll e TpsViewStereo2.pdb che si trovano nella cartella FPApp al robot. Dopo questo passaggio, l'IDE del robot non verrà ulteriormente utilizzato.
  7. Premere il pulsante Reset sul retro del display touch del robot (FlexPendant) per ricaricare l'interfaccia grafica. L'applicazione robot Stereo2 sarà ora visibile sotto il menu del display touch.
  8. Installare l'applicazione di registrazione (Liveview) e l'applicazione di post-elaborazione su un computer Ubuntu 20.04 eseguendo lo script install_all_linux.sh, che si trova nella cartella principale nel repository Github.
  9. Montare ogni telecamera sul robot. I componenti necessari per il montaggio sono visualizzati nella Figura 3A.
    1. Montare l'obiettivo sulla fotocamera.
    2. Montare la fotocamera sulla piastra dell'adattatore della fotocamera con tre viti M2.
    3. Montare la piastra di montaggio circolare sulla piastra dell'adattatore della telecamera con quattro viti M6 sul lato opposto della telecamera.
  10. Ripetere i passaggi 1.9.1-1.9.3 per l'altra fotocamera. Gli assiemi risultanti vengono specchiati, come illustrato nella Figura 3B e nella Figura 3C.
  11. Montare la piastra dell'adattatore al polso del robot con quattro viti M2.5, come mostrato nella Figura 3D.
    1. Per un robot montato a soffitto: collegare la telecamera sinistra nella Figura 3C al braccio sinistro del robot, come mostrato nella Figura 2A.
    2. Per un robot montato su tavolo: collegare la telecamera sinistra nella Figura 3C al braccio destro del robot.
  12. Collegare i cavi USB alle fotocamere, come mostrato nella Figura 3E, e al computer Ubuntu.

2. Verificare la calibrazione della fotocamera

  1. Sul display touch del robot, premere il pulsante Menu e selezionare Stereo2 per avviare l'applicazione robot. Si aprirà la schermata principale, come mostrato nella Figura 6A.
    1. Nella schermata principale, premere Vai per avviare per 1100 mm nell'applicazione robot e attendere che il robot si sposti nella posizione iniziale.
    2. Rimuovere i cappucci protettivi delle lenti dalle fotocamere e collegare i cavi USB al computer Ubuntu.
    3. Posizionare una griglia di calibrazione stampata (CalibrationGrid.png nel repository) a 1100 mm dai sensori della telecamera. Per facilitare la corretta identificazione dei quadrati corrispondenti, posizionare un piccolo dado a vite o un segno da qualche parte al centro della griglia.
  2. Avviare l'applicazione di registrazione sul computer Ubuntu (eseguire lo script start.sh che si trova nella cartella liveview all'interno del repository Github). Verrà avviata l'interfaccia, come illustrato nella Figura 4.
    1. Regola l'apertura e metti a fuoco l'obiettivo con le ghiere di apertura e messa a fuoco.
    2. Nell'applicazione di registrazione, selezionare Mirino per visualizzare il mirino.
  3. Nell'applicazione di registrazione, assicurarsi che il mirino sia allineato con la griglia di calibrazione nella stessa posizione in entrambe le immagini della telecamera, come mostrato nella Figura 4. Molto probabilmente, saranno necessari alcuni aggiustamenti come segue:
    1. Se le croci non si sovrappongono, premere l'icona a forma di ingranaggio (in basso a sinistra Figura 6A) nell'applicazione robot sul display touch del robot per aprire la schermata di impostazione, come mostrato nella Figura 6B.
    2. Premere su 1. Passare a Start Pos, come illustrato nella Figura 6B.
    3. Spingere il robot con il joystick per regolare la posizione della fotocamera (manuale operativo pagina 3123).
    4. Aggiornare la posizione dell'utensile per ciascun braccio robotico. Premere 3. Aggiorna lo strumento a sinistra e 4. Aggiorna strumento destro per salvare la calibrazione rispettivamente per il braccio sinistro e destro.
    5. Premere l'icona Freccia indietro (in alto a destra, Figura 6B) per tornare alla schermata principale.
  4. Premere su Esegui esperimento (Figura 6A) nell'applicazione robot e verificare che il mirino sia allineato. In caso contrario, ripetere i passaggi 2.3-2.3.5.
  5. Aggiungi e testa eventuali modifiche alle distanze e/o all'ora a questo punto. Ciò richiede modifiche nel codice del programma robot e competenze avanzate di programmazione del robot. Modificare le seguenti variabili nel modulo Dati nell'attività sinistra (braccio): le distanze di separazione desiderate nella variabile di matrice intera Distanze, le distanze di convergenza nell'array intero ConvergencePos e modificare l'ora ad ogni passaggio modificando la variabile Nwaittime (valore in secondi).
    ATTENZIONE: non eseguire mai un programma robot non testato durante un intervento chirurgico dal vivo.
  6. Al termine della calibrazione, premere su Alza per sollevare i bracci del robot in posizione di standby.
  7. Facoltativamente, spegnere il robot.
    NOTA: la procedura può essere sospesa tra uno dei passaggi precedenti.

3. Preparazione all'inizio dell'intervento chirurgico

  1. Spolverare il robot.
    1. Se il robot è stato spento, avviarlo attivando l'interruttore Start situato alla base del robot.
  2. Avviare l'applicazione robot sul display touch e sull'applicazione di registrazione descritta nei passaggi 2.1 e 2.2.
  3. Nell'applicazione di registrazione, creare e quindi selezionare la cartella in cui salvare il video (premere Cambia cartella).
  4. Nell'applicazione robot: premere l'icona dell'ingranaggio, posizionare le telecamere in relazione al paziente. Modificare la direzione X e Z premendo +/- per Distanza della mano dal robot e Altezza, rispettivamente, in modo che l'immagine catturi il campo chirurgico. Eseguire il posizionamento nella direzione Y spostando manualmente il robot o il paziente.
    NOTA: i preparativi possono essere sospesi tra le fasi di preparazione 3.1-3.4.

4. Esperimento

ATTENZIONE: Tutto il personale deve essere informato in anticipo sull'esperimento.

  1. Mettere in pausa l'intervento chirurgico.
    1. Informare il personale di sala operatoria che l'esperimento è stato avviato.
  2. Premere Registra nell'applicazione di registrazione.
  3. Premere Esegui esperimento nell'applicazione robot.
  4. Attendere mentre il programma è in esecuzione; il robot visualizza "Fatto" nell'applicazione robot sul display touch al termine.
  5. Interrompere la registrazione nell'applicazione di registrazione premendo Esci.
    1. Informare il personale di sala operatoria che l'esperimento è terminato.
  6. Riprendere l'intervento chirurgico.
    NOTA: l'esperimento non può essere sospeso durante i passaggi 4.1-4.6.

5. Ripeti

  1. Ripetere i passaggi 4.1-4.6 per acquisire un'altra sequenza e i passaggi 3.1-3.4 e 4.1-4.6 per acquisire sequenze da diversi interventi chirurgici. Cattura circa dieci sequenze complete.

6. Post-elaborazione

NOTA: i seguenti passaggi possono essere eseguiti utilizzando la maggior parte dei software di editing video o gli script forniti nella cartella di post-elaborazione.

  1. In questo caso, debayer il video in quanto viene salvato nel formato RAW:
    1. Eseguire lo script postprocessing/debayer/run.sh per aprire l'applicazione debayer mostrata nella Figura 8A.
    2. Premere Sfoglia directory di input e selezionare la cartella con il video RAW.
    3. Premere Sfoglia directory di output e selezionare una cartella per i file video debayered e regolati a colori risultanti.
    4. Premi Debayer! e attendere il completamento del processo: entrambe le barre di avanzamento sono piene, come illustrato nella Figura 8B.
  2. Unisci i video sincronizzati a destra e a sinistra in formato stereo 3D28:
    1. Eseguire lo script postprocessing/merge_tb/run.sh per avviare l'applicazione di unione; apre l'interfaccia utente grafica mostrata nella Figura 8C.
    2. Premi Sfoglia directory di input e seleziona la cartella con i file video debayered.
    3. Premere Sfoglia directory di output e selezionare una cartella per il file stereo 3D unito risultante.
    4. Premi Unisci! e attendere fino a quando non viene visualizzata la schermata di fine nella Figura 8D .
  3. Utilizzate un software di editing video standard come Premiere Pro per aggiungere etichette di testo a ogni distanza della videocamera nel video.
    NOTA: nel video, c'è una scossa visibile ogni volta che il robot si muove e la distanza della telecamera aumenta. In questo esperimento, le etichette A-T sono state utilizzate per le distanze della fotocamera.

7. Valutazione

  1. Visualizza il video in formato 3D superiore-inferiore con un proiettore 3D attivo.
  2. L'esperienza visiva dipende dall'angolo di visione e dalla distanza dallo schermo; valutare il video utilizzando il pubblico e la configurazione previsti.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Un video di valutazione accettabile con l'immagine giusta posizionata in alto nel 3D stereoscopico superiore-inferiore viene mostrato in Video1. Una sequenza riuscita deve essere nitida, focalizzata e senza fotogrammi di immagine non sincronizzati. I flussi video non sincronizzati causeranno sfocature, come mostrato nel file Video 2. Il punto di convergenza deve essere centrato orizzontalmente, indipendentemente dalla separazione della telecamera, come mostrato nella Figura 9A,B. Quando il robot passa da una posizione all'altra, c'è una piccola scossa nel video, che è prevedibile a una velocità di transizione di 50 mm / s. Con la separazione troppo grande tra l'immagine destra e sinistra, il cervello non può fondere le immagini in un'unica immagine 3D, vedi Figura 9C e Video 3.

La posizione del cuore nelle immagini deve essere centrata durante l'intero video, come mostrato nella Figura 1C. Diverse ragioni possono far sì che ciò fallisca: (1) Il punto di convergenza è troppo lontano dal cuore, vedi Figura 7. Le posizioni della telecamera rispetto al paziente possono essere modificate dalla schermata di impostazione dell'applicazione del robot (Figura 6B). (2) Il sistema di coordinate dello strumento della telecamera non è configurato correttamente. Il programma robot sposterà simultaneamente la telecamera simmetricamente in un movimento radiale attorno al punto di convergenza (Figura 2C) e ruoterà le telecamere attorno al sistema di coordinate dello strumento della telecamera (Figura 5). Se le piastre dell'adattatore della fotocamera (Figura 3) sono assemblate o montate in modo errato, i valori predefiniti non funzioneranno. Eseguire nuovamente i passaggi 2.1-2.4 e assicurarsi che il mirino nell'applicazione di registrazione (Figura 6) punti sullo stesso oggetto durante il movimento completo del robot. Quando si regolano i fotogrammi delle coordinate, assicurarsi che l'oggetto utilizzato per la calibrazione (Figura 4) sia centrato tra le telecamere; in caso contrario, la calibrazione si tradurrà in fotogrammi di coordinate non simmetrici.

Se i colori non sono corretti dopo il debayering con l'applicazione di debayering (Figura 8), i video acquisiti hanno il formato di debayering errato. Ciò richiede all'utente di modificare il codice per l'applicazione di debayering o di utilizzare un altro strumento di debayering. Allo stesso modo, se la sincronizzazione automatica tra i video stereo non è riuscita, l'utente deve utilizzare programmi di editing video come Premiere Pro per allineare i video.

Per analizzare i risultati, il video deve essere visualizzato su un proiettore 3D per il pubblico previsto. Il pubblico può valutare soggettivamente quanto bene il video 3D corrisponda alla situazione della vita reale. Le etichette aggiunte nel passaggio 6.3 possono essere utilizzate per segnare distanze diverse.

Figure 1
Figura 1. Posizionamento del punto di convergenza. Diverso posizionamento dei punti di convergenza rispetto all'oggetto di interesse (punto grigio). (A) Punto di convergenza davanti all'oggetto, (B) dietro l'oggetto e (C) sull'oggetto. La linea mediana di ogni immagine della fotocamera viene visualizzata con una linea tratteggiata. Il chirurgo è mostrato dall'alto, in piedi tra le telecamere. Nella parte superiore, la posizione risultante dell'oggetto a sinistra e le immagini della fotocamera destra vengono visualizzate rispetto alla linea mediana. Fare clic qui per visualizzare una versione più grande di questa figura.

Figure 2
Figura 2: Movimento del robot. La separazione della telecamera è stata aumentata da (A) 50 mm a (B) 240 mm con passi incrementali di 10 mm. (C) Il robot ha spostato le telecamere radialmente, puntando sempre le telecamere verso il punto di convergenza - il cuore. Qui la distanza D è la distanza tra le telecamere, R è il raggio 1100 o 1400 mm e a è l'angolo delle telecamere, sin(a) = D/2R. Le telecamere destra e sinistra sono state angolate di un grado nella direzione negativa e positiva, rispettivamente, attorno all'asse Z dello strumento. Fare clic qui per visualizzare una versione più grande di questa figura.

Figure 3
Figura 3: Montaggio di telecamere sul robot. (A) Vista esplosa dei componenti di una telecamera: obiettivo, sensore della fotocamera, piastra adattatore della fotocamera, piastra di montaggio circolare, polso del robot e viti. I due adattatori per telecamere assemblati sono mostrati da (B) il lato robot e (C) la parte anteriore. (D) Adattatori collegati al polso del robot con quattro viti M2.5. (E) Cavi USB collegati alle telecamere. Fare clic qui per visualizzare una versione più grande di questa figura.

Figure 4
Figura 4: Calibrazione della fotocamera con l'applicazione di registrazione. Una griglia di calibrazione e un dado a vite sono stati utilizzati per calibrare i sistemi di coordinate dello strumento della fotocamera rispetto ai scritti del robot. Le telecamere devono essere angolate in modo che il dado sia al centro delle immagini. Fare clic qui per visualizzare una versione più grande di questa figura.

Figure 5
Figura 5: Sistema di coordinate dello strumento fotocamera. Assi X (rosso), asse Y (verde) e asse Z (blu) del sistema di coordinate dello strumento telecamera. Fare clic qui per visualizzare una versione più grande di questa figura.

Figure 6
Figura 6: L'applicazione robot. (A) Visualizzazione della schermata principale sul display touch per l'esecuzione degli esperimenti. (B) La schermata di configurazione per la calibrazione dell'utensile e la regolazione del punto di convergenza. Fare clic qui per visualizzare una versione più grande di questa figura.

Figure 7
Figura 7: Stima degli errori. Errore di convergenza (A) sopra e (B) sotto il punto di convergenza desiderato. La distanza orizzontale della linea di base (D = 240 mm), la distanza tra le telecamere e il punto di convergenza (R = 1100). La distanza verticale tra le telecamere e il punto di convergenza (z = 1093 mm), la massima separazione tra i punti centrali dell'immagine (mirino) (e = 2 mm), la distanza di errore verticale quando il punto di convergenza reale è al di sopra della posizione di convergenza desiderata (f1 = 9 mm). La distanza di errore verticale quando il punto di convergenza reale è inferiore alla posizione di convergenza desiderata (f2 = 9,2 mm). Figura non disegnata in scala. Fare clic qui per visualizzare una versione più grande di questa figura.

Figure 8
Figura 8: Applicazioni di post-elaborazione per il debayering e l'unione. (A) Schermate Start e (B) Finish dell'applicazione debayer. (C) Schermate Start e (D) Fine dell'applicazione di unione. Fare clic qui per visualizzare una versione più grande di questa figura.

Figure 9
Figura 9: Istantanee di video stereo finiti. Solo ogni altra riga di pixel è stata utilizzata dalle immagini originali per conformarsi al formato stereo 3D superiore / inferiore standard. Le immagini in alto provengono dalla fotocamera di destra e in basso dalla fotocamera di sinistra. (A) Immagine stereo 3D con distanza di base di 50 mm e punto di convergenza sul tavolo OR dietro il cuore. (B) Immagine stereo 3D con distanza di base di 240 mm e punto di convergenza sul tavolo OR dietro il cuore. (C) immagine stereo 3D con distanza di base di 240 mm e punto di convergenza 300 mm dietro il cuore. Fare clic qui per visualizzare una versione più grande di questa figura.

Video 1. Video 3D stereo a 1100 mm. Il punto di convergenza è sul cuore, a 1100 mm dalle telecamere. Il video inizia con una distanza di base di 50 mm (A) e aumenta con passi da 10 mm a 240 mm (T). Clicca qui per scaricare questo video.

Video 2. Video 3D stereo non sincronizzato. I video destro e sinistro non sono sincronizzati, il che causa sfocatura quando vengono visualizzati in 3D. Fare clic qui per scaricare questo video.

Video 3. Video 3D stereo a 1400 mm. Il punto di convergenza è dietro il cuore, a 1400 mm dalle telecamere. Il video Clicca qui per scaricare questo video.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Durante la chirurgia dal vivo, il tempo totale dell'esperimento utilizzato per la raccolta di dati video 3D è stato limitato per essere sicuro per il paziente. Se l'oggetto non è focalizzato o sovraesposto, i dati non possono essere utilizzati. I passaggi critici sono durante la calibrazione e la configurazione dello strumento della fotocamera (passaggio 2). L'apertura e la messa a fuoco della fotocamera non possono essere modificate quando l'intervento chirurgico è iniziato; le stesse condizioni di illuminazione e distanza devono essere utilizzate durante l'installazione e l'intervento chirurgico. La calibrazione della fotocamera nei passaggi 2.1-2.4 deve essere eseguita con attenzione per garantire che il cuore sia centrato nel video acquisito. Per risolvere i problemi di calibrazione, i valori del sistema di coordinate dell'utensile della telecamera possono essere verificati separatamente facendo jogging del robot nel sistema di coordinate (passaggio 2.3.3). È fondamentale testare l'intero programma robot e le telecamere insieme all'applicazione di registrazione prima dell'intervento chirurgico. L'altezza del tavolo operatorio viene talvolta regolata durante l'intervento chirurgico; l'altezza delle telecamere robot può anche essere modificata dal vivo nell'applicazione robot (passaggio 3.4) per mantenere la distanza desiderata dal cuore. Le distanze e i tempi di attesa del programma robot possono essere modificati come descritto al punto 2.5.

Una limitazione di questa tecnica è che richiede che l'intervento chirurgico sia sospeso; pertanto, la raccolta dei dati può essere effettuata solo quando è sicuro per il paziente mettere in pausa l'intervento chirurgico. Un'altra limitazione è che richiede l'adattamento fisico della sala operatoria per montare il robot nel soffitto e il movimento programmato del robot presuppone che il robot sia centrato sopra il cuore. Inoltre, le telecamere sono toed-in invece di parallelo, il che può causare un effetto chiave di volta. L'effetto chiave di volta può essere regolato in postproduzione29,30,31.

Una serie di telecamere multiple posizionate su un arco può essere utilizzata per raccogliere dati simili23. L'array di telecamere può acquisire immagini contemporaneamente da tutte le telecamere; pertanto, la chirurgia può essere sospesa per un tempo più breve. Una fonte di errore per un array di telecamere è che le telecamere possono avere una messa a fuoco, un'apertura e una calibrazione leggermente diverse e quando vengono confrontati video di diverse coppie di telecamere, altri parametri rispetto alla distanza di base possono influire sulla qualità dell'immagine e sulla percezione della profondità. Un altro svantaggio di un array di telecamere è che la dimensione del passo tra le distanze di base è limitata dalle dimensioni fisiche delle telecamere. Ad esempio, l'obiettivo utilizzato in questo studio ha un diametro di 30 mm, che equivarrebbe alla dimensione minima possibile del passo. Con la configurazione presentata nello studio, sono state testate dimensioni dei gradini di 10 mm, ma potrebbero essere impostate più piccole se necessario. Inoltre, con la configurazione dell'array, l'altezza e la distanza di convergenza non possono essere regolate dinamicamente.

Un'altra alternativa consiste nello spostare manualmente le telecamere in posizioni predefinite22. Questo non è fattibile durante la chirurgia cardiaca dal vivo perché violerebbe lo spazio di lavoro e il tempo chirurgico critico.

Questo metodo è applicabile a molti tipi di chirurgia a cielo aperto, tra cui chirurgia ortopedica, vascolare e generale, in cui le distanze ottimali di base e di convergenza devono ancora essere determinate.

Questo metodo può anche essere adattato per raccogliere immagini per scopi diversi dalla visualizzazione 3D. Molte applicazioni di visione artificiale utilizzano la disparità tra le immagini per calcolare la distanza da un oggetto. Un preciso movimento della telecamera può essere utilizzato per scansionare oggetti fissi in 3D da più direzioni per creare modelli 3D. Per la localizzazione 3D, l'esperienza di visualizzazione 3D è meno importante se gli stessi punti sull'oggetto possono essere identificati in immagini diverse, a seconda del posizionamento accurato della telecamera, della calibrazione della fotocamera, delle condizioni di luce e della sincronizzazione dei fotogrammi.

Il posizionamento della telecamera controllato da robot è sicuro ed efficace per la raccolta di dati video per l'identificazione delle posizioni ottimali della telecamera per video 3D stereoscopici.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Gli autori non hanno nulla da rivelare.

Acknowledgments

La ricerca è stata condotta con finanziamenti da Vinnova (2017-03728, 2018-05302 e 2018-03651), Heart-Lung Foundation (20180390), Family Kamprad Foundation (20190194) e Anna-Lisa e Sven Eric Lundgren Foundation (2017 e 2018).

Materials

Name Company Catalog Number Comments
2 C-mount lenses (35 mm F2.1, 5 M pixel) Tamron M112FM35 Rated for 5 Mpixel
3D glasses (DLP-link active shutter) Celexon G1000 Any compatible 3D glasses can be used
3D Projector Viewsonic X10-4K Displays 3D in 1080, can be exchanged for other 3D projectors
6 M2 x 8 screws To attach the cXimea cameras to the camera adaptor plates
8 M2.5 x 8 screws To attach the circular mounting plates to the robot wrist
8 M5 x 40 screws To mount the robot
8 M6 x 10 screws with flat heads For attaching the circular mounting plate and the camera adaptor plates
Calibration checker board plate (25 by 25 mm) Any standard checkerboard can be used, including printed, as long as the grid is clearly visible in the cameras
Camera adaptor plates, x2 Designed by the authors in robot_camera_adaptor_plates.dwg, milled in aluminium.
Circular mounting plates, x2 Distributed with the permission of the designer Julius Klein and printed with ABS plastic on an FDM 3D printer. License Tecnalia Research & Innovation 2017. Attached as Mountingplate_ROBOT_SIDE_
NewDesign_4.stl
Fix focus usb cameras, x2 (5 Mpixel) Ximea MC050CG-SY-UB With Sony IMX250LQR sensor
Flexpendant ABB 3HAC028357-001 robot touch display
Liveview recording application
RobotStudio  robot integrated development environment (IDE)
USB3 active cables (10.0 m), x2 Thumbscrew lock connector, water proofed.
YuMi dual-arm robot ABB IRB14000

DOWNLOAD MATERIALS LIST

References

  1. Held, R. T., Hui, T. T. A guide to stereoscopic 3D displays in medicine. Academic Radiology. 18 (8), 1035-1048 (2011).
  2. van Beurden, M. H. P. H., IJsselsteijn, W. A., Juola, J. F. Effectiveness of stereoscopic displays in medicine: A review. 3D Research. 3 (1), 1-13 (2012).
  3. Luursema, J. M., Verwey, W. B., Kommers, P. A. M., Geelkerken, R. H., Vos, H. J. Optimizing conditions for computer-assisted anatomical learning. Interacting with Computers. 18 (5), 1123-1138 (2006).
  4. Takano, M., et al. Usefulness and capability of three-dimensional, full high-definition movies for surgical education. Maxillofacial Plastic and Reconstructive Surgery. 39 (1), 10 (2017).
  5. Triepels, C. P. R., et al. Does three-dimensional anatomy improve student understanding. Clinical Anatomy. 33 (1), 25-33 (2020).
  6. Beermann, J., et al. Three-dimensional visualisation improves understanding of surgical liver anatomy. Medical Education. 44 (9), 936-940 (2010).
  7. Battulga, B., Konishi, T., Tamura, Y., Moriguchi, H. The Effectiveness of an interactive 3-dimensional computer graphics model for medical education. Interactive Journal of Medical Research. 1 (2), (2012).
  8. Yammine, K., Violato, C. A meta-analysis of the educational effectiveness of three-dimensional visualization technologies in teaching anatomy. Anatomical Sciences Education. 8 (6), 525-538 (2015).
  9. Fitzgerald, J. E. F., White, M. J., Tang, S. W., Maxwell-Armstrong, C. A., James, D. K. Are we teaching sufficient anatomy at medical school? The opinions of newly qualified doctors. Clinical Anatomy. 21 (7), 718-724 (2008).
  10. Bergman, E. M., Van Der Vleuten, C. P. M., Scherpbier, A. J. J. A. Why don't they know enough about anatomy? A narrative review. Medical Teacher. 33 (5), 403-409 (2011).
  11. Terzić, K., Hansard, M. Methods for reducing visual discomfort in stereoscopic 3D: A review. Signal Processing: Image Communication. 47, 402-416 (2016).
  12. Fan, Z., Weng, Y., Chen, G., Liao, H. 3D interactive surgical visualization system using mobile spatial information acquisition and autostereoscopic display. Journal of Biomedical Informatics. 71, 154-164 (2017).
  13. Fan, Z., Zhang, S., Weng, Y., Chen, G., Liao, H. 3D quantitative evaluation system for autostereoscopic display. Journal of Display Technology. 12 (10), 1185-1196 (2016).
  14. McIntire, J. P., et al. Binocular fusion ranges and stereoacuity predict positional and rotational spatial task performance on a stereoscopic 3D display. Journal of Display Technology. 11 (11), 959-966 (2015).
  15. Kalia, M., Navab, N., Fels, S. S., Salcudean, T. A method to introduce & evaluate motion parallax with stereo for medical AR/MR. IEEE Conference on Virtual Reality and 3D User Interfaces. , 1755-1759 (2019).
  16. Kytö, M., Hakala, J., Oittinen, P., Häkkinen, J. Effect of camera separation on the viewing experience of stereoscopic photographs. Journal of Electronic Imaging. 21 (1), 1-9 (2012).
  17. Moorthy, A. K., Su, C. C., Mittal, A., Bovik, A. C. Subjective evaluation of stereoscopic image quality. Signal Processing: Image Communication. 28 (8), 870-883 (2013).
  18. Yilmaz, G. N. A depth perception evaluation metric for immersive 3D video services. 3DTV Conference: The True Vision - Capture, Transmission and Display of 3D Video. , 1-4 (2017).
  19. Lebreton, P., Raake, A., Barkowsky, M., Le Callet, P. Evaluating depth perception of 3D stereoscopic videos. IEEE Journal on Selected Topics in Signal Processing. 6, 710-720 (2012).
  20. López, J. P., Rodrigo, J. A., Jiménez, D., Menéndez, J. M. Stereoscopic 3D video quality assessment based on depth maps and video motion. EURASIP Journal on Image and Video Processing. 2013 (1), 62 (2013).
  21. Banks, M. S., Read, J. C., Allison, R. S., Watt, S. J. Stereoscopy and the human visual system. SMPTE Motion Imaging Journal. 121 (4), 24-43 (2012).
  22. Kytö, M., Nuutinen, M., Oittinen, P. Method for measuring stereo camera depth accuracy based on stereoscopic vision. Three-Dimensional Imaging, Interaction, and Measurement. 7864, 168-176 (2011).
  23. Kang, Y. S., Ho, Y. S. Geometrical compensation algorithm of multiview image for arc multi-camera arrays. Advances in Multimedia Information Processing. 2008, 543-552 (2008).
  24. Product Specification IRB 14000. DocumentID: 3HAC052982-001 Revision J. ABB Robotics. , Available from: https://library.abb.com/en/results (2018).
  25. Operating Manual IRB 14000. Document ID: 3HAC052986-001 Revision F. ABB Robotics. , Available from: https://library.abb.com/en/results (2019).
  26. Github repository. , Available from: https://github.com/majstenmark/stereo2 (2021).
  27. Operating manual RobotStudio. Document ID: 3HAC032104-001 Revision Y. ABB Robotics. , Available from: https://library.abb.com/en/results (2019).
  28. Won, C. S. Adaptive interpolation for 3D stereoscopic video in frame-compatible top-bottom packing. IEEE International Conference on Consumer Electronics. 2011, 179-180 (2011).
  29. Kim, S. K., Lee, C., Kim, K. T. Multi-view image acquisition and display. Three-Dimensional Imaging, Visualization, and Display. Javidi, B., Okano, F., Son, J. Y. , Springer. New York. 227-249 (2009).
  30. Liu, F., Niu, Y., Jin, H. Keystone correction for stereoscopic cinematography. IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops. 2012, 1-7 (2012).
  31. Kang, W., Lee, S. Horizontal parallax distortion correction method in toed-in camera with wide-angle lens. 3DTV Conference: The True Vision - Capture, Transmission and Display of 3D Video. 2009, 1-4 (2009).

Tags

Medicina Numero 174 Visione stereo 3D linea di base della fotocamera percezione della profondità robotica chirurgia a cuore aperto
Test robotizzati delle posizioni della telecamera per determinare la configurazione ideale per la visualizzazione 3D stereo della chirurgia a cuore aperto
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Stenmark, M., Omerbašić,More

Stenmark, M., Omerbašić, E., Magnusson, M., Nordberg, S., Dahlström, M., Tran, P. K. Robotized Testing of Camera Positions to Determine Ideal Configuration for Stereo 3D Visualization of Open-Heart Surgery. J. Vis. Exp. (174), e62786, doi:10.3791/62786 (2021).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter