Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Medicine

Robotisiertes Testen von Kamerapositionen zur Bestimmung der idealen Konfiguration für die Stereo-3D-Visualisierung von Operationen am offenen Herzen

Published: August 12, 2021 doi: 10.3791/62786

Summary

Die menschliche Tiefenwahrnehmung von 3D-Stereovideos hängt von der Kameratrennung, dem Konvergenzpunkt, der Entfernung und der Vertrautheit des Objekts ab. Dieses Papier stellt eine robotisierte Methode zur schnellen und zuverlässigen Testdatenerfassung während einer Live-Operation am offenen Herzen vor, um die ideale Kamerakonfiguration zu bestimmen.

Abstract

Stereo-3D-Video von chirurgischen Eingriffen kann für die medizinische Ausbildung sehr wertvoll sein und die klinische Kommunikation verbessern. Aber der Zugang zum Operationssaal und zum Operationsfeld ist eingeschränkt. Es ist eine sterile Umgebung, und der physische Raum ist mit chirurgischem Personal und technischer Ausrüstung überfüllt. In diesem Setting sind eine ungesicherte Erfassung und realistische Reproduktion der chirurgischen Eingriffe schwierig. Dieser Artikel stellt eine Methode zur schnellen und zuverlässigen Datenerfassung von stereoskopischen 3D-Videos bei verschiedenen Kamera-Baseline-Entfernungen und Konvergenzabständen vor. Um Testdaten mit minimalen Störungen während der Operation, mit hoher Präzision und Wiederholbarkeit zu sammeln, wurden die Kameras an jeder Hand eines zweiarmigen Roboters befestigt. Der Roboter wurde im Operationssaal an der Decke montiert. Es wurde programmiert, um eine zeitgesteuerte Sequenz synchronisierter Kamerabewegungen durchzuführen, die durch einen Bereich von Testpositionen mit einem Basislinienabstand zwischen 50-240 mm bei inkrementellen Schritten von 10 mm und bei zwei Konvergenzabständen von 1100 mm und 1400 mm schritten. Die Operation wurde angehalten, um 40 aufeinanderfolgende 5-s-Videoproben zu ermöglichen. Insgesamt wurden 10 Operationsszenarien erfasst.

Introduction

In der Chirurgie kann die 3D-Visualisierung für Bildung, Diagnosen, präoperative Planung und postoperative Bewertung verwendet werden1,2. Realistische Tiefenwahrnehmung kann das Verständnis von normalen und abnormalen Anatomien verbessern3,4,5,6. Einfache 2D-Videoaufnahmen von chirurgischen Eingriffen sind ein guter Anfang. Die fehlende Tiefenwahrnehmung kann es den nicht-chirurgischen Kollegen jedoch erschweren, die antero-posterioren Beziehungen zwischen verschiedenen anatomischen Strukturen vollständig zu verstehen und daher auch das Risiko einer Fehlinterpretation der Anatomie mit sich bringen7,8,9,10.

Das 3D-Betrachtungserlebnis wird von fünf Faktoren beeinflusst: (1) Die Kamerakonfiguration kann entweder parallel oder eingebunden erfolgen, wie in Abbildung 1 dargestellt, (2) Der Basislinienabstand (der Abstand zwischen den Kameras). (3) Abstand zum Objekt von Interesse und anderen Szenenmerkmalen wie dem Hintergrund. (4) Merkmale von Anzeigegeräten wie Bildschirmgröße und Betrachtungsposition1,11,12,13. (5) Individuelle Präferenzen der Zuschauer14,15.

Die Entwicklung eines 3D-Kamera-Setups beginnt mit der Aufnahme von Testvideos, die mit verschiedenen Kamera-Baseline-Entfernungen und -Konfigurationen aufgenommen wurden, um für die subjektive oder automatische Auswertung verwendet zu werden16,17,18,19,20. Der Kameraabstand zum Operationsfeld muss konstant sein, um scharfe Bilder aufzunehmen. Ein fester Fokus wird bevorzugt, da sich der Autofokus anpasst, um sich auf Hände, Instrumente oder Köpfe zu konzentrieren, die möglicherweise sichtbar werden. Dies ist jedoch nicht leicht zu erreichen, wenn der Ort von Interesse das chirurgische Feld ist. Operationssäle sind Bereiche mit eingeschränktem Zugang, da diese Einrichtungen sauber und steril gehalten werden müssen. Technische Geräte, Chirurgen und Scrub Nurses sind oft eng um den Patienten gruppiert, um einen guten visuellen Überblick und einen effizienten Workflow zu gewährleisten. Um die Auswirkungen von Kamerapositionen auf das 3D-Seherlebnis vergleichen und bewerten zu können, sollte ein vollständiger Testbereich von Kamerapositionen die gleiche Szene aufzeichnen, da die Objekteigenschaften wie Form, Größe und Farbe das 3D-Seherlebnis beeinflussen können21.

Aus dem gleichen Grund sollten komplette Testbereiche von Kamerapositionen bei verschiedenen chirurgischen Eingriffen wiederholt werden. Die gesamte Reihenfolge der Positionen muss mit hoher Genauigkeit wiederholt werden. In einem chirurgischen Umfeld sind bestehende Methoden, die entweder eine manuelle Anpassung des Basislinienabstands22 oder verschiedene Kamerapaare mit festen Basislinienabständen23 erfordern, aus Platz- und Zeitgründen nicht durchführbar. Um dieser Herausforderung zu begegnen, wurde diese robotisierte Lösung entwickelt.

Die Daten wurden mit einem zweiarmigen kollaborativen Industrieroboter gesammelt, der in der Decke im Operationssaal montiert war. Kameras wurden an den Handgelenken des Roboters befestigt und bewegten sich entlang einer bogenförmigen Flugbahn mit zunehmendem Basislinienabstand, wie in Abbildung 2 dargestellt.

Um den Ansatz zu demonstrieren, wurden 10 Testreihen von 4 verschiedenen Patienten mit 4 verschiedenen angeborenen Herzfehlern aufgezeichnet. Es wurden Szenen gewählt, in denen eine Pause in der Operation möglich war: mit den schlagenden Herzen kurz vor und nach der chirurgischen Reparatur. Serien wurden auch gemacht, als die Herzen verhaftet wurden. Die Operationen wurden für 3 Minuten und 20 s unterbrochen, um vierzig 5-ssequenzen mit unterschiedlichen Kamerakonvergenzabständen und Basislinienabständen zu sammeln, um die Szene zu erfassen. Die Videos wurden später nachbearbeitet und in 3D für das klinische Team angezeigt, das bewertete, wie realistisch das 3D-Video auf einer Skala von 0-5 war.

Der Konvergenzpunkt für stereo eingebaute Stereokameras ist der Punkt, an dem sich die Mittelpunkte beider Bilder treffen. Der Konvergenzpunkt kann prinzipiell entweder vor, innerhalb oder hinter dem Objekt platziert werden, siehe Abbildung 1A-C. Wenn sich der Konvergenzpunkt vor dem Objekt befindet, wird das Objekt erfasst und links von der Mittellinie für das linke Kamerabild und rechts von der Mittellinie für das rechte Kamerabild angezeigt (Abbildung 1A). Das Gegenteil ist der Fall, wenn sich der Konvergenzpunkt hinter dem Objekt befindet (Abbildung 1B). Wenn sich der Konvergenzpunkt auf dem Objekt befindet, erscheint das Objekt auch in der Mittellinie der Kamerabilder (Abbildung 1C), was vermutlich die angenehmste Betrachtung ergeben sollte, da kein Schielen erforderlich ist, um die Bilder zusammenzuführen. Um ein komfortables Stereo-3D-Video zu erzielen, muss sich der Konvergenzpunkt auf oder leicht hinter dem Objekt von Interesse befinden, andernfalls muss der Betrachter freiwillig nach außen blinzeln (Exotropie).

Die Daten wurden mit einem zweiarmigen kollaborativen Industrieroboter zur Positionierung der Kameras gesammelt (Abbildung 2A-B). Der Roboter wiegt ohne Ausrüstung 38 kg. Der Roboter ist eigensicher; Wenn es einen unerwarteten Aufprall erkennt, hört es auf, sich zu bewegen. Der Roboter wurde so programmiert, dass er die 5-Megapixel-Kameras mit C-Mount-Objektiven entlang einer bogenförmigen Flugbahn positioniert, die bei vorgegebenen Basislinienabständen anhält (Abbildung 2C). Die Kameras wurden mit Adapterplatten an den Roboterhänden befestigt, wie in Abbildung 3 dargestellt. Jede Kamera zeichnete mit 25 Bildern pro Sekunde auf. Die Linsen wurden auf Blendenzahl 1/8 eingestellt, wobei der Fokus auf das Objekt von Interesse (angenäherte geometrische Mitte des Herzens) gerichtet war. Jeder Bildrahmen hatte einen Zeitstempel, der zum Synchronisieren der beiden Videostreams verwendet wurde.

Offsets zwischen dem Roboterhandgelenk und der Kamera wurden kalibriert. Dies kann erreicht werden, indem das Fadenkreuz der Kamerabilder ausgerichtet wird, wie in Abbildung 4 dargestellt. In diesem Setup betrug der gesamte translationale Offset vom Montagepunkt am Roboterhandgelenk und der Mitte des Kamerabildsensors 55,3 mm in X-Richtung und 21,2 mm in Z-Richtung,5, dargestellt in Abbildung 5. Die Rotationsversätze wurden bei einem Konvergenzabstand von 1100 mm und einem Basislinienabstand von 50 mm kalibriert und manuell mit dem Joystick am Roboterbedienfeld eingestellt. Der Roboter in dieser Studie hatte eine spezifizierte Genauigkeit von 0,02 mm im kartesischen Raum und eine Rotationsauflösung von 0,01 Grad24. Bei einem Radius von 1100 m versetzt eine Winkeldifferenz von 0,01 Grad den Mittelpunkt um 0,2 mm. Während der vollständigen Roboterbewegung von 50-240 mm Abstand war das Fadenkreuz für jede Kamera innerhalb von 2 mm vom idealen Konvergenzzentrum entfernt.

Der Basislinienabstand wurde schrittweise durch symmetrische Trennung der Kameras um den Mittelpunkt des Sichtfeldes in Schritten von 10 mm im Bereich von 50-240 mm erhöht (Abbildung 2). Die Kameras wurden in jeder Position für 5 s im Stillstand gehalten und mit einer Geschwindigkeit von 50 mm/s zwischen den Positionen bewegt. Der Konvergenzpunkt konnte über eine grafische Benutzeroberfläche in X- und Z-Richtung eingestellt werden (Abbildung 6). Entsprechend folgte der Roboter in seinem Arbeitsbereich.

Die Genauigkeit des Konvergenzpunkts wurde anhand der einheitlichen Dreiecke und der Variablennamen in Den Abbildungen 7A und B geschätzt. Die Höhe 'z' wurde aus dem Konvergenzabstand 'R' mit dem Satz des Pythagoras berechnet als

Equation 1

Wenn der reale Konvergenzpunkt näher als der gewünschte Punkt war, wie in Abbildung 7A dargestellt, wurde der Fehlerabstand "f1" wie folgt berechnet:

Equation 2

Wenn der Konvergenzpunkt distal zum gewünschten Punkt war, wurde der Fehlerabstand "f2" wie folgt berechnet:

Equation 3

Hier war "e" der maximale Abstand zwischen dem Fadenkreuz, höchstens 2 mm bei maximaler Baseline-Trennung während der Kalibrierung (D = 240 mm). Bei R = 1100 mm (z = 1093 mm) betrug der Fehler weniger als ± 9,2 mm. Bei R = 1400 mm (z = 1395 mm) betrug der Fehler ± 11,7 mm. Das heißt, der Fehler bei der Platzierung des Konvergenzpunkts lag innerhalb von 1% des gewünschten Punktes. Die beiden Testabstände von 1100 mm und 1400 mm waren daher gut voneinander getrennt.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Die Experimente wurden von der örtlichen Ethikkommission in Lund, Schweden, genehmigt. Die Teilnahme war freiwillig, und die Erziehungsberechtigten der Patienten gaben eine schriftliche Einwilligung.

1. Einrichtung und Konfiguration des Roboters

HINWEIS: Bei diesem Experiment wurden ein zweiarmiger kollaborativer Industrieroboter und das Standard-Bedienfeld mit einem Touch-Display verwendet. Gesteuert wird der Roboter mit der Steuerungssoftware RobotWare 6.10.01 und robot integrated development environment (IDE) RobotStudio 2019.525. Von den Autoren entwickelte Software, einschließlich der Roboteranwendung, der Aufzeichnungsanwendung und der Nachbearbeitungsskripte, ist im GitHub-Repository26 verfügbar.

VORSICHT: Verwenden Sie eine Schutzbrille und reduzieren Sie die Geschwindigkeit beim Einrichten und Testen des Roboterprogramms.

  1. Montieren Sie den Roboter an der Decke oder einem Tisch mit Schrauben mit einer Abmessung von 100 kg, wie auf Seite 25 in der Produktspezifikation24 beschrieben, gemäß den Angaben des Herstellers. Stellen Sie sicher, dass sich die Arme frei bewegen können und die Sichtlinie zum Sichtfeld nicht verdeckt ist.
    ACHTUNG: Verwenden Sie Hebe- oder Sicherheitsseile, wenn Sie den Roboter in einer hohen Position montieren.
  2. Starten Sie den Roboter, indem Sie den Startschalter an der Basis des Roboters drehen. Kalibrieren Sie den Roboter, indem Sie das in der Bedienungsanleitung auf den Seiten 47-5625 beschriebene Verfahren befolgen.
  3. Starten Sie die Robot-IDE auf einem Windows-Computer.
  4. Verbinden Sie sich mit dem physischen Robotersystem (Bedienungsanleitung Seite 14027).
  5. Laden Sie den Code für das Roboterprogramm und die Anwendungsbibliotheken für die Benutzeroberfläche in den Roboter:
    1. Der Robotercode für einen deckenmontierten Roboter befindet sich im Ordner Robot/InvertedCode und für einen tischmontierten Roboter in Robot/TableMountedCode. Für jede der Dateien left/Data.mod, left/MainModule.mod, right/Data.mod und right/MainModule.mod:
    2. Erstellen Sie ein neues Programmmodul (siehe Bedienungsanleitung Seite 31827) mit dem gleichen Namen wie die Datei (Data oder MainModule) und kopieren Sie den Dateiinhalt in das neue Modul.
    3. Drücken Sie in der Roboter-IDE auf Übernehmen , um die Dateien auf dem Roboter zu speichern.
  6. Verwenden Sie File Transfer (Bedienungsanleitung Seite 34627), um die Roboteranwendungsdateien TpSViewStereo2.dll, TpsViewStereo2.gtpu.dll und TpsViewStereo2.pdb im FPApp-Ordner an den Roboter zu übertragen. Nach diesem Schritt wird die Roboter-IDE nicht weiter verwendet.
  7. Drücken Sie die Reset-Taste auf der Rückseite des Roboter-Touch-Displays (FlexPendant), um die grafische Oberfläche neu zu laden. Die Roboteranwendung Stereo2 wird nun im Touch-Display-Menü sichtbar sein.
  8. Installieren Sie die Aufzeichnungsanwendung (Liveview) und die Nachbearbeitungsanwendung auf einem Ubuntu 20.04-Computer, indem Sie das Skript install_all_linux.sh ausführen, das sich im Stammordner im Github-Repository befindet.
  9. Montieren Sie jede Kamera am Roboter. Die für die Montage benötigten Komponenten sind in Abbildung 3A dargestellt.
    1. Montieren Sie das Objektiv an der Kamera.
    2. Befestigen Sie die Kamera mit drei M2-Schrauben an der Kameraadapterplatte.
    3. Befestigen Sie die kreisrunde Montageplatte mit vier M6-Schrauben auf der gegenüberliegenden Seite der Kamera an der Kameraadapterplatte.
  10. Wiederholen Sie die Schritte 1.9.1-1.9.3 für die andere Kamera. Die resultierenden Baugruppen werden gespiegelt, wie in Abbildung 3B und Abbildung 3C dargestellt.
  11. Befestigen Sie die Adapterplatte mit vier M2,5-Schrauben am Roboterhandgelenk, wie in Abbildung 3D dargestellt.
    1. Für einen an der Decke montierten Roboter: Befestigen Sie die linke Kamera in Abbildung 3C am linken Roboterarm, wie in Abbildung 2A dargestellt.
    2. Für einen Am Tisch montierten Roboter: Befestigen Sie die linke Kamera in Abbildung 3C am rechten Roboterarm.
  12. Schließen Sie die USB-Kabel an die Kameras (siehe Abbildung 3E) und an den Ubuntu-Computer an.

2. Überprüfen Sie die Kamerakalibrierung

  1. Drücken Sie auf dem Roboter-Touch-Display die Menü-Taste und wählen Sie Stereo2 , um die Roboteranwendung zu starten. Dadurch wird der Hauptbildschirm geöffnet, wie in Abbildung 6A dargestellt.
    1. Drücken Sie auf dem Hauptbildschirm auf Go, um für 1100 mm in der Roboteranwendung zu starten, und warten Sie, bis sich der Roboter in die Startposition bewegt hat.
    2. Entfernen Sie die Schutzkappen von den Kameras und schließen Sie die USB-Kabel an den Ubuntu-Computer an.
    3. Legen Sie ein gedrucktes Kalibrierraster (CalibrationGrid.png in das Repository) 1100 mm von den Kamerasensoren entfernt auf. Um die korrekte Identifizierung der entsprechenden Quadrate zu erleichtern, platzieren Sie eine kleine Schraubenmutter oder Markierung irgendwo in der Mitte des Gitters.
  2. Starten Sie die Aufnahmeanwendung auf dem Ubuntu-Computer (führen Sie das Skript start.sh aus, das sich im Liveview-Ordner im Github-Repository befindet). Dadurch wird die Schnittstelle gestartet, wie in Abbildung 4 dargestellt.
    1. Passen Sie die Blende und den Fokus auf das Objektiv mit der Blende und den Fokusringen an.
    2. Aktivieren Sie in der Aufzeichnungsanwendung das Kontrollkästchen Fadenkreuz , um das Fadenkreuz zu visualisieren.
  3. Stellen Sie in der Aufzeichnungsanwendung sicher, dass das Fadenkreuz in beiden Kamerabildern an derselben Position mit dem Kalibrierungsraster ausgerichtet ist, wie in Abbildung 4 dargestellt. Höchstwahrscheinlich werden einige Anpassungen wie folgt erforderlich sein:
    1. Wenn sich die Kreuze nicht überlappen, drücken Sie das Zahnradsymbol (unten links Abbildung 6A) in der Roboteranwendung auf dem Roboter-Touch-Display, um den Einstellungsbildschirm zu öffnen, wie in Abbildung 6B dargestellt.
    2. Drücken Sie auf 1. Wechseln Sie zu Start Pos, wie in Abbildung 6B dargestellt.
    3. Joggen Sie den Roboter mit dem Joystick, um die Kameraposition einzustellen (Bedienungsanleitung Seite 3123).
    4. Aktualisieren Sie die Werkzeugposition für jeden Roboterarm. Drücken Sie 3. Aktualisieren Sie das linke Werkzeug und 4. Aktualisieren Sie das rechte Werkzeug , um die Kalibrierung für den linken bzw. rechten Arm zu speichern.
    5. Drücken Sie auf das Zurück-Pfeil-Symbol (oben rechts, Abbildung 6B), um zum Hauptbildschirm zurückzukehren.
  4. Drücken Sie in der Roboteranwendung auf Experiment ausführen (Abbildung 6A), und überprüfen Sie, ob das Fadenkreuz ausgerichtet ist. Andernfalls wiederholen Sie die Schritte 2.3-2.3.5.
  5. Fügen Sie an dieser Stelle alle Änderungen der Entfernungen und/oder der Uhrzeit hinzu und testen Sie sie. Dies erfordert Änderungen im Roboterprogrammcode und erweiterte Roboterprogrammierfähigkeiten. Ändern Sie die folgenden Variablen im Datenmodul in der linken Aufgabe (arm): die gewünschten Trennabstände in der Ganzzahlarrayvariablen Distances, die Konvergenzabstände im Ganzzahlarray ConvergencePos und bearbeiten Sie die Zeit bei jedem Schritt durch Editieren der Variablen Nwaittime (Wert in Sekunden).
    VORSICHT: Führen Sie niemals ein ungetestetes Roboterprogramm während einer Live-Operation aus.
  6. Wenn die Kalibrierung abgeschlossen ist, drücken Sie auf Erhöhen , um die Roboterarme in die Standby-Position zu heben.
  7. Schalten Sie optional den Roboter aus.
    HINWEIS: Der Vorgang kann zwischen einem der oben genannten Schritte angehalten werden.

3. Vorbereitung zu Beginn der Operation

  1. Stauben Sie den Roboter ab.
    1. Wenn der Roboter ausgeschaltet wurde, starten Sie ihn, indem Sie den Startschalter an der Basis des Roboters einschalten.
  2. Starten Sie die in den Schritten 2.1 und 2.2 beschriebene Roboteranwendung auf dem Touch-Display und der Aufzeichnungsanwendung.
  3. Erstellen Sie in der Aufnahmeanwendung den Ordner, in dem das Video gespeichert werden soll, und wählen Sie ihn aus (drücken Sie Ordner ändern).
  4. In der Roboteranwendung: Drücken Sie das Zahnradsymbol, positionieren Sie die Kameras in Bezug auf den Patienten. Ändern Sie die X- und Z-Richtung, indem Sie +/- für Handabstand vom Roboter bzw. Höhe drücken, damit das Bild das Operationsfeld erfasst. Führen Sie die Positionierung in Y-Richtung durch, indem Sie den Roboter oder Patienten manuell bewegen.
    HINWEIS: Die Vorbereitungen können zwischen den Vorbereitungsschritten 3.1-3.4 pausiert werden.

4. Experimentieren Sie

ACHTUNG: Alle Mitarbeiter sollten vorher über das Experiment informiert werden.

  1. Unterbrechen Sie die Operation.
    1. Informieren Sie das OP-Personal, dass das Experiment gestartet wurde.
  2. Drücken Sie in der Aufzeichnungsanwendung auf Aufnahme.
  3. Drücken Sie in der Roboteranwendung auf Experiment ausführen .
  4. Warten Sie, während das Programm ausgeführt wird. Der Roboter zeigt "Fertig" in der Roboteranwendung auf dem Touch-Display an, wenn er fertig ist.
  5. Beenden Sie die Aufzeichnung in der Aufnahmeanwendung, indem Sie auf Beenden klicken.
    1. Informieren Sie das OP-Personal, dass das Experiment beendet ist.
  6. Nehmen Sie die Operation wieder auf.
    HINWEIS: Das Experiment kann während der Schritte 4.1-4.6 nicht angehalten werden.

5. Wiederholen

  1. Wiederholen Sie die Schritte 4.1-4.6, um eine weitere Sequenz zu erfassen, und die Schritte 3.1-3.4 und die Schritte 4.1-4.6, um Sequenzen aus verschiedenen Operationen zu erfassen. Erfassen Sie etwa zehn vollständige Sequenzen.

6. Nachbearbeitung

HINWEIS: Die folgenden Schritte können mit den meisten Videobearbeitungsprogrammen oder den bereitgestellten Skripten im Postprocessing-Ordner durchgeführt werden.

  1. Deaktivieren Sie in diesem Fall das Video, da es im RAW-Format gespeichert ist:
    1. Führen Sie das Skript postprocessing/debayer/run.sh aus, um die in Abbildung 8A dargestellte Debayer-Anwendung zu öffnen.
    2. Drücken Sie auf Eingabeverzeichnis durchsuchen und wählen Sie den Ordner mit dem RAW-Video aus.
    3. Klicken Sie auf Ausgabeverzeichnis durchsuchen und wählen Sie einen Ordner für die resultierenden debayerierten und farblich angepassten Videodateien aus.
    4. Drücken Sie Debayer! und warten Sie, bis der Vorgang abgeschlossen ist - beide Fortschrittsbalken sind voll, wie in Abbildung 8B dargestellt.
  2. Führen Sie die rechts und links synchronisierten Videos im 3D-Stereoformat zusammen28:
    1. Führen Sie das Skript postprocessing/merge_tb/run.sh aus, um die Mergeanwendung zu starten. Die in Abbildung 8C dargestellte grafische Benutzeroberfläche wird geöffnet.
    2. Klicken Sie auf Eingabeverzeichnis durchsuchen und wählen Sie den Ordner mit den gelöschten Videodateien aus.
    3. Klicken Sie auf Ausgabeverzeichnis durchsuchen und wählen Sie einen Ordner für die resultierende zusammengeführte 3D-Stereodatei aus.
    4. Drücken Sie Merge! und warten Sie, bis der Fertigbildschirm in Abbildung 8D angezeigt wird.
  3. Verwenden Sie handelsübliche Videobearbeitungssoftware wie Premiere Pro, um jedem Kameraabstand im Video Textbeschriftungen hinzuzufügen.
    HINWEIS: Im Video gibt es jedes Mal, wenn sich der Roboter bewegt, ein sichtbares Schütteln und die Kameraentfernung erhöht. In diesem Experiment wurden die Bezeichnungen A-T für die Kameraabstände verwendet.

7. Bewertung

  1. Zeigen Sie das Video im 3D-Format von oben bis unten mit einem aktiven 3D-Projektor an.
  2. Das Seherlebnis hängt vom Betrachtungswinkel und der Entfernung zum Bildschirm ab. bewerten Sie das Video anhand der Zielgruppe und des Setups.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Ein akzeptables Auswertungsvideo mit dem rechten Bild oben in stereoskopischem 3D oben und unten wird in Video1 gezeigt. Eine erfolgreiche Sequenz sollte scharf, fokussiert und ohne unsynchronisierte Bildrahmen sein. Nicht synchronisierte Videostreams verursachen Unschärfe, wie in der Datei Video 2 gezeigt. Der Konvergenzpunkt sollte horizontal zentriert sein, unabhängig von der Kameratrennung, wie in Abbildung 9A,B dargestellt. Wenn der Roboter zwischen den Positionen wechselt, kommt es im Video zu einem kleinen Wackeln, das bei einer Übergangsgeschwindigkeit von 50 mm/s zu erwarten ist. Mit dem zu großen Abstand zwischen dem rechten und linken Bild kann das Gehirn die Bilder nicht zu einem 3D-Bild verschmelzen, siehe Abbildung 9C und Video 3.

Die Position des Herzens in den Bildern sollte während des gesamten Videos zentriert sein, wie in Abbildung 1C gezeigt. Mehrere Gründe können dazu führen, dass dies fehlschlägt: (1) Der Konvergenzpunkt ist zu weit vom Herzen entfernt, siehe Abbildung 7. Die Kamerapositionen relativ zum Patienten können über den Einstellungsbildschirm der Roboteranwendung geändert werden (Abbildung 6B). (2) Das Koordinatensystem des Kamerawerkzeugs ist nicht richtig konfiguriert. Das Roboterprogramm bewegt die Kamera gleichzeitig symmetrisch in einer radialen Bewegung um den Konvergenzpunkt (Abbildung 2C) und dreht die Kameras um das Koordinatensystem des Kamerawerkzeugs (Abbildung 5). Wenn die Kameraadapterplatten (Abbildung 3) falsch montiert oder montiert sind, funktionieren die Standardwerte nicht. Führen Sie die Schritte 2.1-2.4 erneut aus, und stellen Sie sicher, dass das Fadenkreuz in der Aufnahmeanwendung (Abbildung 6) während der gesamten Roboterbewegung auf dasselbe Objekt zeigt. Stellen Sie beim Anpassen der Koordinatenrahmen sicher, dass das für die Kalibrierung verwendete Objekt (Abbildung 4) zwischen den Kameras zentriert ist. Andernfalls führt die Kalibrierung zu nicht symmetrischen Koordinatenrahmen.

Wenn die Farben nach dem Debayering mit der Debayering-Anwendung falsch sind (Abbildung 8), haben die aufgenommenen Videos das falsche Debayering-Format. Dies erfordert, dass der Benutzer den Code für die Debayering-Anwendung ändert oder ein anderes Debayering-Tool verwendet. Wenn die automatische Synchronisierung zwischen den Stereovideos fehlgeschlagen ist, sollte der Benutzer Videobearbeitungsprogramme wie Premiere Pro verwenden, um die Videos auszurichten.

Um die Ergebnisse zu analysieren, sollte das Video auf einem 3D-Projektor für die beabsichtigte Zielgruppe angezeigt werden. Das Publikum kann subjektiv einschätzen, wie gut das 3D-Video der realen Situation entspricht. Die in Schritt 6.3 hinzugefügten Beschriftungen können verwendet werden, um verschiedene Entfernungen zu bewerten.

Figure 1
Abbildung 1. Platzierung des Konvergenzpunkts. Unterschiedliche Platzierung der Konvergenzpunkte relativ zum Objekt von Interesse (grauer Punkt). (A) Konvergenzpunkt vor dem Objekt, (B) hinter dem Objekt und (C) auf dem Objekt. Die Mittellinie für jedes Kamerabild wird mit einer gepunkteten Linie angezeigt. Der Chirurg wird von oben gezeigt, wie er zwischen den Kameras steht. Oben wird die resultierende Position des Objekts im linken und rechten Kamerabild relativ zur Mittellinie angezeigt. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 2
Abbildung 2: Roboterbewegung. Der Kameraabstand wurde von (A) 50 mm auf (B) 240 mm mit inkrementellen Schritten von 10 mm erhöht. (C) Der Roboter bewegte die Kameras radial und richtete die Kameras immer auf den Konvergenzpunkt - das Herz. Hier ist der Abstand D der Abstand zwischen den Kameras, R ist der Radius 1100 oder 1400 mm und a ist der Winkel der Kameras, sin(a) = D/2R. Die rechte und linke Kamera wurden um ein Grad in negativer bzw. positiver Richtung um die Z-Achse des Werkzeugs gewinkelt. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 3
Abbildung 3: Montage von Kameras am Roboter. (A) Explosionszeichnung der Komponenten für eine Kamera: Objektiv, Kamerasensor, Kameraadapterplatte, kreisförmige Montageplatte, Roboterhandgelenk und Schrauben. Die beiden montierten Kameraadapter sind von (B) der Roboterseite und (C) der Vorderseite dargestellt. D) Adapter, die mit vier M2,5-Schrauben am Roboterhandgelenk befestigt sind. (E) USB-Kabel, die an die Kameras angeschlossen sind. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 4
Abbildung 4: Kamerakalibrierung mit der Aufzeichnungsanwendung. Ein Kalibriergitter und eine Schraubenmutter wurden verwendet, um die Koordinatensysteme des Kamerawerkzeugs relativ zu den Roboter-Writs zu kalibrieren. Die Kameras sollten so abgewinkelt sein, dass sich die Mutter in der Mitte der Bilder befindet. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 5
Abbildung 5: Koordinatensystem des Kamerawerkzeugs. Die X-Achse (rot), die Y-Achse (grün) und die Z-Achse (blau) des Koordinatensystems des Kamerawerkzeugs. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 6
Abbildung 6: Die Roboteranwendung. (A) Anzeige des Hauptbildschirms auf dem Touch-Display zum Ausführen der Experimente. (B) Der Setup-Bildschirm für die Werkzeugkalibrierung und Die Einstellung des Konvergenzpunkts. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 7
Abbildung 7: Fehlerschätzung. Konvergenzfehler (A) oberhalb und (B) unterhalb des gewünschten Konvergenzpunkts. Der horizontale Basislinienabstand (D = 240 mm), der Abstand zwischen den Kameras und der Konvergenzpunkt (R = 1100). Der vertikale Abstand zwischen den Kameras und dem Konvergenzpunkt (z = 1093 mm), der maximale Abstand zwischen den Bildmittelpunkten (Fadenkreuz) (e = 2 mm), der vertikale Fehlerabstand, wenn der reale Konvergenzpunkt über der gewünschten Konvergenzposition liegt (f1 = 9 mm). Der vertikale Fehlerabstand, wenn der reale Konvergenzpunkt unter der gewünschten Konvergenzposition liegt (f2 = 9,2 mm). Abbildung nicht maßstabsgetreu gezeichnet. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 8
Abbildung 8: Nachbearbeitung von Anwendungen zum Debayering und Zusammenführen. (A) Start- und (B) Endbildschirme der Debayer-Anwendung. (C) Start- und (D) Endbildschirme der Mergeanwendung. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 9
Abbildung 9: Schnappschüsse von fertigen Stereovideos. Nur jede zweite Pixelzeile aus den Originalbildern wurde verwendet, um dem Standard-Top/Bottom-3D-Stereoformat zu entsprechen. Die oberen Bilder stammen von der rechten Kamera und die rechte von der linken Kamera. (A) 3D-Stereobild mit 50 mm Grundlinienabstand und dem Konvergenzpunkt auf dem OP-Tisch hinter dem Herzen. (B) 3D-Stereobild mit 240 mm Grundlinienabstand und dem Konvergenzpunkt am OP-Tisch hinter dem Herzen. (C) 3D-Stereobild mit 240 mm Basislinienabstand und dem Konvergenzpunkt 300 mm hinter dem Herzen. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Video 1. Stereo-3D-Video bei 1100 mm. Der Konvergenzpunkt befindet sich auf dem Herzen, 1100 mm von den Kameras entfernt. Das Video beginnt mit einem Basislinienabstand von 50 mm (A) und vergrößert sich mit Schritten von 10 mm bis 240 mm (T). Bitte klicken Sie hier, um dieses Video herunterzuladen.

Video 2. Nicht synchronisiertes Stereo-3D-Video. Das rechte und linke Video sind nicht synchronisiert, was bei der Betrachtung in 3D zu Unschärfe führt.

Video 3. Stereo-3D-Video bei 1400 mm. Der Konvergenzpunkt befindet sich hinter dem Herzen, 1400 mm von den Kameras entfernt. Das Video Bitte klicken Sie hier, um dieses Video herunterzuladen.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Während der Live-Operation war die Gesamtzeit des Experiments, das für die 3D-Videodatenerfassung verwendet wurde, begrenzt, um für den Patienten sicher zu sein. Wenn das Objekt nicht fokussiert oder überbelichtet ist, können die Daten nicht verwendet werden. Die kritischen Schritte sind während der Kalibrierung und Einrichtung des Kamerawerkzeugs (Schritt 2). Die Kamerablende und der Fokus können nicht geändert werden, wenn die Operation begonnen hat. Die gleichen Lichtverhältnisse und Abstände sollten während des Aufbaus und der Operation verwendet werden. Die Kamerakalibrierung in den Schritten 2.1-2.4 muss sorgfältig durchgeführt werden, um sicherzustellen, dass das Herz im aufgenommenen Video zentriert ist. Zur Fehlersuche bei der Kalibrierung können die Werte des Koordinatensystems des Kamerawerkzeugs separat verifiziert werden, indem der Roboter im Koordinatensystem gejoggt wird (Schritt 2.3.3). Es ist wichtig, das vollständige Roboterprogramm und die Kameras zusammen mit der Aufnahmeanwendung vor der Operation zu testen. Die Höhe des Operationstisches wird manchmal während der Operation eingestellt; die Höhe der Roboterkameras kann auch live in der Roboterapplikation (Schritt 3.4) verändert werden, um den gewünschten Abstand zum Herzen einzuhalten. Die Abstände und Wartezeiten des Roboterprogramms können wie in Schritt 2.5 beschrieben geändert werden.

Eine Einschränkung dieser Technik besteht darin, dass die Operation unterbrochen wird. Daher kann die Datenerfassung nur durchgeführt werden, wenn es für den Patienten sicher ist, die Operation zu unterbrechen. Eine weitere Einschränkung besteht darin, dass eine physische Anpassung des Operationssaals erforderlich ist, um den Roboter in der Decke zu montieren, und die programmierte Roboterbewegung geht davon aus, dass der Roboter über dem Herzen zentriert ist. Zusätzlich sind die Kameras eingehängt statt parallel, was zu einem Keystone-Effekt führen kann. Der Keystone-Effekt kann in der Postproduktion angepasst werden29,30,31.

Eine Anordnung mehrerer Kameras, die auf einem Bogen platziert sind, kann verwendet werden, um ähnliche Daten zu sammeln23. Das Kamera-Array kann Bilder gleichzeitig von allen Kameras erfassen; So kann die Operation für eine kürzere Zeit pausiert werden. Eine Fehlerquelle für ein Kamera-Array ist, dass die Kameras einen etwas anderen Fokus, eine andere Blende und Kalibrierung haben können und wenn Videos von verschiedenen Kamerapaaren verglichen werden, können andere Parameter als der Basisabstand die Bildqualität und Tiefenwahrnehmung beeinflussen. Ein weiterer Nachteil eines Kamera-Arrays besteht darin, dass die Schrittweite zwischen den Basislinienabständen durch die physische Größe der Kameras begrenzt ist. Zum Beispiel hat die in dieser Studie verwendete Linse einen Durchmesser von 30 mm, was der minimal möglichen Schrittweite entsprechen würde. Mit dem in der Studie vorgestellten Aufbau wurden Schrittweiten von 10 mm getestet, die aber bei Bedarf kleiner eingestellt werden konnten. Außerdem können mit dem Array-Setup Höhe und Konvergenzabstand nicht dynamisch angepasst werden.

Eine weitere Alternative besteht darin, die Kameras manuell an vordefinierte Positionen zu bewegen22. Dies ist während einer Live-Herzoperation nicht möglich, da dies den kritischen chirurgischen Arbeitsbereich und die Zeit beeinträchtigen würde.

Diese Methode ist auf viele Arten von offenen Operationen anwendbar, einschließlich orthopädischer, vaskulärer und allgemeiner Chirurgie, bei denen optimale Ausgangs- und Konvergenzabstände noch bestimmt werden müssen.

Diese Methode kann auch angepasst werden, um Bilder für andere Zwecke als die 3D-Visualisierung zu sammeln. Viele Computer-Vision-Anwendungen verwenden die Diskrepanz zwischen Bildern, um die Entfernung zu einem Objekt zu berechnen. Eine präzise Kamerabewegung kann verwendet werden, um stationäre Objekte aus mehreren Richtungen in 3D zu scannen, um 3D-Modelle zu erstellen. Für die 3D-Lokalisierung ist das 3D-Betrachtungserlebnis weniger wichtig, wenn die gleichen Punkte auf dem Objekt in verschiedenen Bildern identifiziert werden können, abhängig von der genauen Kamerapositionierung, der Kamerakalibrierung, den Lichtverhältnissen und der Frame-Synchronisation.

Die robotergesteuerte Kamerapositionierung ist sowohl sicher als auch effektiv für die Erfassung von Videodaten zur Identifizierung optimaler Kamerapositionen für stereoskopisches 3D-Video.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Die Autoren haben nichts preiszugeben.

Acknowledgments

Die Forschung wurde mit Mitteln von Vinnova (2017-03728, 2018-05302 und 2018-03651), der Herz-Lungen-Stiftung (20180390), der Familien-Kamprad-Stiftung (20190194) und der Anna-Lisa und Sven Eric Lundgren-Stiftung (2017 und 2018) durchgeführt.

Materials

Name Company Catalog Number Comments
2 C-mount lenses (35 mm F2.1, 5 M pixel) Tamron M112FM35 Rated for 5 Mpixel
3D glasses (DLP-link active shutter) Celexon G1000 Any compatible 3D glasses can be used
3D Projector Viewsonic X10-4K Displays 3D in 1080, can be exchanged for other 3D projectors
6 M2 x 8 screws To attach the cXimea cameras to the camera adaptor plates
8 M2.5 x 8 screws To attach the circular mounting plates to the robot wrist
8 M5 x 40 screws To mount the robot
8 M6 x 10 screws with flat heads For attaching the circular mounting plate and the camera adaptor plates
Calibration checker board plate (25 by 25 mm) Any standard checkerboard can be used, including printed, as long as the grid is clearly visible in the cameras
Camera adaptor plates, x2 Designed by the authors in robot_camera_adaptor_plates.dwg, milled in aluminium.
Circular mounting plates, x2 Distributed with the permission of the designer Julius Klein and printed with ABS plastic on an FDM 3D printer. License Tecnalia Research & Innovation 2017. Attached as Mountingplate_ROBOT_SIDE_
NewDesign_4.stl
Fix focus usb cameras, x2 (5 Mpixel) Ximea MC050CG-SY-UB With Sony IMX250LQR sensor
Flexpendant ABB 3HAC028357-001 robot touch display
Liveview recording application
RobotStudio  robot integrated development environment (IDE)
USB3 active cables (10.0 m), x2 Thumbscrew lock connector, water proofed.
YuMi dual-arm robot ABB IRB14000

DOWNLOAD MATERIALS LIST

References

  1. Held, R. T., Hui, T. T. A guide to stereoscopic 3D displays in medicine. Academic Radiology. 18 (8), 1035-1048 (2011).
  2. van Beurden, M. H. P. H., IJsselsteijn, W. A., Juola, J. F. Effectiveness of stereoscopic displays in medicine: A review. 3D Research. 3 (1), 1-13 (2012).
  3. Luursema, J. M., Verwey, W. B., Kommers, P. A. M., Geelkerken, R. H., Vos, H. J. Optimizing conditions for computer-assisted anatomical learning. Interacting with Computers. 18 (5), 1123-1138 (2006).
  4. Takano, M., et al. Usefulness and capability of three-dimensional, full high-definition movies for surgical education. Maxillofacial Plastic and Reconstructive Surgery. 39 (1), 10 (2017).
  5. Triepels, C. P. R., et al. Does three-dimensional anatomy improve student understanding. Clinical Anatomy. 33 (1), 25-33 (2020).
  6. Beermann, J., et al. Three-dimensional visualisation improves understanding of surgical liver anatomy. Medical Education. 44 (9), 936-940 (2010).
  7. Battulga, B., Konishi, T., Tamura, Y., Moriguchi, H. The Effectiveness of an interactive 3-dimensional computer graphics model for medical education. Interactive Journal of Medical Research. 1 (2), (2012).
  8. Yammine, K., Violato, C. A meta-analysis of the educational effectiveness of three-dimensional visualization technologies in teaching anatomy. Anatomical Sciences Education. 8 (6), 525-538 (2015).
  9. Fitzgerald, J. E. F., White, M. J., Tang, S. W., Maxwell-Armstrong, C. A., James, D. K. Are we teaching sufficient anatomy at medical school? The opinions of newly qualified doctors. Clinical Anatomy. 21 (7), 718-724 (2008).
  10. Bergman, E. M., Van Der Vleuten, C. P. M., Scherpbier, A. J. J. A. Why don't they know enough about anatomy? A narrative review. Medical Teacher. 33 (5), 403-409 (2011).
  11. Terzić, K., Hansard, M. Methods for reducing visual discomfort in stereoscopic 3D: A review. Signal Processing: Image Communication. 47, 402-416 (2016).
  12. Fan, Z., Weng, Y., Chen, G., Liao, H. 3D interactive surgical visualization system using mobile spatial information acquisition and autostereoscopic display. Journal of Biomedical Informatics. 71, 154-164 (2017).
  13. Fan, Z., Zhang, S., Weng, Y., Chen, G., Liao, H. 3D quantitative evaluation system for autostereoscopic display. Journal of Display Technology. 12 (10), 1185-1196 (2016).
  14. McIntire, J. P., et al. Binocular fusion ranges and stereoacuity predict positional and rotational spatial task performance on a stereoscopic 3D display. Journal of Display Technology. 11 (11), 959-966 (2015).
  15. Kalia, M., Navab, N., Fels, S. S., Salcudean, T. A method to introduce & evaluate motion parallax with stereo for medical AR/MR. IEEE Conference on Virtual Reality and 3D User Interfaces. , 1755-1759 (2019).
  16. Kytö, M., Hakala, J., Oittinen, P., Häkkinen, J. Effect of camera separation on the viewing experience of stereoscopic photographs. Journal of Electronic Imaging. 21 (1), 1-9 (2012).
  17. Moorthy, A. K., Su, C. C., Mittal, A., Bovik, A. C. Subjective evaluation of stereoscopic image quality. Signal Processing: Image Communication. 28 (8), 870-883 (2013).
  18. Yilmaz, G. N. A depth perception evaluation metric for immersive 3D video services. 3DTV Conference: The True Vision - Capture, Transmission and Display of 3D Video. , 1-4 (2017).
  19. Lebreton, P., Raake, A., Barkowsky, M., Le Callet, P. Evaluating depth perception of 3D stereoscopic videos. IEEE Journal on Selected Topics in Signal Processing. 6, 710-720 (2012).
  20. López, J. P., Rodrigo, J. A., Jiménez, D., Menéndez, J. M. Stereoscopic 3D video quality assessment based on depth maps and video motion. EURASIP Journal on Image and Video Processing. 2013 (1), 62 (2013).
  21. Banks, M. S., Read, J. C., Allison, R. S., Watt, S. J. Stereoscopy and the human visual system. SMPTE Motion Imaging Journal. 121 (4), 24-43 (2012).
  22. Kytö, M., Nuutinen, M., Oittinen, P. Method for measuring stereo camera depth accuracy based on stereoscopic vision. Three-Dimensional Imaging, Interaction, and Measurement. 7864, 168-176 (2011).
  23. Kang, Y. S., Ho, Y. S. Geometrical compensation algorithm of multiview image for arc multi-camera arrays. Advances in Multimedia Information Processing. 2008, 543-552 (2008).
  24. Product Specification IRB 14000. DocumentID: 3HAC052982-001 Revision J. ABB Robotics. , Available from: https://library.abb.com/en/results (2018).
  25. Operating Manual IRB 14000. Document ID: 3HAC052986-001 Revision F. ABB Robotics. , Available from: https://library.abb.com/en/results (2019).
  26. Github repository. , Available from: https://github.com/majstenmark/stereo2 (2021).
  27. Operating manual RobotStudio. Document ID: 3HAC032104-001 Revision Y. ABB Robotics. , Available from: https://library.abb.com/en/results (2019).
  28. Won, C. S. Adaptive interpolation for 3D stereoscopic video in frame-compatible top-bottom packing. IEEE International Conference on Consumer Electronics. 2011, 179-180 (2011).
  29. Kim, S. K., Lee, C., Kim, K. T. Multi-view image acquisition and display. Three-Dimensional Imaging, Visualization, and Display. Javidi, B., Okano, F., Son, J. Y. , Springer. New York. 227-249 (2009).
  30. Liu, F., Niu, Y., Jin, H. Keystone correction for stereoscopic cinematography. IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops. 2012, 1-7 (2012).
  31. Kang, W., Lee, S. Horizontal parallax distortion correction method in toed-in camera with wide-angle lens. 3DTV Conference: The True Vision - Capture, Transmission and Display of 3D Video. 2009, 1-4 (2009).

Tags

Medizin Ausgabe 174 Stereo Vision 3D Kamera-Baseline Tiefenwahrnehmung Robotik Chirurgie am offenen Herzen
Robotisiertes Testen von Kamerapositionen zur Bestimmung der idealen Konfiguration für die Stereo-3D-Visualisierung von Operationen am offenen Herzen
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Stenmark, M., Omerbašić,More

Stenmark, M., Omerbašić, E., Magnusson, M., Nordberg, S., Dahlström, M., Tran, P. K. Robotized Testing of Camera Positions to Determine Ideal Configuration for Stereo 3D Visualization of Open-Heart Surgery. J. Vis. Exp. (174), e62786, doi:10.3791/62786 (2021).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter