Author Produced

Ein experimentelles Protokoll zur Bewertung der Leistung des neuen Ultraschallsonden basierend auf CMUT Technologie in Anwendung auf die Bildgebung des Gehirns

Bioengineering

Your institution must subscribe to JoVE's Bioengineering section to access this content.

Fill out the form below to receive a free trial or learn more about access:

 

Summary

Die Entwicklung der neuen (US) Ultraschallsonden basierend auf kapazitive Micromachined Ultraschall Wandler (CMUT) Technologie erfordert eine frühzeitige realistische Bewertung von imaging-Funktionen. Wir beschreiben ein wiederholbares experimentelle Protokoll für US-Bildaufnahme und Vergleich mit Magnet-Resonanz-Bilder, mit einem ex Vivo bovine Gehirn als bildgebende Ziel.

Cite this Article

Copy Citation | Download Citations

Matrone, G., Ramalli, A., Savoia, A. S., Quaglia, F., Castellazzi, G., Morbini, P., Piastra, M. An Experimental Protocol for Assessing the Performance of New Ultrasound Probes Based on CMUT Technology in Application to Brain Imaging. J. Vis. Exp. (127), e55798, doi:10.3791/55798 (2017).

Please note that all translations are automatically generated.

Click here for the english version. For other languages click here.

Abstract

Die Möglichkeit, eine frühe und reproduzierbare Beurteilung der Abbildungsleistung auszuführen ist von grundlegender Bedeutung bei der Gestaltung und Entwicklungsprozess der neuen Ultraschall (US)-Sonden. Insbesondere kann eine realistische Analyse mit anwendungsspezifischen bildgebenden Ziele zur Beurteilung der erwarteten Leistung der US-Sonden in ihren potenziellen klinischen Anwendungsbereich äußerst wertvoll sein.

In dieser Arbeit vorgestellten experimentellen Protokolls wurde absichtlich zur Verfügung, eine anwendungsspezifische Bewertungsverfahren für neu entwickelte uns Sonde Prototypen auf Basis kapazitiver Micromachined Ultraschall Wandler (CMUT) Technologie in Bezug auf Bildgebung des Gehirns.

Das Protokoll verbindet die Verwendung eines bovinen Gehirns als bildgebende Ziel, sorgt für Realismus und Wiederholbarkeit der beschriebenen Verfahren und Neuronavigation Techniken entlehnt Neurochirurgie in Formalin fixiert. Die US-Sonde ist in der Tat ein Motion-tracking-System erwirbt Positionsdaten und ermöglicht die Überlagerung der US Bilder verweisen Magnetresonanz (MR) Bilder des Gehirns verbunden. Dies bietet eine Möglichkeit für menschliche Experten, führen Sie eine visuelle qualitative Bewertung der US-Sonde Abbildungsleistung und Akquisitionen mit verschiedenen Sonden zu vergleichen. Darüber hinaus beruht das Protokoll auf der Verwendung eines Systems vollständig und offene Forschung und Entwicklung für die US-Bildaufnahme, d. h. den Ultraschall Advanced öffnen Platform (ULA-OP) Scanner.

Das Manuskript beschreibt im Detail die Instrumente und Verfahren des Protokolls, insbesondere für die Kalibrierung, Bildaufnahme und Registrierung von USA und Herr Bilder beteiligt. Die erzielten Ergebnisse belegen die Wirksamkeit des gesamten Protokolls vorgestellt, die völlig offen (innerhalb der Grenzen der Instrumentierung beteiligt), wiederholbar, und umfasst die Gesamtheit der Erfassung und Verarbeitung Aktivitäten für US-Bilder.

Introduction

Der wachsende Markt für kleine und tragbare Ultraschall (US) Scanner führt zu die Entwicklung von neuen Echographische Sonden in welchem Teil des Signal-Konditionierung und Beamforming Sondengriff, vor allem für 3D/4D Bildgebung Elektronik integriert ist 1. auftauchende Technologien besonders geeignet, um dieses hohe Maß an Integration zu erreichen gehören Micromachined Ultraschallwandler (MUTs)2, eine Klasse von Micro Electro-Mechanical System (MEMS) Wandler auf Silizium hergestellt. Insbesondere haben kapazitive MUTs (CMUTs) endlich eine technologische Reife erreicht, die macht sie eine gute Alternative zum piezoelektrischen Aufnehmer für die nächste Generation Ultraschall bildgebende Systeme3. CMUTs sind sehr ansprechend durch ihre Kompatibilität mit Mikroelektronik Technologien, hoher Bandbreite - wodurch eine höhere Bildauflösung - hohen thermischen Wirkungsgrad erzielt und vor alle, hohe Empfindlichkeit4. CMUT Sonden werden im Rahmen des Projekts ENIAC JU DeNeCoR (Geräte für NeuroControl und NeuroRehabilitation)5entwickelten6 für US-Brain imaging-Anwendungen (z.B. Neurochirurgie), wo qualitativ hochwertige 2D/3D/4D Bilder und genaue Darstellung der Hirnstrukturen sind erforderlich.

In den Entwicklungsprozess der neuen US-Sonden ist die Möglichkeit der Durchführung frühe Beurteilung der Abbildungsleistung von grundlegender Bedeutung. Typische Bewertung Techniken beinhalten bestimmte Parameter wie Auflösung und Kontrast, basierend auf Bildern des Gewebes imitiert Phantome mit embedded-Zielgeräte bekannter Geometrie und Echogenicity zu messen. Realistischer Analyse mit anwendungsspezifischen bildgebenden Ziele kann für eine frühzeitige Bewertung der erwarteten Leistung der US-Sonden in ihre mögliche Anwendung auf einen bestimmten klinischen Bereich sehr wertvoll sein. Auf der anderen Seite die komplette Wiederholbarkeit von Akquisitionen ist grundlegend für vergleichende Tests von verschiedenen Konfigurationen im Laufe der Zeit, und diese Anforderung herrscht in Vivo Experimente zusammen.

Mehrere Werke in der Literatur über diagnostische bildgebende Verfahren vorgeschlagen, die Verwendung von ex-Vivo Tierpräparate7, Kadaver Gehirne8oder Gewebe imitiert Phantome9 für verschiedene Zwecke10, darunter die Prüfung von bildgebenden Verfahren, Anmeldung Algorithmen, Magnetresonanz (MR)-Sequenzen oder die US-Lichtverteilung und daraus resultierenden Bildqualität. Zum Beispiel im Rahmen der Bildgebung des Gehirns, Lazebnik Et al. 7 verwendet Formalin fixiert Schaf Gehirn, um eine neue 3D Herr Registrierung Methode zu bewerten; in ähnlicher Weise Choe Et al. 11 untersucht ein Verfahren für die Registrierung von Herr und lichtmikroskopische Bilder eines festen Eule Affen Gehirns. Polyvinylalkohol (PVA) Gehirn phantom wurde in9 entwickelt und verwendet, um multimodale Bild Akquisitionen (d. h. Herr, den USA und Computertomographie), ein gemeinsames Bild Dataset12 für die Prüfung der Anmeldung generieren durchzuführen und Imaging-Algorithmen.

Insgesamt bestätigen diese Studien, dass die Verwendung von ein realistisches Ziel für Bild Übernahmen in der Tat ein wesentlicher Schritt bei der Entwicklung einer neuen bildgebenden Technik ist. Dies entspricht noch kritischer frühzeitig, wenn Sie entwerfen ein neue imaging-Gerät, wie die CMUT uns Sonde präsentiert in diesem Papier, das noch in einer Prototyp-Phase und benötigt umfassende und reproduzierbare Tests im Laufe der Zeit für eine genaue Abstimmung der ganzen Konstruktion Parameter vor seiner endgültigen Verwirklichung und mögliche Validierung in in-Vivo Anwendungen (wie in13,14,15).

In dieser Arbeit beschriebenen experimentellen Protokolls wurde so entwickelt, um eine robuste, anwendungsspezifische bildgebenden Bewertungsverfahren für neu entwickelte US-Sonden basierend auf CMUT Technologie bieten. Um Realismus und Wiederholbarkeit, Rinder zu gewährleisten wurden Gehirne (gewonnen durch die standard-Versorgung mit Lebensmitteln Handelskette) in Formalin fixiert als imaging Ziele gewählt. Die Fixierung gewährleistet langfristige Erhaltung der Gewebeeigenschaften unter Beibehaltung befriedigende morphologische Eigenschaften und Sichtbarkeitseigenschaften in USA und MR-Bildgebung16,17.

Das Protokoll für die Beurteilung der Bildqualität US beschrieben hier auch implementiert ein Feature Neuronavigation Techniken für Neurochirurgie15entlehnt. Solche Ansätze sind US-Sonden verbunden ein Motion-tracking-System, das räumliche Position und Ausrichtung von Daten in Echtzeit bietet. Auf diese Weise können US-Aufnahmen bei chirurgischen Aktivitäten automatisch registriert und visualisiert, um Führung in Überlagerung zu pre-operatory MRT-Bilder von das Gehirn des Patienten. Für die Zwecke des vorliegenden Protokolls ist die Überlagerung mit MRT-Bilder (die als der Goldstandard in der Bildgebung des Gehirns angesehen werden) von großem Wert, da es ermöglicht menschliche Experten visuell beurteilen die morphologischen und Gewebe Merkmale erkennbar in sind die US-Bilder und Vice Versa, das Vorhandensein von imaging-Artefakte zu erkennen.

Noch interessanter wird die Möglichkeit, Aufnahmen mit verschiedenen US-Sonden zu vergleichen. Die experimentelle Protokoll präsentiert beinhaltet die Möglichkeit, eine Reihe von Raumbezug posiert für US-Akquisitionen, konzentrierte sich auf die funktionsreichste Volumenbereiche identifiziert in einer vorläufigen Sichtprüfung der MRT-Bilder definieren. Ein integrierte visuelles Werkzeug, entwickelt für die Paraview open-Source Software System18, bietet Anleitungen für Betreiber für den Abgleich dieser vordefinierten Posen in US Bild Erwerb Phasen. Für die Kalibrierungsverfahren durch das Protokoll ist es unerlässlich, alle Ziel-Proben - biologischen oder synthetischen - mit vordefinierten Position Sehenswürdigkeiten ausstatten, die eindeutige räumliche Bezüge zur Verfügung zu stellen. Sehenswürdigkeiten sein in USA und Herr Bilder sichtbar und für Messungen mit der Motion-tracking-System physisch zugänglich. Die gewählte Wahrzeichen Elemente für das Experiment sind kleine Kugeln von Weißglas, deren Sichtbarkeit in USA und Herr Bilder war in der Literatur19 demonstriert und durch vorläufige USA und Herr Scans ausgeführt, bevor die vorgestellten Experimente bestätigt.

Das Protokoll präsentiert stützt sich auf Ultraschall Advanced öffnen Platform (ULA-OP)20, eine vollständige und offene Forschung und Entwicklungssystem für uns Bildaufnahme, bietet viel breitere experimentellen Möglichkeiten als kommerziell zur Verfügung Scanner und dient als gemeinsame Basis für die Bewertung der verschiedenen US-Sonden.

Zunächst sind die in dieser Arbeit verwendeten Instrumente mit besonderem Bezug auf die neu gestaltete CMUT Sonde beschrieben. Das experimentelle Protokoll ist introduced im Detail, mit einer gründlichen Beschreibung aller Beteiligten, vom ersten Entwurf zur Kalibrierung des Systems, zur Bildaufnahme und Post-Processing Verfahren. Zu guter Letzt die erhaltenen Bilder präsentiert werden und die Ergebnisse werden diskutiert, sowie Hinweise auf zukünftige Entwicklungen dieser Arbeit.

Instrumentierung

CMUT Sonde Prototyp

Die Experimente wurden mit neu entwickelten 256-Element CMUT linear-Array Prototyp entworfen, hergestellt und verpackt in Acoustoelectronics Labor (ACULAB) der Universität Roma Tre (Rom, Italien), mit den Fertigungsprozess CMUT umkehren (durchgeführt RFP)4. RFP ist ein Microfabrication und Verpackungstechnik, speziell konzipiert für die Realisierung von MEMS Sensoren für uns imaging-Anwendungen, wobei die CMUT Mikrostruktur auf Silizium hergestellt ist ein "Upside-Down" Ansatz21. Im Vergleich zu anderen CMUT Fertigungstechnologien ergibt RFP verbesserte Abbildungsleistung durch die hohe Gleichmäßigkeit der CMUT Zellen Geometrie über das gesamte Array und akustisch entwickelten Materialien in die Sonde Kopf Paket. Ein wichtiges Merkmal des RFP ist, dass die elektrische Zusammenschaltung Pads befinden sich auf dem hinteren Teil der CMUT sterben, was die 3D-Integration von 2D Arrays und Front-End-Mehrkanal-Elektronik erleichtert.

Das Array mit 256 Elementen CMUT wurde entwickelt, um in einem Frequenzband mit 7,5 MHz zentriert zu betreiben. Eine Element-Pitch von 200 µm wurde für das Array, was zu einer Maximalbreite von Field-of-View von 51,2 mm gewählt. Die Höhe der einzelnen CMUT Arrayelemente wurde definiert, um geeignete Leistung in Bezug auf die laterale Auflösung und Penetration Fähigkeit zu erzielen. Eine Array Element Höhe 5 mm wurde gewählt, um eine-3 dB Strahlbreite von 0,1 mm und einer-3 dB Tiefenschärfe von 1,8 mm bei 7,5 MHz, bei der Festsetzung des Höhe Fokus in einer Tiefe von 18 mm durch eine akustische Linse. 195 µm-weite Array-Elemente wurden durch die Anordnung und elektrisch anschließen in parallele 344 kreisförmigen CMUT Zellen, nach einem sechseckigen Layout erhalten. Folglich entspricht der resultierenden 5 µm Element zu Element Abstand, d. h. der Schnittfuge, die Membran zu Membran-Trennung. Eine schematische Darstellung der Struktur eines CMUT Arrays ist in Abbildung 1gemeldet.

Figure 1
Abbildung 1: CMUT Arraystruktur. Schematische Darstellung der Struktur eines CMUT Arrays: array-Elemente, bestehend aus mehreren Zellen verbunden in parallel (a), Layout der CMUT Mikrostruktur (b); Querschnitt einer CMUT Zelle (c). Bitte klicken Sie hier für eine größere Version dieser Figur.

CMUT Microfabrication Parameter, d.h. die laterale und vertikale Dimensionen der Platte und Elektroden, wurden definiert, mit Hilfe von Finite Element Modeling (FEM) Simulationen mit dem Ziel eine Breitband-eintauchen-Betrieb zeichnet sich durch eine Frequenzgang bei 7,5 MHz und eine 100 %-6 dB Zweiwege-gebrochene Bandbreite zentriert. Die Höhe des Hohlraums, d. h. die Lücke wurde definiert, um einen Zusammenbruch Spannung von 260 V, die zwei-Wege-Empfindlichkeit, zu maximieren durch Vorspannen der CMUT bei 70 % der Zusammenbruch Spannung4, unter Berücksichtigung einer 80 V maximale Erregung Signalspannung zu erreichen. Tabelle 1 fasst die wichtigsten geometrischen Parameter der Microfabricated CMUT.

CMUT Array Design-Parameter
Parameter Wert
Array
Anzahl der Elemente 256
Element-pitch 200 µm
Elementlänge (Höhe) 5 mm
Feste Höhe Fokus 15 mm
CMUT Mikrostruktur
Durchmesser der Zelle 50 µm
Elektrodendurchmesser 34 µm
Seitenabstand von Zelle zu Zelle 7.5 µm
Blechdicke 2,5 µm
Lücke-Höhe 0,25 µm

Tabelle 1. CMUT Sonde Parameter. Geometrische Parameter des CMUT linear-Array Sonde und CMUT Zelle Mikrostruktur.

Referenz4beschreibt der Verpackungsprozess CMUT Arrays in einem Messkopf integriert. Die akustische Linse wurde hergestellt mit einer Raumtemperatur vulkanisiert (RTV) Silikon-Kautschuk mit Metall-Oxid-Nanopulver dotiert entsprechen die akustische Impedanz von Wasser und vermeiden unechte Reflexionen an der Schnittstelle22. Die daraus resultierende Verbindung war geprägt von einer Dichte von 1280 kg/m3 und eine Schallgeschwindigkeit von 1100 m/s. Eine 7 mm Krümmungsradius wurde für die Zylinderlinse, führt zu einer geometrischen Schwerpunkt von 18 mm und einer maximalen Dicke von ca. 0,5 mm über dem Wandler gewählt. Ein Bild von der CMUT Messkopf wird in Abbildung 2(a)angezeigt.

Figure 2
Abbildung 2: CMUT Sonde. Leiter der entwickelten CMUT Sonde, einschließlich die lineare Anordnung der Wandler und akustische Linse (a), und die volle CMUT Sonde mit Stecker (b). Bitte klicken Sie hier für eine größere Version dieser Figur.

Der Messkopf CMUT wurde an der Sondengriff mit Mehrkanal-Empfang analoger Front-End-Elektronik und einen mehrpoligen Kabel für den Anschluss an die US-Scanner gekoppelt. Die einkanalige elektronische Schaltung ist eine hohe Eingangs-Impedanz 9 dB Gain-Spannung Verstärker, der elektrische aktuelle notwendig, um die Kabel-Impedanz fahren bietet. Die Mehrkanal-Elektronik, beschrieben in Referenz 4, basiert auf einem Schaltungstopologie einschließlich einen ultra-low-Power-geräuscharm-Empfänger und eine integrierte Schalter für das senden/empfangen Signal Duplexdruck. Die Front-End-Elektronik-Stromversorgung und die CMUT Vorspannung sind durch eine benutzerdefinierte Netzteil erzeugt und der Sonde durch das mehrpoligen Kabel zugeführt. Die komplette Sonde ist in Abbildung 2(b)dargestellt.

Piezoelektrische US-Sonden

Für einen qualitativen Vergleich der Bilder erhalten, mit der CMUT Sondeoben wurden zwei handelsübliche piezoelektrische US-Sonden in den Experimenten. Die erste ist eine linear-Array-Sonde mit 192 transducing Elemente, eine 245 µm Tonhöhe und eine 110 % gebrochene Bandbreite 8 MHz zentriert. Diese Sonde wurde verwendet, um 2D B-Mode-Bilder zu erwerben. Die zweite Sonde ist eine Sonde für 3D-Bildgebung mit einer mechanisch gefegt linearen Anordnung von 180 transducing Elemente, mit einem 245 µm Sitzabstand und ein 100 % gebrochene Bandbreite bei 8,5 MHz zentriert. Ein Schrittmotor platziert im Inneren der Sonde Gehäuse ermöglicht fegen das lineare-Array um mehrere Ebenen zu erwerben, die verwendet werden, um ein 3D-Bild der gescannten Volume23zu rekonstruieren.

ULA-OP-System

Der Erwerb von US-Bilder erfolgte durch den Einsatz der ULA-OP System20, die einen vollständigen und offenen US Forschung und Entwicklung-System, konzipierte und realisierte die Mikroelektronik Systeme Design Laboratory der Universität Florenz, Italien. ULA-OP-System kontrollieren kann, sowohl bei der Übertragung (TX) und Empfang (RX), bis zu 64 unabhängige Kanäle verbunden durch eine Switch-Matrix, eine US-Sonde mit bis zu 192 piezoelektrischen oder CMUT Wandler. Die Architektur bietet zwei wichtigsten Verarbeitung Systemplatinen, ein Analog-Board (AB) und eine digitale Board (DB), beide enthalten in einem Rack, die abgeschlossen sind, durch ein Netzteil und ein Rücken-Flugzeug-Vorstand, die die Sonde Stecker und alle internen routing enthält Komponenten. AB enthält die Front-End für die Sonde Wandler, insbesondere Elektronikkomponenten für analoge Konditionierung von 64 Kanäle und die programmierbare Schalter-Matrix, die dynamisch die TX-RX Kanäle die Wandler zuordnet. Die DB für Echtzeit-Beamforming verantwortlich ist, Echos Synthese der TX-Signale und Verarbeitung der RX um die gewünschte Ausgabe (zum Beispiel B-Modus Bilder oder Doppler Sonogramme) zu produzieren. Es ist hervorzuheben, dass die ULA-OP System ist voll konfigurierbar, damit das Signal in TX kann jede beliebige Wellenform innerhalb der Systembandbreite (z. B. 3-stufigen Impulse, Sinus-Bursts, zwitschert, Huffman-Codes, etc.) mit einer maximalen Amplitude der 180 Vpp; Darüber hinaus die Beamforming Strategie programmiert werden, nach den neuesten Fokussierung Mustern (z.B. konzentriert Welle, multi-line-Übertragung, Ebenen Welle, unterschiedliche Wellen, begrenzte Beugung Balken usw.)24,25 . Auf Hardware-Ebene werden diese Aufgaben von fünf Field Programmable Gate Arrays (FPGAs) und einen digitalen Signalprozessor (DSP) genutzt. Mit mechanisch fegte 3D imaging-Sonden, wie oben beschrieben steuert die ULA-OP auch den Schrittmotor im Inneren der Sonde für die synchronisierte Erfassung von 2D Einzelbilder an jeder Position des Wandler-Arrays.

ULA-OP-System kann zur Laufzeit neu konfiguriert und angepasst an verschiedenen US-Sonden. Es kommuniziert über einen USB 2.0-Kanal mit einem Host-Computer, ausgestattet mit einer spezifischen Software-Tool. Letzteres hat eine konfigurierbare grafische Oberfläche, die Echtzeit-Visualisierung von US-Bildern, rekonstruiert in verschiedenen Modi bietet; mit volumetrischen Sensoren können beispielsweise zwei B-Mode-Bilder von lotrechten Ebenen im gescannten Volumen in Echtzeit angezeigt werden.

Der Hauptvorteil der ULA-OP-System für die Zwecke des Protokolls beschrieben ist, dass es ermöglicht eine einfache tuning der TX-RX-Parameter und vollen Zugriff auf die Signaldaten gesammelt bei jedem Schritt in der Verarbeitung Kette26 bietet, wodurch es auch möglich zum Testen neuer bildgebender Verfahren und Beamforming Techniken27,28,29,30,31,32,33.

Motion-Tracking-system

Datensatz die USA Sonde Position während der Bildaufnahme, eine optischen Motion-tracking-System war beschäftigt34. Das System basiert auf einer Sensoreinheit, die emittiert infrarotes Licht über zwei Illuminatoren (Licht emittierende Dioden (LEDs)) und verfügt über zwei Receiver (d.h. ein Objektiv und ein Charge - Coupled Device (CCD)), das durch mehrere zweckgebundene passiv reflektierte Licht zu erkennen Marker in vordefinierten starren Formen angeordnet. Informationen über reflektierte Licht wird dann verarbeitet durch einen on-Board-CPU, Position und Ausrichtung Daten zu berechnen, die auf einem Host-Computer angeschlossen über USB 2.0 übertragen können. Der gleiche Link lässt sich die Konfiguration der Sensoreinheit steuern.

Die Sensoreinheit Schiffe zusammen mit einer Reihe von Tools, jeweils ausgestattet mit 4 reflektierenden Markierungen in einer starren geometrischen Konfiguration angeordnet. Die Motion-tracking-System kann bis zu sechs verschiedene starre Werkzeuge gleichzeitig, bei einer Frequenz von ca. 20Hz verfolgen. Zwei solche Werkzeuge wurden für diese Experimente verwendet: ein Zeigerwerkzeug, das ermöglicht Erwerb der 3D-Position berührt von seiner Spitze, und ein Klammer ausgestattet-Tool, das die US-Sonde unter befestigt werden kann (siehe Abbildung 14) testen.

Auf der Softwareseite bietet Motion-Tracker eine Low-Level-serielle Programmierschnittstelle (API) für beide Einheit Steuerung und Datenerfassung, das über USB zugegriffen werden kann. Standardmäßig werden Position und Ausrichtung als Multi-Entry-Elemente, d.h. ein Eintrag pro jedes Werkzeug verfolgt zurückgegeben. Jeder Eintrag enthält eine 3D Position (X, y, Z) in mm ausgedrückt und eine Orientierung (Q0, QX, Q,y, Q-Z), ausgedrückt als eine Quaternion. Das System kommt auch mit einer Toolbox übergeordnete Software-Instrumente, umfasst eine grafische Tracking-Tool zur Visualisierung und Messung in Echtzeit die Positionen/Ausrichtung mehrerer Tools in das Blickfeld der Sensoreinheit.

System-Übersicht, Integration und Software-Komponenten

Das Diagramm in Abbildung 3 fasst die Instrumentierung für das Protokoll, beschreiben auch den Datenstrom, der über die Systeme fließt angenommen.

Figure 3
Abbildung 3: Blockschaltbild der gesamten Hardware Setup und System Integration. Die US-Sonde ist mit der ULA-OP-System verbunden, über USB mit dem Notebook für die US-Bildaufnahme kommuniziert. Zur gleichen Zeit ist das Notebook auch über USB, das Motion-tracking-System für Position Data Acquisition und über Ethernet an die Arbeitsstation für die Datenverarbeitung verbunden. Bitte klicken Sie hier für eine größere Version dieser Figur.

Das Setup beinhaltet neben der US-Sonden, Motion-Tracker und die ULA-OP-System, das oben beschrieben wurden, auch zwei Computer, nämlich ein Notebook und einen Arbeitsplatz. Ersteres ist der Front-End für Instrumentierung, empfangen und synchronisieren die zwei wichtigsten eingehenden Datenströme: die US-Bilder aus der ULA-OP-System und die 3D Positionsdaten von Motion-Tracker. Es bietet auch eine visuelle Rückmeldung an dem Betreiber für den übertragenden Bildern. Die Arbeitsstation hat wesentlich höhere Rechenkapazität und Speicherplatz. Freuen Sie sich auf Back-End-Unterstützung für Bild-Nachbearbeitung und ein Repository für die kombinierte Bildgebung Datasets. Die Arbeitsstation dient auchfür die Visualisierung von USA und Herr Bildern, einschließlich der Möglichkeit der gleichzeitigen 3D Visualisierung der registrierten Multi-modale Bilder.

Eine entscheidende Voraussetzung für die Bild-Erwerb-Experimente ist die Synchronisation der beiden wichtigsten Datenströme. Die Motion-tracking und ULA-OP-Systeme sind eigenständige Instrumente, die noch nicht wird eine explizite Synchronisierung der Aktivitäten unterstützt. Aus diesem Grund müssen US-Daten und Position Bildinformationen richtig kombiniert werden, um die richtige 3D Position der US-Sonde zum Zeitpunkt der erworbenen jedes Teilbild zu erkennen. Zu diesem Zweck wurde eine spezielle Logging-Anwendung für Aufnahme und Zeitstempel in Echtzeit entwickelt von der Motion-tracking-System, indem Sie ändern eine C++ Softwarekomponente, die enthalten ist, in diesem Fall in Motion-Tracker gelieferten Daten. Motion-Tracking-Systeme verfügen in der Regel eine Low-Level-API, ermöglicht, Daten in Echtzeit zu erfassen und übertragen sie in eine Datei.

Die angenommenen Synchronisierungsmethode funktioniert wie folgt. Jeder Eintrag in der Datei durch die Logging-Anwendung erzeugt wird ergänzt mit einem Zeitstempel im Format "Yyyy-MM-ddThh:mm:ss.kkk", wo: y = Jahr, M = Monat, d = Tag, h = Stunde, m = Minuten, s = Sekunde, k = Millisekunden. Die ULA-OP PC-basierte Software (C++ und MATLAB Programmiersprachen) berechnet die Anfangs- und Endzeit jeder Erwerb Bildsequenz und speichert diese Informationen in jedem Bild im .vtk-Format. Um einen gemeinsamen zeitlichen Bezug während der Experimente zu ermöglichen, werden beide der oben genannten Software-Verfahren auf dem Front-End-Computer in Abbildung 3ausgeführt. Zeitstempel erzeugt auf diese Weise werden dann durch die Post-processing Software-Verfahren, die die endgültige Dataset zu produzieren verwendet (siehe Abschnitt 8-Protokoll).

Eine weitere spezifische Software-Komponente wurde realisiert und laufen auf der Arbeitsstation zu bieten Echtzeit-Feedback an den Betreiber von im Zusammenhang mit der aktuellen US probe Lage, MRT-Bilder und vor allem auf den Satz von vordefinierten Posen. Eine Server-seitige Softwareroutine in Python die Motion-Tracker-Log-Datei verarbeitet, die aktuelle US probe Position in eine geometrische Form, und sendet die Daten an einen Server von Paraview übersetzt. Ein Paraview-Client verbindet mit dem gleichen Paraview-Server und in Echtzeit zeigt die Position der geometrischen Form, überlagert auf einem MRT-Bild und weitere geometrische Formen beschreibt die vordefinierten Posen. Ein Beispiel für die sich daraus ergebenden Echtzeit-Visualisierung ist in Abbildung 17dargestellt.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

alle biologische Proben, die in diesem Video gezeigt durch die standard-Food Supply Chain erworben wurden. Diese Proben wurden ethische und vorschriftsmäßig der beteiligten Institutionen behandelt.

Hinweis: das Diagramm in Abbildung 4 fasst die 8 wichtigsten Etappen dieses Protokolls. Stufen 1 bis 4 umfassen erste Aktivitäten vor Beginn des US-Bildaufnahme und Verarbeitungsstufen nur einmal durchgeführt werden. Diese Anfangsphase sind wie folgt: 1. Vorentwurf des experimentellen Aufbaus und einer Agar-Phantom (zur Kalibrierung verwendet werden); (2) Vorbereitung der ex Vivo bovine Gehirn; 3. Erwerb von MRT-Aufnahmen des Gehirns; 4. Definition der qualitativen Posen als Ziel für die US-Bildaufnahme verwendet werden. Stufen 5 bis 8 beziehen sich auf die Erfassung und Verarbeitung von US-Bilder. Diese Phasen sind: 5. Versuchsanordnung, in der alle Instrumente sind verbunden und integriert alle Ziele aufgestellt und überprüft; 6. Kalibrierung der US-Sonde mit passiven Markern für die Navigation ausgestattet; 7. Erwerb von US-Bilder des bovinen Gehirns in Wasser getaucht, in vordefinierten Posen und in " Freihand modeŔ 8. Post-Processing und Visualisierung von der kombinierten MR / U.S. Bild Dataset. Während der 5. Etappe ausgeführt werden kann, nur einmal zu Beginn der experimentellen Aktivitäten, Phasen 6 und 7 pro jede US-Sonde beteiligten wiederholt werden müssen. Schritt 8 kann nur einmal für das gesamte kombinierte Dataset durchgeführt werden, nach Abschluss aller Akquisitionen werden.

Figure 4
Abbildung 4 : experimentelles Protokoll Workflow. Das Blockdiagramm zeigt die wichtigsten Schritte des Protokolls, darunter eine Liste der wichtigsten Vorgänge in den einzelnen Schritten. Schritte 1 bis 5 beinhalten erste Aktivitäten und Setup Vorbereitung für uns übernahmen; Daher sind sie nur einmal durchgeführt werden. Phasen 6 und 7 US Akquisitionen einbeziehen und für jede Sonde wiederholt werden müssen. Schritt 8, die Bild-Nachbearbeitung ist, kann am Ende nur einmal durchgeführt werden. Bitte klicken Sie hier für eine größere Version dieser Figur.

1. Vorplanung

  1. Design und Validierung der Wahrzeichen Positionierung
    Hinweis: die folgende Prozedur definiert eine konsistente Strategie für die Positionierung der Sehenswürdigkeiten, für die Kalibrierung des zu verwendenden die Motion-tracking-System in Abschnitt 6 beschrieben.
    1. Bereiten eine Styropor Kopf Schaufensterpuppe durch das Ausschneiden einer Form etwa ähnlich wie die bovine Gehirn (Höhe = 180 mm, Breite = 144 mm, Länge = 84 mm) mit einem Messer.
    2. Legen Sie 6 Muster 3 Weißglas Kugeln (3 mm Durchmesser) in das Styropor Gehirn, an den Eckpunkten eines gleichseitigen Dreiecks mit Seiten von ca. 15 mm und nicht weiter als 1 mm von der äußeren Oberfläche angeordnet (siehe Abbildung 5 ).
    3. Verbinden die Motion-tracking-System mit dem Notebook über USB. Öffnen Sie die Tracking-Tool und starten Sie Motion-Tracking, überprüfen Sie, dass beim Berühren der Glaskugeln im Polystyrol Gehirn das Zeiger-Werkzeug innerhalb der Tracking-Sichtfeld bleibt, Sichtbarkeit und wirksame Erreichbarkeit während der Experimente zu überprüfen.

Figure 5
Abbildung 5 : Polystyrol-Modell das Gehirn verwendet in der ersten Entwurfsphase. Das Polystyrol Schaufensterpuppe Kopf, richtig geschnitten werden, um die bovine Gehirn Dimensionen zu imitieren wurde verwendet, um wählen die Positionierung der Glas Kugel Muster im Gehirn. Sechs dreieckigen Muster von Kugeln mit einem Durchmesser von 3 mm haben im Polystyrol Modell eingepflanzt worden, wie in der Abbildung dargestellt, d. h. drei Muster auf der rechten Seite und drei auf der linken Gehirnhälfte Hemisphären. < ein href="//ecsource.jove.com/files/ftp_ Upload/55798/55798fig5large.jpg"Target ="_blank"> klicken Sie bitte hier, um eine größere Version dieser Figur.

  1. Agar phantom Vorbereitung
    Hinweis: diese Schritte ermöglichen, bereiten Sie ein Labor hergestellte Agar Phantom für Kalibrierverfahren (Abschnitt 6.1) verwendet werden.
    1. In ein Becherglas 100 g Glycerin und 30 g Agar in 870 g destilliertem Wasser verdünnen. Rühren Sie die Mischung und erhöht seine Temperatur bis zu 90 ° C für 10-15 min. den Teig auf einem 13 x 10 x 10 cm-Lebensmittel-Container zu füllen und im Kühlschrank für mindestens einen Tag aufbewahren.
    2. Der Agar-Phantom aus dem Kühlschrank nehmen. Farbe 6 Glaskugeln mit einem gelben Schmelz (zur besseren Sichtbarkeit) und legen Sie 2 Muster 3 Glas Kugeln im Agar phantom (d. h. eine pro große Seite des Blocks), nicht weiter von der Oberfläche als 1 mm ( Abbildung 6).
    3. Für Erhaltung bei Nichtgebrauch, tauchen die Agar-Phantom in einer Lösung aus Wasser und Benzalkoniumchlorid, mit einem versiegelten Kunststoff-Lebensmittel-Container und im Kühlschrank aufbewahren.

Figure 6
Abbildung 6 : Agar Phantom. Die Abbildung zeigt das Agar-Phantom, in dem eine implantierte Muster aus drei gelb lackierten Glaskugeln (gekennzeichnet durch die schwarzen Pfeile) am unteren Rand deutlich sichtbar ist. Der Zeiger-Tool-Tipp, verwendet, um die Kugel Positionen während der Kalibrierungsphase messen zeigt sich auch in der Nähe von das Phantom. Bitte klicken Sie hier für eine größere Version dieser Figur.

2. bovine Gehirn Vorbereitung und Fixierung

  1. Acquire ex Vivo bovine Gehirn vom standard Essen-Supply-Chain. Transportieren sie auf Eis (für Erhaltung). In der Regel wie in diesem Fall die ex Vivo Gehirn zur Verfügung gestellt nachdem er vom Tier entfernt wurde.
  2. Entfernen Sie das Gehirn aus Eis und legen Sie sie in eine Absaugnadeln Kapuze. Halten Sie es in der Haube für die anschließende Aufbereitung Schritte. Isolieren der zerebralen Hemisphären durch die Trennung von Mittelhirnes, Pons, Kleinhirn und Hirnstamm mit einer chirurgischen Klinge schneiden durch die Strukturen auf der ventralen Oberfläche des Gehirns.
  3. Mit Polystyrol Schaufensterpuppe als Referenz für die Positionierung, Implantat-6 dreieckige Muster 3 Kugeln in der Hirnrinde des frontal-, zeitlichen und Occipital Vorsprung. Sicherstellen Sie, dass die vorgegebenen Bedingungen (d. h. Abstand von der Oberfläche und unter den Sphären) erfüllt sind. Für die Sichtbarkeit, markieren Sie die Positionen der alle Kugeln auf Gehirn Oberfläche mit einem grünen Tuch Kennzeichnung Farbstoff für Histologie ( Abbildung 7).
  4. Tauchen die Gehirn in 10 % gepuffert Formalin-Lösung. Verwenden Sie einen Kunststoffbehälter für anatomische Strukturen ( Abbildung 8). Lassen Sie das Gehirn im Container mit Formalin für mindestens 3 Wochen, bis die Fixierung-Vorgang abgeschlossen ist.
    Achtung: Formalin ist eine giftige chemische Substanz und muss mit Vorsicht behandelt werden; besondere Regelungen gelten auch, zum Beispiel uns OSHA Standard 1910.1048 ca. A.

Figure 7
Abbildung 7 : Bovine Gehirn Vorbereitung und Implantation von Glaskugeln. Bovine Gehirn wird durch einen erfahrenen Pathologen vorbereitet durch Entfernen der anatomische Strukturen im Übermaß und dann Einpflanzen die Glas-Kugel-Muster gemäß der zuvor entworfenen Konfiguration (a). Die Kugel-Positionen sind dann mit einem grünen Farbstoff auf der Oberfläche des Gehirns (b) gekennzeichnet. Bitte klicken Sie hier für eine größere Version dieser Figur.

Figure 8
Abbildung 8 : Bovine Gehirn Fixierung in Formalin. Die bovine Gehirn mit den implantierten Glaskugeln taucht in 10 % gepuffert Formalin-Lösung in einem Plastikbehälter für anatomische (a). Nach einer Dauer von mindestens 3 Wochen, die Fixierung erfolgt komplett (b) und das Gehirn für Bild übernahmen genutzt werden. Bitte klicken Sie hier für eine größere Version dieser Figur.

3. Herr Bildaufnahme

  1. extrahieren das Gehirn von Formalin-Lösung waschen in Wasser über Nacht, legen Sie es in einem sauberen Plastikbehälter und verschließen it.
  2. Der Behälter in die Spule Herr Kopf stellen und legen Sie es in der MRT.
  3. Perform Herr scannt mit einer 3 T MR-Scanner ausgestattet mit einer 32-Kanal-Kopf-Spule ( Abbildung 9). Drei Gruppen von Bildern mit T1, T2 und CISS-Sequenzen mit einer Auflösung von 0.7x07x1 mm 3 und 0.5x0.5x1 mm 3 für T1/T2 und CISS-Sequenzen, bzw. zu erwerben. Speichern der MRT-Bilder im DICOM-format mit den Softwarewerkzeugen von MR-Scanner.
  4. Nach der Benutzung des Gehirns in 10 % gepuffert Formalin Tauchen. Die erworbenen Herr Bilder von MR-Scanner auf eine Verarbeitung Workstation übertragen.

Figure 9
Abbildung 9 : Herr Bildaufnahme. Das bovine Gehirn, versiegelt in einem sauberen Plastikbehälter ist in 3 T MR-Scanner für Herrn Bild Akquisitionen genommen. Bitte klicken Sie hier für eine größere Version dieser Figur.

4. Definition der qualitativen posiert für US-Bild übernahmen

Hinweis: Diese Prozedur definiert eine Reihe von qualitativen Posen, in Bezug auf MRT-Bilder, in denen die Sichtbarkeit von Hirnregionen, die enthalten deutlich erkennbare anatomische Strukturen und gut differenziertem Gewebe (vor allem weiße und graue Materie) in US-Bildern maximiert wird.

  1. Offene format die MRT-Bilder im DICOM mit Paraview-Software-Tool (fortan, Visualisierungs-Software). Lassen Sie einen Experten die Bilder sowohl als Scheiben und 3D-Volumen, je nach Bedarf zu visualisieren.
  2. Inspizieren jeden MR-Bild in das Dataset zu beurteilen, die Sichtbarkeit der anatomischen Strukturen und Gewebe (z. B. seitliche Ventrikel, Corpus callosum (Balken), graue Substanz der Basalganglien).
  3. 3D räumliche Subregionen aus dem Referenzbild Herr mit erkennbaren visuelle Merkmale auswählen und etwa definieren die Schnittebenen der maximale Sichtbarkeit. 12 vordefinierten Posen für die US-Bildaufnahme, jedes mit eine bedeutende Reihe von visueller Merkmale zu identifizieren.
  4. Für jede virtuelle Pose verwenden " Quellen > Kegel " erstelle ich einen 3D Kegel als visuelle Wahrzeichen. Jeder Kegel Höhe bis 40 mm und Radius 2 mm anpassen und manuell positionieren des Kegels im 3D Gesichtsfeld ( Abbildung 10). Den Komplex der MR-Bild, 3D Regionen, Flugzeuge und Sehenswürdigkeiten als Paraview Zustand Datei speichern.

Figure 10
Abbildung 10 : vordefinierte posiert für US-Bild Übernahme. Marker in (a) zeigen die Positionen der 12 ausgewählten Posen in der 3D MR Bild Frame durch den Betreiber für USA erreichbar Bild Erwerb. (B) der Herr sind Flugzeuge entsprechend der ausgewählten Posen gezeigt; der rote Marker stellt die US-Sonde Position (dargestellt in den Bildraum Herr) Bewegung in Echtzeit, bis einer von den weißen Markierungen erreicht ist und das gewünschte US-Bild kann vom System erworben werden. Bitte klicken Sie hier für eine größere Version dieser Figur.

5. Versuchsaufbau

  1. Umwelt und Ziele
    Hinweis: Diese Schritt beschreibt die Vorbereitung von Setup und Instrumente für US-Akquisition Experimente.
    1. Position ein 50 x 50 x 30 cm Kunststoff tank auf einem Tisch und füllen Sie ihn mit entgastem Wasser bis zu einer Höhe von 15 cm. Position das Motion-tracking System, so dass der Wassertank von oben und vollständig in ihr Blickfeld sichtbar ist ( Abbildung 11 ) und verbinden Sie die Motion-Tracker mit dem Notebook über USB.
    2. Führen Sie das schwenkbare Verfahren zur Kalibrierung des Zeigers mit dem Tracking-Tool von der Motion-tracking-System 34.
    3. Der ULA-OP-System auf dem Tisch positionieren und verbinden es mit dem Notebook über USB, die dafür sorgen, dass der Computer-Bildschirm für die US-Sonde-Betreiber deutlich sichtbar ist. Positionieren Sie die Arbeitsstation auf den Tisch und stellen Sie sicher, dass der Bildschirm für den Bediener gut sichtbar ist.
    4. Das Gehirn von Formalin-Lösung zu extrahieren und in Wasser waschen. Auf einen Teller aus Kunstharz, mit Segmenten Sewing Thread und Klebstoff Streifen ( Abbildung 12) zu immobilisieren.
    5. Tauchen die Platte mit dem Gehirn in den Behälter und stellen Sie sicher, dass der gesamte Arbeitsraum um das Gehirn in das Sichtfeld des Motion-Tracker, der Zeiger und die Software tracking-Tool passt.

Figure 11
Abbildung 11 : Einrichten von der experimentelle Übernahmen mit der Motion-tracking-System. Die Motion-tracking-Sensor wird über den Wassertank, in dem die bovine Gehirn eingetaucht ist, gesetzt, so dass das Ziel und die Sonde mit dem eingespannten reflektierenden Markierungen vollständig in sein Sichtfeld Messung passen. < ein href="//ecsource.jove.com/files/ftp_upload/55798/55798fig11large.jpg" Target = "_blank"> Bitte klicken Sie hier für eine größere Version dieser Figur.

Figure 12
Abbildung 12 : Positionierung des bovinen Gehirns in der Wassertank. Das bovine Gehirn ist unbeweglich auf einem Kunstharz-Teller mittels zwei Nähgarne (entlang der längs-Spalte platziert) und auf dem Teller mit selbstklebenden Streifen fest. Die Platte und das bovine Gehirn tauchen dann in den Wassertank. Bitte klicken Sie hier für eine größere Version dieser Figur.

  1. Anschluss der US-Sonde und Konfigurieren von ULA-OP um die Scans durchzuführen.
    1. Die US-Sonde an der ULA-OP-System anschließen.
    2. Konfigurieren der ULA-OP-System durch seine Konfigurationsdateien und seine Softwareschnittstelle des Computers ( Abbildung 13).
      1. Definieren eine Duplex-Modus, bestehend aus zwei überlappenden B-Modi mit zwei verschiedenen Betriebsfrequenzen (7 MHz und 9 MHz). Setzen Sie eine 1-Zyklus bipolare Burst für jeden Modus. Setzen Sie den Fokus der Übertragung in 25 mm Tiefe und dynamische Fokussierung an der Rezeption mit f# = 2 Sinc Apodisierung Funktion.
      2. Konfigurieren Sie das System zur Aufzeichnung von Beamformed und in Phase und Quadratur (ich / Q) Daten demoduliert.
    3. Tests durchführen, ein paar Erwerb um volle Operativität zu gewährleisten.
      1. Einfrieren des Systems, indem Sie auf die " Freeze " Toggle-Button in der ULA-OP-Software. Aktivieren Sie die Autosave-Modus durch Klicken auf die Schaltfläche, die als drei Disketten erscheint. Am Ende des Erwerbs angezeigten Popupfenster schreiben Sie den Dateinamen und klicken Sie auf " speichern ".

Figure 13
Abbildung 13 : Versuchsaufbau für uns Bild Erwerb. ULA-OP-System ist mit dem Notebook in der Nähe des Wassertank verbunden, so dass seine Anzeige bei Akquisitionen für die US-Sonde-Betreiber deutlich sichtbar ist. Bitte klicken Sie hier für eine größere Version dieser Figur.

  1. spannen die passive reflektierende Marker auf die US-Sonde
    Hinweis: im Anschluss an dieses Verfahren entsteht eine feste Montage von der US-Sonde und die passive reflektierende Markierungen für nachträgliche Zugänge von Bild und Position Daten.
    1. Finden Sie eine geeignete Position für die Klammer auf die US-Sonde Griff. Klemmen Sie die passive reflektierenden Markierungen auf dem US-Sondengriff ( Abbildung 14).
    2. Führen ein paar Erwerb-Tests (siehe Punkt 5.2.3) um sicherzustellen, dass die Klemme ist stabil, die Markierungen sind deutlich sichtbar von der Motion-tracking-System, während die US-Sonde in die erwarteten Arbeitshaltungen stattfindet.

Figure 14
Abbildung 14 : Passive Werkzeug mit reflektierende Marker auf der piezoelektrischen 3D-Imaging-Sonde geklemmt. Das Tool mit Markern ist ordnungsgemäß eingespannt und auf den 3D Bildgebung piezoelektrischen Sondengriff fixiert, so dass sie bilden eine Vereinigte Versammlung für US-Bild und Position Datenerfassung zur gleichen Zeit verwendet werden. Bitte klicken Sie hier für eine größere Version dieser Figur.

6. Kalibrierung

Hinweis: Dieser Abschnitt beschreibt die experimentellen Teil des Protokolls, das die Informationen zur Berechnung der erforderlichen Transformationen unter den verschiedenen räumlichen Bezugssystemen sammelt beteiligt. Mathematische Details zur Berechnung finden Sie in Abschnitt 9. Die Softwareroutinen in der MATLAB-Programmiersprache für die Kalibrierung gibt es als Open-Source auf https://bitbucket.org/unipv/denecor-transformations.

  1. Aus USA Bildrahmen auf den passiven Werkzeugrahmen gespannt auf die US-Sonde
    Hinweis: die folgenden Kalibriervorgang wird verwendet, um die starre Transformation zu berechnen, die US-Bild Voxel in der lokalen räumlichen Positionen zuweisen können Bezugsrahmen für die passive Werkzeug eingespannt auf der Sonde. Es muss für jede Montage eines passiven Werkzeugs auf ein US-Sonde wiederholt werden.
    1. Position der Agar phantom in "full Immersion" im Wasser Tank. Starten Sie die Anwendung protokollieren, dass Datensätze Positionsdaten und die Positionen der einzelnen 6 Glaskugeln im Agar phantom mit dem Pfeil-Werkzeug zu sammeln, während seine Bewegung verfolgen.
    2. Erwerben Sie ein US-Bild pro jedes Muster 3 Kugeln im Agar phantom ( Abbildung 15) (Schritt 5.2.3). Positionieren Sie die US-Sonde über den mechanischen Arm mit der Pre-Visualisierung-Funktion des Systems der ULA-OP, so, dass eine komplette Muster aus drei Kugeln in das Blickfeld ist. Erwerben und speichern Sie das entsprechende US-Bild.
    3. Alle US-Bilder in ULA-OP-Format zusammen mit der Motion Tracker Log-Dateien, an der Arbeitsstation übertragen.
    4. Öffnen Sie jede US-Bild in die Visualisierungs-Software manuell markieren Sie die Position der 3 Glaskugeln in jedem von ihnen und transkribieren die 3D Positionen in eine CSV-Datei.
    5. Berechnen die US-Marker starre Transformation zwischen zwei Referenz-Frames (siehe Open-Source-Code zur Verfügung gestellt und Abschnitt 9).

Figure 15
Abbildung 15 : Erwerb von US Bilder des Nährbodens phantom zur Kalibrierung. Der Betreiber bewegt sich die US-Sonde (CMUT Sonde) über das Agar-Phantom zwei uns Bilder, enthalten die beiden eingebettete Kugel Muster zu erwerben, wie in Echtzeit durch die ULA-OP-Software auf dem Computerdisplay. Die aufgenommenen Bilder werden dann verwendet, die Transformation von der US-Bildraum auf den Raum des Werkzeugs passive mit Markern, die gespannt auf die Sonde zu berechnen. Bitte klicken Sie hier für eine größere Version dieser Figur.

  1. aus dem Motion Tracker, den Herr Bildraum
    Hinweis: die folgenden Vorgänge der Kalibrierung werden verwendet, um die starre Transformation aus der Motion-tracking-System-Referenz-Frame, die Herr Bild Referenz-Frame zu berechnen und muss für jede Platzierung des Gehirns innerhalb des operativen Bereichs des Motion-Tracker wiederholt werden. Die letzten beiden Schritte in diesem Verfahren müssen für jedes unterschiedliche MRT-Bild wiederholt werden.
    1. Position des Gehirns in "full Immersion" im Wasser Tank. Starten Sie die Logging-Anwendung und sammeln Sie die Positionen der einzelnen der 18 Glaskugeln mit dem Pfeil-Werkzeug ( Abbildung 16). Motion-Tracker-Log-Dateien auf der Arbeitsstation zu übertragen.
    2. Öffnen Sie jeden MR-Bild des Gehirns in der Visualisierungs-Software manuell markieren Sie die Position eines jeden der 18 Glaskugeln und die entsprechenden 3D Koordinaten als CSV-Dateien speichern.
    3. Berechnen die Motion Tracker--Herr starre Transformation zwischen zwei Referenz-Frames (siehe Open-Source-Code und Abschnitt 9).

Figure 16
Abbildung 16 : Erwerb der Positionen der Glaskugeln im bovinen Gehirn zur Kalibrierung implantiert. Die Zeiger-QuickInfo wird verwendet, um zu erwerben, eins nach dem anderen, die Positionen der 18 Glaskugeln in der bovinen Gehirn in Wasser eingetaucht implantiert. Diese Positionen werden verwendet, um die Transf berechnenormationen verwendet aus der Motion-tracking-System Speicherplatz, den Herr Bildraum. Bitte klicken Sie hier für eine größere Version dieser Figur.

7. Ultraschall Erwerb

Hinweis: die Softwareroutinen in Python für Paraview, für das Echtzeit-Visualisierung-Verfahren stehen zur Verfügung als Open-Source auf https://bitbucket.org/unipv/denecor-tracking.

  1. Erwerb des US-Bilder der vordefinierten Posen
    1. Klemmen Sie den Marker auf die US-Sonde und führen Sie den Kalibriervorgang (§ § 5.3 und 6.1). Positionieren Sie das Gehirn und führen Sie den Kalibriervorgang (§ 5.1 und 6.2).
    2. Sammeln die beiden starren Transformationsparameter (U.S.-Marker und Motion Tracker--Herr) in den Schritten 6.1.5 und 6.2.3 berechnet und übertragen Sie diese Dateien in den Ordner des Verfahrens Echtzeit-Visualisierung in Python und die Visualisierung umgesetzt Software ( Abb. 10 b).
    3. Starten Sie die Echtzeit-Visualisierung mit der Visualisierungs-Software (siehe die Open-Source-Code) und stellen Sie sicher, dass die tatsächliche Position der US-Sonde korrekt angezeigt wird ( Abbildung 17).
    4. Beginnen die Logging-Anwendung für die Erfassung der Position der Sonde. Manuell übereinstimmen Sie jede qualitativ vordefinierte Position, wie in der Visualisierungs-Software, mit der US-Sonde angezeigt und erwerben Sie das entsprechende Bild mit der ULA-OP-System (Schritt 5.2.3) zu. Die beiden Anwendungen zu stoppen und alle US-Bilder in ULA-OP-Format übertragen und motion-Tracker-Log-Dateien auf der Arbeitsstation.

Figure 17
Abbildung 17 : Erwerb von US Bilder der vordefinierten Posen. Der Betreiber wird die US-Sonde, die vordefinierten Posen zu erreichen; die Prozedur wird in Echtzeit unterstützt durch eine Python-Routine, die die Sondenposition über das 3D MRT-Bild des Gehirns auf der Workstation-Anzeige zeigt, mit Hilfe der Visualisierungs-Software. Bitte klicken Sie hier für eine größere Version dieser Figur.

  1. Erwerb von freehand, Verschieben von Posen mit linearen US-Sonden für 3D Bildrekonstruktion
    Hinweis: die folgenden Schritte sind für lineare US-Sonden nur bestimmt und ermöglichen den Erwerb von Sequenzen von 2D planaren US Bilder die , zusammen mit Positionsdaten aus der Motion-tracking-System, für 3D-Volumen Wiederaufbau benötigt werden.
    1. Klemmen Sie den Marker auf die US-Sonde und führen Sie den Kalibriervorgang (§ § 5.3 und 6.1). Positionieren Sie das Gehirn und führen Sie den Kalibriervorgang (§ 5.1 und 6.2).
    2. Position manuell die US-Sonde bei der beabsichtigten Anfangsstellung (z.B. frontale Ende jeder Hemisphäre). Starten Sie den Erwerb jeder US-Bild-Sequenz der ULA-OP-System (Schritt 5.2.3) mit der Logging-Anwendung für die Sonde Position Aufzeichnung.
    3. Gelten eine langsame, Freihand-Bewegung für die US-Sonde in Richtung der vorgesehenen Schlußpose (z. B. das distale Ende des jede Hemisphäre des Gehirns). Den Erwerb von uns Bilder mit der ULA-OP-System und beenden Sie die Sonde-Tracking. Alle US-Bilder in ULA-OP-Format übertragen und motion Tracker-Log-Dateien auf der Arbeitsstation.

8. Nachbearbeitung und Visualisierung

  1. Post-processing von Freihand-Sequenzen von uns Bild
    Hinweis: dieses Verfahren ist in der Programmiersprache MATLAB implementiert und gilt für jede Freihand Sequenz des US 2D-Bilder in der ULA-OP Format, um komplette 3D Bilder zu produzieren.
    1. Last die Reihenfolge der US-Bilder im Format ULA-OP. Übereinstimmen Sie die Reihenfolge der US-Bilder mit der Motion-Tracker-Log-Dateien. Die Log-Dateien, die in das zeitliche Intervall geht von Anfang bis zum Ende des Beteiligungsprozesses, enthalten sind eine Folge von zeitgesteuerten Positionen entziehen, wie von der ULA-OP-System aufgenommen.
    2. Berechnen, der genaue Zeitpunkt der einzelnen US-Bild in der Sequenz mit den Parametern von ULA-OP-System aufgezeichnet.
    3. Berechnet die Position jedes US-Bild in der Sequenz durch Interpolation zwischen den beiden engsten zeitgesteuerten Positionen erfasst durch die Motion-tracking-System zugeordnet. Verwenden Sie lineare Interpolation zwischen Übersetzung Vektoren und sphärische lineare Interpolation (SLERP) zwischen den Rotationen, ausgedrückt als Quaternionen.
      Hinweis: Übernehmen der Median US-Bild in der Sequenz - d. h. das Bild an der Position, dass beste die Sequenz in zwei Hälften (ungefähr) gleich lang - als Referenz Partitionen für die Definition des 3D US Bildrahmens.
    4. Gelten eine logarithmische Kompression, das Bild auf das Maximum zu normalisieren, und einen Schwellenwert (in der Regel-60 dB) für jedes Flugzeug in das US-Bild.
    5. In Bezug auf die Referenz-Frame zu berechnen und eine relative räumliche Transformation auf jedes der US-Bilder in der Reihenfolge, ein Bündel von räumlich befindet sich Flugzeuge zu erhalten.
    6. Gelten eine lineare Interpolation-Routine für die Struktur der räumlich befindet sich Flugzeuge, eine kartesische 3D-Anordnung Voxel zu produzieren. Speichern der kartesischen 3D-Anordnung Voxel als .vtk-Datei und die Intervall-Zeitstempel, die Akquisition Timing entsprechen, aufnehmen.
  2. Nachbearbeitung anderer US-Bilder (nicht Freihand Sequenzen)
    Hinweis: das folgende Verfahren gilt für jeden US-Bild im Format ULA-OP außer Freihand Sequenzen (Abschnitt 8.1).
    1. Last den USA Bild im Format ULA-OP. Gelten eine logarithmische Kompression, das Bild auf das Maximum zu normalisieren, und einen Schwellenwert (in der Regel-60 dB) für jedes Flugzeug in das US-Bild.
    2. Für 3D US Bilder gelten nur, eine lineare Interpolation Routine (d.h. Scan Conversion) für die Struktur der räumlich befindet sich Flugzeuge herstellen eine kartesische 3D-Anordnung Voxel.
    3. Speichern der Bildebene oder die kartesischen 3D-Anordnung Voxel als .vtk-Datei aufzeichnen die Intervall-Zeitstempel, die Akquisition Timing entsprechen.
  3. Registrierung von US Bilder
    Hinweis: Dieser Abschnitt beschreibt die Verfahren für die endgültige Registrierung von USA und Herr Bildern durchführen, während vorherige Kalibrierung-Schritte und die Positionsdaten berechnet mit Hilfe der beiden Transformationen der US-Sonde aufgenommen bei Akquisitionen. Die Softwareroutinen in der MATLAB-Programmiersprache für Registrierung von uns Bilder stehen als Open-Source auf https://bitbucket.org/unipv/denecor-transformations.
    1. Das US-Bild im .vtk-Format laden.
    2. Die Taktung des US-Bildes mit Motion-Tracker-Log-Dateien. Die Log-Dateien, die in das zeitliche Intervall geht von Anfang bis zum Ende des Beteiligungsprozesses, enthalten sind eine Folge von zeitgesteuerten Positionen entziehen, wie in dem .vtk Bild aufgezeichnet.
    3. Berechnen Sie die durchschnittliche Position für das US-Bild. Verwenden Sie lineare Mittelung für Übersetzung Vektoren und Anwenden des Algorithmus beschrieben in Referenz 35 für Rotationen, ausgedrückt als Quaternionen.
    4. Laden die US-Marker-Transformation, die das spezifische US-Bild entspricht. Die Motion Tracker--Herr Transformation bestimmten US-Bild und das MRT-Bild der Wahl entspricht laden.
    5. Die durchschnittliche Position zusammen mit den oben genannten zwei Transformationen verwenden, um die US--Herr starren Registrierung Transformation berechnen und sparen Letzteres in verschiedenen Formaten, einschließlich der Übersetzung und der Euler-Winkeln, die es ermöglichen, das US-Bild in den Bildrahmen Herr Wahl visualisieren.
  4. Visualisierung von registrierten US Bildern
    Hinweis: Dies sind die letzten Schritte, um die erworbenen USA und Herr Bilder zu visualisieren und zu zeigen, nach Überlagerung in der Visualisierungs-Software, mit der zuvor berechneten Transformationen.
    1. Die Visualisierungs-Software starten und laden das MRT-Bild der Wahl. Laden Sie alle relevanten US-Bilder. Für jedes Bild US eine Paraview Transformation erstellen und Anwenden der berechnete US--Herr Registrierung Transformation ( Abbildung 18) zu den Bilddaten.

9. Kalibrierung Modelle und Transformationen

Hinweis: Dieser Abschnitt beschreibt die mathematischen Details der Kalibrierung und Transformation Techniken verwendet in das Protokoll dargestellt. Das experimentelle Protokoll beinhaltet vier verschiedene Bezugssysteme, die richtig kombiniert werden: 1) den USA Bildrahmen, hängt die physikalischen Eigenschaften der US-Sonde sowie die Konfiguration der Scanner, Raumkoordinaten (X associates y, Z) zu jedem Voxel in einem US-Bild (zur Uniformität, alle 2D planaren Bilder sind davon ausgegangen, dass y = 0); (2) die Markierung (M) Rahmen, die das passive Markerwerkzeug innewohnt, die an die US-Sonde (Abschnitt 6.1); geklemmt (3) die Motion Tracking System (TS) Rahmen, die das Tracking Instrument innewohnt; (4) der Herr (MRI) Bildrahmen, die durch den Scanner definiert wird, die räumliche Koordinaten (X, y, Z) zu jedem Voxel in einem MRT-Bild verknüpft. Für Komfort und Einfachheit der Notation, sind die Verfahren in diesem Abschnitt beschrieben, mit Umdrehung Matrizen (d.h. Richtung Kosinus Matrizen) und nicht Quaternionen 36.

  1. Aus USA, M Frame
    Hinweis: die experimentellen Kalibrierung in Abschnitt 6.1 erzeugt folgendes: 1) 3D Positionen (p 1, …, p 6) TS 2 Muster 3 Kugeln, in der Agar-Phantom aufgenommen und gemessen in der Motion Tracker Rahmen; (2) 3D Positionen der einzelnen die gleichen zwei Muster (p 1, …, p-3) uns und (p-4, …, p 6) U.S. gemessen in jedem der beiden US Bilder erworben; (3) eine Transformation (R M > TS, t M > TS), wo R eine Drehmatrix und t ein Translationsvektor ist, gemessen an der Positionierung Instrument, die beschreibt die relative Position des Werkzeugs passive Marker (alle Drehungen gemessen durch die Motion-tracking-System ausgewiesen Quaternionen, die Umdrehung Matrizen übersetzt werden müssen).
    1. Anwenden des Algorithmus in Referenz 37 zu jedem der beiden Paare von Listen (p 1, …, p-3) uns (p 1, …, p 3) TS und (p-4, …, p 6) uns (p-4, …, p 6) TS, um zwei zu erhalten Transformationen des Typs (R U.S. > TS, t U.S. > TS), jeweils auf ein bestimmtes uns Bild-Raum.
      1. Compute eine Schätzung des gewünschten Transformation (R U.S. > M, t U.S. > M) von jedem der oben genannten Transformationen in folgender Weise:
        R U.S. > M = R T M > TS R U.S. > TS
        t U.S. > M R T = M > TS (t U.S. > TS - t M > TS)
        Hinweis: die beiden Schätzungen werden durch arithmetische Mittelung der Vektoren kombiniert t U.S. > M und Mittelung der Umdrehung Matrizen R U.S. > M in Referenz 35, mit der Methode nach, die zuerst übersetzt Matrizen Quaternionen und der daraus resultierenden Quaternionen zurück in eine Drehmatrix.
  2. Von Motion-tracking-System zum MRI Frame
    Hinweis: die Prozedur im Abschnitt 6.2 erzeugt die folgende Informationen: 1) 3D Positionen (p 1, …, p 18 ) TS 6 Muster 3 Kugeln enthalten im bovinen Gehirn, gemessen in der Motion-tracking Systemrahmen; (2) 3D Positionen der gleichen 18 Kugeln (p 1, …, p 18) MRI in der Ziel-MR-Bild gemessen.
    1. Direkt die gewünschte Transformation berechnen (R TS > MRI, t TS > MRT) indem Sie die beiden Listen der Positionen die Algorithmus in 37 zuweisen.
  3. Aus USA zu MRI Frame
    Hinweis: die US Bild Erwerb beschriebene Verfahren im Abschnitt 7 erzeugt Bilder, nach der Auflösung der Zeitstempel gegen die Motion Tracker-Protokolldateien, die Transformation verbunden ( R M > TS, t M > TS) wird direkt berechnet.
    1. Compute die gewünschte Transformation in folgender Weise:
      R U.S. > MRI = R TS > MRI R M > TS R U.S. > M
      t U.S. > MRI = R TS > MRI(RM>TStUS>M + tM>TS) + t TS > MRI

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Das wichtigste Ergebnis erreicht über das beschriebene Protokoll ist die experimentelle Validierung der eine effektive und reproduzierbare Bewertungsverfahren für die 2D und 3D imaging-Funktionen von uns Sonde Prototypen basierend auf CMUT Technologie in die prospektive Anwendung zum Gehirn Imaging. Nach der Implementierung alle beschriebenen Protokoll, Experte dann anwenden kann, Visualisierung Software-Funktionen (z.B. freie Ausrichtung schneiden, Teilmenge Extraktion, Volumen Interpolation, etc.) um den visuellen Inhalt vergleichen registriert US-Bilder mit einer Ziel-MR-Bild. Insbesondere stellt die Qualität der Bilder erhalten und im direkten Vergleich zum Goldstandard der MRT, eine erste und wichtige Belege für das Potenzial der CMUT Technologie in diesem Bereich.

Als ein Beispiel für einen möglichen visuellen Vergleich, Abbildung 18 zeigt zwei Scheiben der volumetrischen Bilder erworben mit der Sonde CMUT uns und die piezoelektrischen linear-Array-Sonde bzw. Überlagerung der gleichen entsprechende Slice in einem T2-gewichteten MRT-Bild. T2-gewichteten MRT-Bilder erwiesen sich als am effektivsten in Bezug auf die Sichtbarkeit der gewünschten Funktionen in diesen Experimenten und wurden daher als Referenzen für die Überlagerung ausgewählt. Erworben wurden die beiden US-Bilder in der Abbildung auf der gleichen Frequenz von 9 MHz. Wie in Abbildung 18dargestellt, hat das Bild mit der CMUT Sonde erzielt bessere Auflösung und Kontrast; auch die herausragende visuelle Merkmale sind besser definiert und die Strukturen der Furchen und Windungen sind deutlicher sichtbar, zeigen, dass die höhere Empfindlichkeit und größere Bandbreite des Prüfpunkts CMUT Leistungssteigerung erreichen.

Figure 18
Abbildung 18 : Überlagerung von registrierten USA und Herr Bildsegmente. Die Abbildung zeigt die erzielten Registrierung des Herrn und uns Bilder mit den CMUT erworben (a, C, e, g) und piezoelektrische (b, d, f, h) linear-Array-Sonden. (A) und (b) die rekonstruierten 3D Dataset Umrisse sind im Bereich Herr gezeigt und die ausgewählten 2D Scheibe wird hervorgehoben. Platten (c, e, g) und (d, f, h) präsentieren die überlagerten USA und Herr Scheiben mit Erhöhung der Transparenz, die Korrespondenz der Funktionen in beiden Bildern zu zeigen. Bitte klicken Sie hier für eine größere Version dieser Figur.

Weiter werden Vergleichsbeispiele, im Zusammenhang mit volumetrischen 3D-Bilder in Abbildung 19 und Abb. 20dargestellt. Abbildung 19 zeigt zwei 3D Bilder, eins mit der piezoelektrischen linear Sonde nach volumetrischen Wiederaufbau erhalten und ein weiteres mit der mechanisch fegte piezoelektrischen Sonde für 3D-Bildgebung erhalten. Abbildung 20 zeigt die volumetrische 3D-Rekonstruktion von Bildern mit der Sonde CMUT erworben. Die 3D-Struktur von Windungen und Furchen der Großhirnrinde sind deutlich sichtbar in allen drei Fällen, obwohl die äußeren Oberflächen in den Bänden mit CMUT Sonde erhalten sehr viel deutlicher sichtbar und besser definiert sind.

Figure 19
Abbildung 19 : Volumetrische 3D-Bilder US erworben mit piezoelektrischen Sensoren. Vergleich zwischen US 3D-Bilder rekonstruiert aus planaren 2D-Bilder freihändig erworben mit der linear Sonde mit dem Motion Tracker Positionsdaten (b, d) oder mit der mechanisch gefegt Sonde (a, c) erworben. In (a, b) die Positionen dieser Bände sind in der 3D Herr Bildrahmen mit Umrisse dargestellt. Bitte klicken Sie hier für eine größere Version dieser Figur.

Figure 20
Abbildung 20 : Rekonstruiert US 3D-Bilder erworben mit der Sonde CMUT. Die 2D Bildebenen freihändig durch Scannen der bovinen Gehirns mit der Sonde CMUT erworben wurden verwendet, um 3D Volumen rekonstruieren wie gezeigt in (C, d). In (a, b) die Umrisse der solche Volumina sind in 3D Herr Bilderrahmen vertreten. Bitte klicken Sie hier für eine größere Version dieser Figur.

Als bedeutende und zusätzliche Produkt generiert die Experimente eine erweiterte Multi-Sonde Dataset von US-Bildern, die Positionierung enthält und Registrierungsdaten im Vergleich zu anderen MRT-Bilder des gleichen Ziels. Abbildung 21 fasst alle 3D-Bilder im Dataset zeigt die Begrenzungsrahmen eines jeden von ihnen in Überlagerung auf das gleiche Bild des Herrn.

Figure 21
Abbildung 21 : 3D US-Dataset im Bezugsrahmen Herr Bild erworben. Die Abbildung zeigt das 3D MRT-Bild des Gehirns und überlagerten Umrisse der 3D US Datasets mit dem piezoelektrischen mechanisch gefegt (a), piezoelektrische linear-Array (b) und CMUT (c) Sonden erworben. (B) und (C), die 3D-Bilder wurden durch volumetrischen Wiederaufbau erhalten. Bitte klicken Sie hier für eine größere Version dieser Figur.

Alles in allem belegen diese Ergebnisse die Wirksamkeit der beschriebenen Protokoll, das den Erwerb und die korrekte Registrierung von 2D/3D erlaubt uns Bilder in den Bezugsrahmen für das 3D MRT-Bild des gleichen bovine Gehirns (Abbildung 18, 19), und Mengen aus 2D-Bildern US erworben im Freihand-Modus (Figuren 19 d, 20) zu rekonstruieren.

Mit den beschriebenen Softwaretools, können Experten visuell die wichtigsten Merkmale in 2D und 3D Bilder von biologischen Proben erkunden. Bedeutende Beispiele für die qualitative Bewertung der CMUT Sonde Abbildungsleistung sind gezeigt worden, im Vergleich zu denen von anderen US-Sonden (siehe Abbildung 18, Abb. 19 und Abb. 20) und in Bezug auf ein Ziel-MRT-Bild (siehe ( Abbildung 18). Weiter sind anspruchsvolle Analysen auf die Bild-Datensätze erhalten, menschliche Experten oder durch die Anwendung anderer Software-Techniken, wie die für die digitale, fein abgestimmte US-Herr Registrierung von 3D-Bildern möglich. Diese Software-Techniken werden behandelt in Zukunft arbeiten.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Mehrere Werke wurden in der Literatur beschreibt Techniken, die ähnliche oder Verwandte des Protokolls vorgestellt werden vorgestellt. Diese Techniken basieren ebenfalls auf den Einsatz von realistischen Zielen, einschließlich feste Tier oder Kadaver Gehirne, aber sie sind vor allem für die Erprobung von digitale Erfassung der verschiedensten Art konzipiert.

Das Protokoll, die hier beschrieben wird, hat jedoch den konkreten Zweck der Prüfung USA Sonden in verschiedenen Konfigurationen in den frühen Stadien der Entwicklung, und aus diesem Grund es erfüllt eine grundlegende Anforderung der Reproduzierbarkeit von Akquisitionen, nämlich auf dem gleichen biologische Proben und mit vergleichbaren Posen. Das Protokoll präsentiert leiht sich viele Aspekte der bestehenden Techniken oben und montiert sie in einer anderen Anordnung für diesen Zweck.

Unter den Lehren, die während des Protokoll-Design und experimentieren gelernt worden, sind Kalibrierverfahren bei weitem der wichtigste Aspekt. Trotz der vielen Verbesserungen angenommen die insgesamt räumliche Fehler des gesamten Satzes von Transformationen nach Kalibrierung zu präsentieren in der Größenordnung von 1-1,5 mm. Dieser Fehler ist nicht aufgrund mangelnder Präzision Motion-Tracker (die eine dokumentierte Genauigkeit in der Größenordnung von 0,3 mm), sondern um die Schwierigkeit des Erwerbs von präzise räumliche Messungen über eine biologische Probe, die eine gewisse Flexibilität behält.

Auf der anderen Seite ist die zeitliche Genauigkeit der Synchronisation nach unserer Erfahrung kein kritischer Aspekt. In der Tat ist die Erfassungsrate von Positionsdaten von Motion-Tracker etwa eine Größenordnung größer als die Bewegung der menschlichen Händen versucht, eine stabile Körperhaltung zu erreichen. Aus diesem Grund die Zeit Durchschnittswerte berechnet im Protokoll erworben werden für zusätzliche Genauigkeit. Ein weiterer Aspekt, der besonders effektiv ist die Definition der virtuellen Posen. In den Experimenten durchgeführt, dank der visuellen Echtzeitverfolgung Routine könnte Betreiber die Übernahme von vergleichbaren Bilder für alle zwölf virtuelle Posen aus jeder der drei US-Sonden ohne viel Aufwand und mechanische Stützkonstruktionen fahren.

Eine mögliche Änderung des Protokolls in der Zukunft angenommen werden nutzt verschiedene und verbesserte Kalibrierung Methoden, basierend auf eine engere Schleife und Rückmeldungen der räumlichen Transformationen werden sollte. In der vorliegenden Form in der Tat, erfordert das Protokoll erhebliche Nachbearbeitung der räumlichen Lesungen, die Transformationsmatrizen zu berechnen. Obwohl diese Tätigkeit in zehn Minuten durchgeführt werden kann und erfordert keine Experimente offline gestellt werden, liefert dieser Post-Processing Ergebnisse, die sofort visualisiert werden können nicht, während der Ausführung der Kalibrierung. In diesem Zusammenhang könnte ein verstärkte und möglicherweise in Echtzeit visuelles Feedback der Kalibrierung erhalten eine große Hilfe bei der Verwirklichung größeren Präzisions.

Für die konkrete Umsetzung des Protokolls ist es grundlegend, Instrumente, die sind relativ offen und ermöglichen die Mehrfachintegrationen erforderlichen. Beispielsweise ist die tatsächliche Möglichkeit der Synchronisierung Signale aus verschiedenen Quellen - gewährleistet durch den Zugriff auf interne Timing-Daten systemseitig ULA-OP in diesem Fall - entscheidend für die Kalibrierung und Bild post-processing-Aktivitäten.

Ein weiterer wichtiger Faktor ist die Software. Zwar keine großen Software-Instrumente für die Experimente, eine Reihe von C++ und MATLAB Routinen, sowie Python-basierten Module für Paraview, erwies sich für eine Reihe von wichtigen Aufgaben, wie z. B. Kalibrierung, vordefinierte Motion-Tracking Feedback für Posen, und Post-Processing für 3D Bildrekonstruktion. Zugriff auf Low-Level-Daten, die von den Instrumenten ist wiederum sehr wichtig für die Schaffung dieser Softwarekomponenten.

Zu guter Letzt ist die Wahl des richtigen Ziels für die Bildgebung sehr bedeutsam. Mehrere Alternativen, die mit der Realisierung des synthetischen Phantome galten im Vorfeld und nach unserer Erfahrung erschien diese Alternativen zu suboptimalen im Vergleich zu der sehr kostengünstige Wahl des bovinen Gehirn in Formalin fixiert werden. Dieses Ziel stellt sicher viel besser Realismus und mit der richtigen Pflege, unbestimmte Erhaltung im Laufe der Zeit.

Zusammenfassend ist die Erreichung der experimentellen Ergebnisse präsentiert, mit dem Multi-modale 3D-Bild Dataset als dauerhafte und relevante Ergebnis, unserer Meinung nach das Produkt einer wirksamen technischen Integrationsstrategie, die stückweise montiert werden muss, durch eine sorgfältige Analyse der vielen Aspekte impliziert, und entwickelt in Bezug auf die Verfahren und Instrumente beteiligt.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Die Autoren erklären, dass sie keine konkurrierenden finanziellen Interessen haben.

Acknowledgments

Diese Arbeit wurde teilweise durch die nationalen Regierungen und der Europäischen Union im Rahmen des Projekts ENIAC JU DeNeCoR unter Grant Vertragsnummer 324257 unterstützt. Die Autoren möchten danke Prof. Giovanni Magenes, Prof. Piero Tortoli und Dr. Giosuè Caliano für ihre wertvolle Unterstützung, Überwachung und aufschlussreiche Kommentare, die diese Arbeit möglich gemacht. Wir sind auch dankbar, Prof. Egidio D'Angelo und seine Gruppe (BCC Lab), zusammen mit der Fondazione Istituto Neurologico C. Mondino, für die Bereitstellung der Motion-tracking und Herr Instrumentierung und Giancarlo Germani für Herrn übernahmen. Zu guter Letzt möchten wir danken Dr. Nicoletta Caramia, Dr. Alessandro Dallai und Frau Barbara Mauti für ihre wertvolle technische Unterstützung und Herrn Walter Volpi für die Bereitstellung der bovinen Gehirns.

Materials

Name Company Catalog Number Comments
ULA-OP University of Florence N/A Ultrasound imaging research system
3D imaging piezeoelectric probe Esaote s.p.a. 9600195000 Mechanically-swept 3D ultrasound probe, model BL-433
Linear-array piezoelectric probe Esaote s.p.a. 122001100 Ultrasound linear array probe, model LA-533
CMUT probe University Roma Tre N/A Ultrasound linear array probe based on CMUT technology
MAGNETOM Skyra 3T MR scanner Siemens Healthcare N/A MR scanner
Head coil Siemens Healthcare N/A 32-channel head coil for MR imaging
NDI Polaris Vicra NDI Medical 8700335001 Optical motion tracking system
Pointer tool NDI Medical 8700340 Passive pointer tool with 4 reflecting markers
Clamp-equipped tool NDI Medical 8700399 Rigid body with 4 reflecting markers and a clamp to be connected to the US probe handle
Bovine brain N/A N/A Brain of an adult bovine, from food suppliers
Formalin solution N/A N/A 10% buffered formalin solution for bovine brain fixation - CAUTION, formalin is a toxic chemical substance and must be handled with care; specific regulations may also apply (see for instance US OSHA Standard 1910.1048 App A)
Plastic container for anatomical parts N/A N/A Cilindrical plastic container with lid
Glass spheres N/A N/A 3 mm diameter spheres of Flint glass
Agar N/A N/A 30 g, for phantom preparation
Glycerine AEFFE Farmaceutici A908005248 100 g, for phantom preparation
Distilled water Solbat Gaysol 8027391000015 870 g, for phantom preparation
Beaker N/A N/A Beaker used for the diluition of glycerine and agar in distilled water
Lysoform Lever 8000680500014 A benzalkonium chloride and water solution was used for the agar phantom preservation
Polystyrene mannequin head N/A N/A Polyestirene model which was cutted and used to design the configuration of spheres'patterns
Green tissue marking dye for histology N/A N/A Colour used to mark the glass spheres' positions on the bovine brain surface
Yellow enamel N/A N/A Enamel used to colour the glass spheres implanted in the agar phantom
Water tank N/A N/A 50x50x30 cm plastic tank filled with degassed water up to a 15 cm height 
Mechanical arm Esaote s.p.a. N/A Mechanical arm clamped to the water tank border and used to held the probe in fixed positions
Plate of synthetic resin N/A N/A Plate used as a support for the bovine brain positioning in the water tank
Sewing threads N/A N/A Sewing thread segments used to immobilize the brain on the resin plate
Adhesive tape N/A N/A Adhesive tape used to fix the sewing thread extremities onto the resin plate
Plastic food container N/A N/A Sealed food container used for the agar phantom
Notebook Lenovo Z50-70 Lenovo  Z50-70, Intel(R) Core i7-4510U @ 2.0 GHz, 8 GB RAM
Workstation Dell Inc. T5810 Intel(R) Xeon(R) CPU E3-1240v3 @ 3.40 GHz, 16 GB RAM
Matlab The MathWorks R2013a Software tool, used for space transformation computation and 3D reconstruction from image planes
Paraview Kitware Inc. v. 4.4.1 Open-source software for 3D image processing and visualization
NDI Toolbox - ToolTracker Utility NDI Medical v. 4.007.007 Software for marker position visualization and tracking in the NDI Polaris Vicra measurement volume
C++ data-logging software NDI Medical v. 4.007.007 Software for marker position recording on a text log file
ULA-OP software  University of Florence N/A Software for real-time display and control of the ULA-OP system

DOWNLOAD MATERIALS LIST

References

  1. Matrone, G., Savoia, A. S., Terenzi, M., Caliano, G., Quaglia, F., Magenes, G. A Volumetric CMUT-Based Ultrasound Imaging System Simulator With Integrated Reception and µ-Beamforming Electronics Models. IEEE Trans. Ultrason. Ferroelectr. Freq. Control. 61, (5), 792-804 (2014).
  2. Pappalardo, M., Caliano, G., Savoia, A. S., Caronti, A. Micromachined ultrasonic transducers. Piezoelectric and Acoustic Materials for Transducer Applications. Springer. 453-478 (2008).
  3. Oralkan, O. Capacitive micromachined ultrasonic transducers: Next-generation arrays for acoustic imaging? IEEE Trans. Ultrason. Ferroelectr. Freq. Control. 49, (11), 1596-1610 (2002).
  4. Savoia, A., Caliano, G., Pappalardo, M. A CMUT probe for medical ultrasonography: From microfabrication to system integration. IEEE Trans. Ultrason. Ferroelectr. Freq. Control. 59, (6), 1127-1138 (2012).
  5. ENIAC JU project DeNeCoR website. http://www.denecor.info (2017).
  6. Ramalli, A., Boni, E., Savoia, A. S., Tortoli, P. Density-tapered spiral arrays for ultrasound 3-D imaging. IEEE Trans. Ultrason. Ferroelectr. Freq. Control. 62, (8), 1580-1588 (2015).
  7. Lazebnik, R. S., Lancaster, T. L., Breen, M. S., Lewin, J. S., Wilson, D. L. Volume registration using needle paths and point landmarks for evaluation of interventional MRI treatments. IEEE Trans. Med. Imag. 22, (5), 653-660 (2003).
  8. Dawe, R. J., Bennett, D. A., Schneider, J. A., Vasireddi, S. K., Arfanakis, K. Postmortem MRI of human brain hemispheres: T2 relaxation times during formaldehyde fixation. Magn. Reson. Med. 61, (4), 810-818 (2009).
  9. Chen, S. J., et al. An anthropomorphic polyvinyl alcohol brain phantom based on Colin27 for use in multimodal imaging. Mag. Res. Phys. 39, (1), 554-561 (2012).
  10. Farrer, A. I. Characterization and evaluation of tissue-mimicking gelatin phantoms for use with MRgFUS. J. Ther. Ultrasound. 3, (9), (2015).
  11. Choe, A. S., Gao, Y., Li, X., Compton, K. B., Stepniewska, I., Anderson, A. W. Accuracy of image registration between MRI and light microscopy in the ex vivo brain. Magn. Reson. Imaging. 29, (5), 683-692 (2011).
  12. PVA brain phantom images website. http://pvabrain.inria.fr (2017).
  13. Gobbi, D. G., Comeau, R. M., Peters, T. M. Ultrasound probe tracking for real-time ultrasound/MRI overlay and visualization of brain shift. Int. Conf. Med. Image Comput. Comput. Assist. Interv (MICCAI) n. 920, 927 (1999).
  14. Ternifi, R. Ultrasound measurements of brain tissue pulsatility correlate with the volume of MRI white-matter hyperintensity. J. Cereb. Blood Flow. Metab. 34, (6), 942-944 (2014).
  15. Unsgaard, G. Neuronavigation by Intraoperative Three-dimensional Ultrasound: Initial Experience during Brain Tumor Resection. Neurosurgery. 50, (4), 804-812 (2002).
  16. Pfefferbaum, A. Postmortem MR imaging of formalin-fixed human brain. NeuroImage. 21, (4), 1585-1595 (2004).
  17. Schulz, G. Three-dimensional strain fields in human brain resulting from formalin fixation. J. Neurosci. Meth. 202, (1), 17-27 (2011).
  18. Ahrens, J., Geveci, B., Law, C. ParaView: An End-User Tool for Large Data Visualization. Visualization Handbook. Elsevier. (2005).
  19. Cloutier, G. A multimodality vascular imaging phantom with fiducial markers visible in DSA, CTA, MRA, and ultrasound. Med. Phys. 31, (6), 1424-1433 (2004).
  20. Boni, E. A reconfigurable and programmable FPGA-based system for nonstandard ultrasound methods. IEEE Trans. Ultrason. Ferroelectr. Freq. Control. 59, (7), 1378-1385 (2012).
  21. Bagolini, A. PECVD low stress silicon nitride analysis and optimization for the fabrication of CMUT devices. J. Micromech. Microeng. 25, (1), (2015).
  22. Savoia, A. Design and fabrication of a cMUT probe for ultrasound imaging of fingerprints. Proc. IEEE Int. Ultrasonics Symp. 1877-1880 (2010).
  23. Fenster, A., Downey, D. B. Three-dimensional ultrasound imaging. Annu. Rev. Biomed. Eng. 2, 457-475 (2000).
  24. Matrone, G., Ramalli, A., Savoia, A. S., Tortoli, P., Magenes, G. High Frame-Rate, High Resolution Ultrasound Imaging with Multi-Line Transmission and Filtered-Delay Multiply And Sum Beamforming. IEEE Trans. Med. Imag. 36, (2), 478-486 (2017).
  25. Matrone, G., Savoia, A. S., Caliano, G., Magenes, G. Depth-of-field enhancement in Filtered-Delay Multiply and Sum beamformed images using Synthetic Aperture Focusing. Ultrasonics. 75, 216-225 (2017).
  26. Boni, E., Cellai, A., Ramalli, A., Tortoli, P. A high performance board for acquisition of 64-channel ultrasound RF data. Proc. IEEE Int. Ultrasonics Symp. 2067-2070 (2012).
  27. Matrone, G., Savoia, A. S., Caliano, G., Magenes, G. The Delay Multiply and Sum beamforming algorithm in medical ultrasound imaging. IEEE Trans. Med. Imag. 34, 940-949 (2015).
  28. Savoia, A. S. Improved lateral resolution and contrast in ultrasound imaging using a sidelobe masking technique. Proc. IEEE Int. Ultrasonics Symp. 1682-1685 (2014).
  29. Gyöngy, G., Makra, A. Experimental validation of a convolution- based ultrasound image formation model using a planar arrangement of micrometer-scale scatterers. IEEE Trans. Ultrason. Ferroelectr. Freq. Control. 62, (6), 1211-1219 (2015).
  30. Shapoori, K., Sadler, J., Wydra, A., Malyarenko, E. V., Sinclair, A. N., Maev, R. G. An Ultrasonic-Adaptive Beamforming Method and Its Application for Trans-skull Imaging of Certain Types of Head Injuries; Part I: Transmission Mode. IEEE Trans. Biomed. Eng. 62, (5), 1253-1264 (2015).
  31. Salles, S., Liebgott, H., Basset, O., Cachard, C., Vray, D., Lavarello, R. Experimental evaluation of spectral-based quantitative ultrasound imaging using plane wave compounding. IEEE Trans. Ultrason. Ferroelectr. Freq. Control. 61, (11), 1824-1834 (2014).
  32. Alessandrini, M. A New Technique for the Estimation of Cardiac Motion in Echocardiography Based on Transverse Oscillations: A Preliminary Evaluation In Silico and a Feasibility Demonstration In Vivo. IEEE Trans. Med. Imag. 33, (5), 1148-1162 (2014).
  33. Ramalli, A., Basset, O., Cachard, C., Boni, E., Tortoli, P. Frequency-domain-based strain estimation and high-frame-rate imaging for quasi-static elastography. IEEE Trans. Ultrason. Ferroelectr. Freq. Control. 59, (4), 817-824 (2012).
  34. NDI Polaris Vicra optical tracking system website. http://www.ndigital.com/medical/polaris-family (2017).
  35. Markley, F. L., Cheng, Y., Crassidis, J. L., Oshman, Y. Averaging quaternions. J. Guid. Cont. Dyn. 30, (4), 1193-1197 (2007).
  36. Dorst, L., Fontijne, D., Mann, S. Geometric Algebra for Computer Science. An Object-oriented Approach to Geometry. A Volume in the Morgan Kaufmann Series in Computer Graphics (2007).
  37. Horn, B. K. P. Closed-form solution of absolute orientation using unit quaternions. J. Opt. Soc. Am. A. 4, (4), 629-642 (1987).

Comments

0 Comments


    Post a Question / Comment / Request

    You must be signed in to post a comment. Please or create an account.

    Usage Statistics