Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Bioengineering

Un protocole expérimental pour évaluer la Performance des nouvelles sondes ultrasons basés sur la technologie CMUT en Application à l’imagerie cérébrale

Published: September 24, 2017 doi: 10.3791/55798

Summary

Le développement de nouvelles sondes ultrasons (US), basé sur la technologie capacitif micro-usines Ultrasonic Transducer (CMUT) exige une évaluation réaliste précoce des capacités d’imagerie. Les auteurs décrivent un protocole expérimental reproductible pour acquisition d’image américaine et la comparaison avec des images de résonance magnétique, à l’aide d’un cerveau de boeuf ex vivo comme une cible d’imagerie.

Abstract

La possibilité d’effectuer une évaluation rapide et reproductible de performance d’imagerie est fondamentale dans la conception et les processus de développement de nouvelle échographie (US) des sondes. En particulier, une analyse plus réaliste avec des objectifs d’imagerie spécifique à l’application peut être extrêmement utile pour évaluer les performances attendues des sondes américaines dans leur champ clinique potentiel d’application.

Le protocole expérimental présenté dans ce travail a été conçu pour fournir une procédure d’évaluation spécifiques à l’application de nouvellement développé nous prototypes basés sur la technologie capacitif micro-usines Ultrasonic Transducer (CMUT) par rapport à la sonde imagerie cérébrale.

Le protocole combine l’utilisation d’un cerveau de boeuf fixé dans du formol comme cible d’imagerie, qui garantit le réalisme et la répétabilité des procédures décrites et de neuronavigation techniques empruntées à la neurochirurgie. La sonde américaine est en fait reliée à un système qui acquiert les données de position et permet la superposition d’images US pour référencer des images par résonance magnétique (IRM) du cerveau de suivi de mouvement. Ceci fournit un moyen pour les experts humains pour effectuer une évaluation visuelle qualitative de la sonde américaine performance d’imagerie et de comparer les acquisitions réalisées avec différentes sondes. En outre, le protocole s’appuie sur l’utilisation d’un système de recherche et de développement complet et ouvert pour l’acquisition d’images aux États-Unis, c'est-à-dire le scanner échographie Advanced Open Platform (ULA-OP).

Le manuscrit est décrit en détail les instruments et procédures impliquées dans le protocole, en particulier pour l’étalonnage, acquisition d’images et d’enregistrement des images américaines et M.. Les résultats obtenus prouvent l’efficacité du protocole global présenté, qui est entièrement ouvert (dans les limites des instruments concernés), reproductible et couvre l’ensemble des activités acquisition et de traitement des images de l’US.

Introduction

Le marché croissant des dispositifs d’échographie petit et portable (US) entraîne le développement de nouvelles sondes échographiques dans quelle partie du conditionnement du signal et formation de faisceau électronique est intégré dans la poignée de la sonde, surtout pour l’imagerie 3D/4D 1. les technologies émergeantes particulièrement adaptés pour atteindre ce haut niveau d’intégration comprennent transducteurs ultrasoniques micro-usinés (MUTs)2, une classe de transducteurs de système d’électromécaniques Micro (MEMS) fabriquées sur silicium. En particulier, capacitif MUTs (CMUTs) ont enfin atteint une maturité technologique qui fait d’eux une alternative valable à des transducteurs piézoélectriques pour la génération prochaine échographie systèmes d’imagerie3. CMUTs sont très attrayants en raison de leur compatibilité avec les technologies de la microélectronique, large bande passante - ce qui donne une résolution d’image supérieure - rendement thermique élevé et, par-dessus tout, sensibilité élevée4. Dans le cadre du projet ENIAC JU DeNeCoR (dispositifs pour neurocontrôle et réadaptation neurologique)5, CMUT sondes sont actuellement développés6 pour US d’imagerie cérébrale (p. ex. neurochirurgie), des applications où la qualité des images 2D/3D/4D et représentation précise des structures cérébrales sont nécessaires.

Dans le processus de développement de nouvelles sondes américaines, la possibilité de réaliser les premières évaluations de performance d’imagerie est fondamentale. Techniques d’évaluation typique impliquent mesurer certains paramètres comme la résolution et de contraste, basée sur des images de fantômes imitant le tissu avec les cibles embarquées de géométrie connue et échogénicité. Une analyse plus réaliste avec des objectifs d’imagerie spécifique à l’application peut être extrêmement utile pour une évaluation rapide de la performance attendue des sondes américaines dans leur potentiel d’application à un domaine clinique spécifique. En revanche, la répétabilité complète des acquisitions est fondamentale pour des essais comparatifs de différentes configurations au fil du temps, et cette exigence exclut tout à fait des expériences in vivo .

Plusieurs œuvres de la littérature sur les techniques d’imagerie diagnostiques proposé l’utilisation des ex vivo spécimens animaux7, cadavre cerveaux8ou tissus imitant les fantômes9 pour différents buts10, incluent le tests de méthodes d’imagerie, algorithmes d’enregistrement, des séquences par résonance magnétique (IRM) ou l’US-du faisceau et résultant d’une qualité d’image. Par exemple, dans le cadre de l’imagerie cérébrale, Lazebnik et al. 7 utilisé un cerveau de mouton fixés au formol pour évaluer une nouvelle méthode d’enregistrement 3D Monsieur ; de même, Choe et al. 11 a étudié une procédure pour l’enregistrement des MR et des images de microscopie photonique d’un cerveau de singe hibou fixe. Un cerveau d’alcool polyvinylique (PVA) fantôme a été développé en9 et utilisé pour effectuer des acquisitions de multimodal image (c'est-à-dire Monsieur, US et la tomodensitométrie) pour générer une image partagée dataset12 pour les essais d’enregistrement et algorithmes d’imagerie.

Dans l’ensemble, ces études confirment que l’utilisation d’un objectif réaliste pour les acquisitions de l’image est en effet une étape essentielle lors de l’élaboration d’une nouvelle technique d’imagerie. Cela représente un stade encore plus critique lors de la conception d’un nouvel appareil d’imagerie, comme la sonde CMUT nous présenté dans cet article, qui est toujours dans une phase de prototypage et de tests étendue et reproductibles au fil du temps, pour un réglage précis de toute la structure a besoin paramètres avant sa réalisation finale et validation possible dans in vivo des applications (comme à13,14,15).

Le protocole expérimental décrit dans cet ouvrage a été conçu par conséquent de prévoir une procédure d’évaluation d’imagerie robuste, spécifiques à l’application des sondes US nouvellement développé basés sur la technologie CMUT. Pour assurer un réalisme et répétabilité, bovine cerveaux (obtenu par le biais de la chaîne commerciale standard d’approvisionnement alimentaire) fixés dans du formol ont été choisis comme cibles d’imagerie. La procédure de fixation garantit une conservation à long terme des caractéristiques du tissu tout en conservant les qualités morphologiques satisfaisantes et les propriétés de visibilité États-Unis et M. formation image16,17.

Le protocole pour l’évaluation de la qualité de l’image US décrit ici aussi implémente une fonctionnalité empruntée de neuronavigation techniques utilisées pour neurochirurgie15. Dans ces approches, les sondes américaines sont reliées à un système qui fournit l’orientation données en temps réel et la position spatiale de suivi de mouvement. De cette façon, images d’US acquises lors d’activités chirurgicales peuvent automatiquement enregistrés et visualisés, d’orientation, en superposition à des images de résonance durales du cerveau du patient. Pour l’application du protocole présenté, la superposition avec des images de résonance (qui sont considérées comme l’étalon-or en imagerie cérébrale) est de grande valeur, parce il permet des experts humains pour évaluer visuellement qui morphologiques et caractéristiques tissulaires sont reconnaissables dans les images de l’US et, vice versa, de reconnaître la présence d’artefacts d’imagerie.

La possibilité de comparer les images obtenues avec les différentes sondes US devient encore plus intéressante. Le protocole expérimental présenté inclut la possibilité de définir un ensemble de poses de référence spatiale pour les acquisitions aux États-Unis, principalement dans les régions de volume plus riche identifiées lors d’une inspection visuelle préliminaire des images de M.. Un outil visuel intégré, développé pour le Paraview open source logiciel système18, apporte aux opérateurs pour faire correspondre ces poses prédéfinies lors de phases d’US image acquisition. Pour les procédures d’étalonnage requis par le protocole, il est fondamental d’équiper tous les spécimens de cible - biologiques ou synthétiques - avec des repères de position prédéfinie qui fournissent des références spatiales sans ambiguïté. Ces points de repère doivent être visibles dans les images américaines et M. et physiquement accessible aux mesures effectuées avec le système de suivi de mouvement. Les éléments de repère choisi pour l’expérience sont de petites sphères de verre Flint, dont la visibilité dans les images américaines et Monsieur a été démontrée dans la littérature19 et confirmée par des explorations américaines et M. préliminaires effectuées avant les expériences présentées.

Le protocole présenté repose sur l' échographie Advanced Open Platform (ULA-OP)20, une recherche complète et ouverte et système de développement pour nous acquisition d’images, qui offre des possibilités beaucoup plus expérimentales que commercialement disponibles scanners et sert de base commune pour l’évaluation des différentes sondes US.

Tout d’abord, les instruments utilisés dans cet ouvrage sont décrites, avec une référence particulière à la sonde CMUT nouvellement conçue. Le protocole expérimental est introprésente en détail, avec une description complète de toutes les procédures impliquées, de la conception initiale, le système de calibrage, post-traitement et acquisition d’images. Enfin, les images obtenues sont présentés et les résultats sont discutés, ainsi que des conseils pour les développements futurs de ce travail.

Instrumentation

Prototype de sonde CMUT

Les expériences ont été effectuées à l’aide un nouvellement mis au point 256 éléments CMUT linéaire prototype, conçu, fabriqué et emballé à la laboratoire de Acoustoelectronics (ACULAB) de l’Université de Roma Tre (Rome, Italie), à l’aide de la (CMUT inverser des processus de Fabrication DP)4. DP est une microfabrication et emballage technologies, spécifiquement conçu pour la réalisation de capteurs MEMS pour nous applications, auquel cas la microstructure CMUT est fabriquée suivant de silicium d’imagerie un « upside-down » approche21. Par rapport aux autres technologies de fabrication CMUT, DP cède à l’amélioration des performances d’imagerie en raison de la grande uniformité de géométrie de LiPo CMUT sur l’ensemble du tableau et à l’utilisation de matériaux acoustiquement machinés dans le paquet de tête de sonde. Une caractéristique importante de DP, c’est que les coussinets d’interconnexion électriques sont situés sur la partie arrière de la filière CMUT, qui facilite la 3D-intégration des tableaux 2D et frontal multi-canaux électronique.

Le tableau CMUT 256 éléments a été conçu pour fonctionner dans une bande de fréquences centrée à 7,5 MHz. L’emplacement de l’élément de 200µm a été choisi pour le tableau résultant dans une largeur de champ de vision maximum de 51,2 mm. La hauteur des éléments du tableau unique de CMUT a été définie pour obtenir un rendement approprié en ce qui concerne la résolution latérale et la capacité de pénétration. Une hauteur de l’élément de tableau 5 mm a été choisie afin d’obtenir une largeur de faisceau de-3 dB de 0,1 mm et une profondeur de-3 dB de l’objectif de 1,8 mm à 7,5 MHz, pour fixer la mise au point d’altitude sur une profondeur de 18 mm au moyen d’une lentille acoustique. 195 éléments du tableau de l’échelle du µm ont été obtenus en arrangeant et connecter électriquement en parallèle 344 cellules CMUT circulaires, suivant une disposition hexagonale. Par conséquent, la résultante 5µm élément-vers-élément distance, c'est-à-dire le trait de scie, correspond à la séparation par membrane-à-membrane. Une représentation schématique de la structure d’un tableau CMUT est signalée dans la Figure 1.

Figure 1
Figure 1 : structure de tableau CMUT. Représentation schématique de la structure d’un tableau CMUT : tableau des éléments composés de plusieurs cellules branchées en parallèle (a), mise en page de la microstructure CMUT (b) ; coupe transversale d’une cellule CMUT (c). S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Le CMUT microfabrication paramètres, c'est-à-dire le latéral et verticales dimensions de la plaque et les électrodes, ont été définis à l’aide de simulations de modélisation éléments finis (FEM) dans le but de réaliser une opération d’immersion à large bande, caractérisée par une réponse en fréquence centrée à 7,5 MHz et une bande passante fractionnelle bidirectionnel 100 %-6 dB. La hauteur de la cavité, c'est-à-dire l’écart, a été définie pour atteindre une tension de l’effondrement de 260 V pour maximiser la sensibilité bidirectionnelle, en biaisant le CMUT à 70 % de la tension de chute4, compte tenu d’une tension de signal d’excitation maximale V 80. Le tableau 1 résume les principaux paramètres géométriques de la microfabriques CMUT.

Paramètres de conception de tableau CMUT
Paramètre Valeur
Tableau
Nombre d’éléments 256
Hauteur de l’élément 200 µm
Longueur de l’élément (élévation) 5 mm
Mise au point d’altitude fixe 15 mm
CMUT Microstructure
Diamètre de la cellule 50 µm
Diamètre d’électrode 34 µm
Cellule-cellule distance latérale 7,5 µm
Épaisseur de la plaque 2,5 µm
Hauteur de l’écart 0,25 µm

Tableau 1. Paramètres de sonde CMUT. Paramètres géométriques de la sonde linéaire-tableau CMUT et la microstructure de cellule CMUT.

Le processus de conditionnement utilisé pour intégrer le tableau CMUT dans une tête de sonde est décrite dans la référence4. La lentille acoustique a été fabriquée en utilisant un caoutchouc de silicone vulcanisé à température ambiante (RTV) dopé à oxyde métallique Nanopoudres pour correspondre à l’impédance acoustique de l’eau et éviter les réflexions parasites à l' interface22. Le composé résultant est caractérisé par une densité de 1280 kg/m3 et une vitesse du son de 1100 m/s. Un rayon de courbure de 7 mm a été choisi pour la lentille cylindrique, conduisant à une mise au point géométrique de 18 mm et une épaisseur maximale de 0,5 mm environ au-dessus de la surface du transducteur. Une photo de la tête de sonde CMUT est montrée dans la Figure 2(a).

Figure 2
Figure 2 : sonde CMUT. Tête de la sonde CMUT développée, y compris la rangée linéaire de transducteurs et de lentille acoustique (a) et la sonde CMUT complète avec connecteur (b). S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

La tête de sonde CMUT est couplée à la poignée de la sonde contenant l’électronique frontal analogique multicanal de réception et un câble multipolaire pour la connexion avec le scanner d’US. Le circuit électronique monocanal est un amplificateur de tension de 9 dB-gain-impédance d’entrée élevée qui fournit l’électricité courant nécessaire pour conduire l’impédance du câble. L’électronique multicanaux, décrit dans référence 4, est issu d’une topologie de circuit incluant un récepteur de faible niveau de bruit ultra-low-power et un commutateur intégré pour la transmission/réception signal impression recto-verso. Le bloc d’alimentation électronique frontal et la tension de polarisation CMUT sont générées par un appareil d’alimentation personnalisée et nourris à la sonde via le câble multipolaire. La sonde complète est indiquée sur la Figure 2(b).

Sondes américaines piézoélectriques

Pour une comparaison qualitative des images obtenues avec la sonde CMUTci-dessus, deux sondes d’US piézoélectriques disponible dans le commerce ont été inclus dans les expériences. Le premier est une sonde linéaire-tableau avec 192 transduction des éléments, un terrain de 245 µm et une largeur de bande fractionnée 110 % centrée à 8 MHz. Cette sonde a été utilisée pour acquérir des images de B-mode 2D. La deuxième sonde est une sonde d’imagerie 3D avec une rangée linéaire balayée mécaniquement de 180 transduction des éléments, avec un terrain de 245 µm et une largeur de bande fractionnée 100 % centré à 8,5 MHz. Un moteur pas à pas placé à l’intérieur de la sonde permet de balayer le réseau linéaire afin d’acquérir des plans multiples, qui peuvent être utilisés pour reconstruire une image 3D du volume numérisé23du logement.

Système d’ULA-OP

L’acquisition d’images aux États-Unis a été réalisée en employant l’ULA-OP système20, qui est un système complet et ouvert US recherche et développement, conçu et réalisé à la microélectronique Systems Design Laboratory de l’Université de Florence, en Italie. Le système ULA-OP peut contrôler, aussi bien dans la transmission (TX) et réception (RX), jusqu'à 64 canaux indépendants reliés par une matrice de commutation d’une sonde américaine avec jusqu'à 192 piézoélectrique ou CMUT transducteurs. L’architecture caractéristiques deux principale de traitement cartes système, une Board Analog (AB) et un Conseil numérique (DB), tous deux contenus dans un rack, qui sont complétées par une alimentation et une pension d’arrière-plan qui contient le connecteur de la sonde et le routage interne tous les composants. L’AB contient le serveur frontal pour les transducteurs de la sonde, en particulier les composants électroniques pour climatisation analogique des 64 canaux et la matrice de commutation programmables qui mappe dynamiquement les canaux TX-RX sur les transducteurs. La DB est en charge de la formation de faisceaux en temps réel, synthétisant les signaux TX et le RX de traitement fait écho pour produire le résultat souhaité (par exemple des images de mode B ou sonogrammes Doppler). Il faut souligner que le système ULA-OP est entièrement configurable, d'où le signal à TX peut être toute forme d’onde arbitraire au sein de la bande passante du système (p. ex. les impulsions de trois niveaux, sine-éclats, grésillements, codes de Huffman, etc.) avec un maximum amplitude de Vpp 180 ; en outre, la stratégie de formation de faisceaux peut être programmée selon les modèles des dernière mise au point (par exemple concentré de vague, multi-line-transmission, onde plane, divergentes des vagues, des poutres de diffraction limitée, etc.)24,25 . Au niveau matériel, ces tâches sont partagées entre les cinq Field Programmable Gate Arrays (FPGA) et un processeur de Signal numérique (DSP). Avec 3D balayée mécaniquement par imagerie de sondes, telles que celle décrite ci-dessus, le système ULA-OP contrôle également le moteur pas à pas à l’intérieur de la sonde, pour l’acquisition synchronisée d’images 2D individuelles à chaque position du transducteur tableau.

Le système ULA-OP peut être reconfiguré en cours d’exécution et adapté aux différentes sondes US. Il communique par un canal d’USB 2.0 avec un ordinateur hôte, équipé d’un logiciel spécifique. Ce dernier dispose d’une interface graphique configurable qui permet la visualisation en temps réel des images US, reconstruit en différents modes ; avec sondes volumétriques, par exemple, deux images de B-mode de plans perpendiculaires du volume numérisé peuvent être affichées en temps réel.

Le principal avantage du système ULA-OP pour l’application du protocole décrit est qu’il permet un réglage facile des paramètres TX-RX et il offre un accès complet à des données collectées à chaque étape dans le traitement de chaîne26, rend également possible du signal pour tester les nouvelles modalités d’imagerie et beamforming techniques27,28,29,30,31,32,33.

Système de suivi de mouvement

Pour enregistrer les États-Unis sonde position au cours de l’acquisition d’images, un système de suivi de mouvement optique était travailleur34. Le système est basé sur une unité de capteur qui émet de la lumière infrarouge par l’intermédiaire de deux projecteurs (diode électroluminescente (LED)) et deux récepteurs (c.-à-d. une lentille et un dispositif à couplage de charge (CCD)) pour détecter la lumière réfléchie par les multiples passif spécifique marqueurs disposés dans des formes rigides prédéfinis. Informations sur la lumière réfléchie sont alors traitées par un processeur embarqué pour calculer la position et l’orientation des données, qui peuvent être transférées à un ordinateur hôte connecté via USB 2.0. Le même lien peut être utilisé pour contrôler la configuration de l’unité de capteur.

L’unité de détection des navires ainsi qu’un ensemble d’outils, chacun doté de quatre marqueurs réfléchissants disposés dans une configuration géométrique rigide. La proposition de système de suivi permet de suivre jusqu'à six outils rigides distincts simultanément, à une fréquence de fonctionnement d’environ 20Hz. Deux de ces outils ont été utilisés pour ces expériences : un outil pointeur, ce qui permet d’acquérir la position 3D touché par son extrémité, et un outil pince équipée, qui peut être attaché à la sonde US sous test (voir Figure 14).

Côté logiciel, le tracker motion dispose d’une bas niveau serial interface de programmation (API) pour les deux unité contrôle et acquisition de données, qui sont accessibles via le port USB. Par défaut, position et orientation est retournées en tant qu’éléments d’entrée multiple, c'est-à-dire une entrée par chaque outil de suivi. Chaque entrée contient une position 3D (x, y, z), exprimé en millimètres et une orientation (q0, q,x, qy, q,z), exprimée comme un quaternion. Le système est également livré avec une panoplie de niveau supérieures instruments logiciels, qui inclut un outil de suivi graphique pour visualiser et mesurer en temps réel les positions/orientations des outils multiples dans le champ de vision de l’unité de capteur.

Composants du système overview, intégration et logiciels

Le schéma de la Figure 3 résume les instruments adoptés pour le protocole, décrivant aussi le flux de données qui coule à travers les systèmes.

Figure 3
Figure 3 : schéma fonctionnel de l’intégration de système et installation de tout matériel. La sonde américaine est connectée au système ULA-OP qui communique via le port USB avec l’ordinateur portable pour l’acquisition d’images aux États-Unis. Dans le même temps, l’ordinateur portable est aussi connecté via USB pour le système d’acquisition de données de position, de suivi de mouvement et via Ethernet au poste de travail, traitement des données. S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Outre les sondes américaines, le dispositif de suivi de mouvement et le système ULA-OP, qui ont été décrites ci-dessus, le programme d’installation comprend également deux ordinateurs, à savoir un ordinateur portable et une station de travail. Le premier est le principal front-end à l’instrumentation, de recevoir et de synchroniser les deux flux de données entrant principal : les images d’Américains venant du système ULA-OP et la 3D positionnement des données depuis le tracker de la motion. Il fournit également une rétroaction visuelle à l’opérateur pour les images acquises. La station de travail a considérablement plus élevée capacité de puissance et stockage computationnelle. Il prend en charge dorsal après traitement d’image et un référentiel pour les ensembles de données d’imagerie combinée. La station de travail est également utiliséepour la visualisation des images américaines et Monsieur, y compris la possibilité de visualisation 3D simultanée d’images multimodales enregistrés.

Une exigence essentielle pour les expériences d’acquisition image est la synchronisation des deux courants principaux de données. Le suivi de mouvement et les systèmes de ULA-OP sont des instruments indépendants qui ne supportent pas encore une synchronisation explicite des activités. Pour cette raison, informations données et position d’image US doivent être correctement combinés pour détecter la position 3D correcte de la sonde américaine au moment où chaque tranche de l’image a été acquise. Pour cela, une application de journalisation spécifique a été développée pour l’enregistrement et l’horodatage en temps réel les données fournies par le mouvement de système, de suivi de modification d’un composant de logiciel C++ qui est inclus, dans ce cas, dans le tracker de la requête elle-même. En règle générale, les systèmes de suivi de mouvement disposent d’une API de bas niveau qui permet la capture de données en temps réel et de les transcrire dans un fichier.

La méthode de synchronisation adopté fonctionne comme suit. Chaque entrée dans le fichier produit par l’application de journalisation est augmentée avec un horodatage dans le format « AAAA-MM-ddThh:mm:ss.kkk », où : y = année, M = mois, d = jours, h = heures, m = minute, s = deuxième, k = "milliseconde". Le logiciel PC ULA-OP (langages de programmation C++ et MATLAB) calcule de début et fin des temps de chaque séquence d’acquisition image et stocke ces informations dans chaque image au format .vtk. Afin de fournir une référence temporelle commune au cours des expériences, les procédures logiciel ci-dessus sont exécutés sur l’ordinateur frontal à la Figure 3. Horodateurs produites de cette façon sont ensuite utilisées par les procédures logiciel post-traitement qui produisent le dataset final (voir le protocole, l’article 8).

Un autre composant de logiciel spécifique a été réalisé et exécuter sur le poste de travail à fournir une rétroaction en temps réel à l’exploitant, en comparant l’actuel US sonde mesure d’images RM et, en particulier, de l’ensemble de poses prédéfinies. Une routine de logiciel côté serveur en Python traite le fichier journal de motion tracker, traduit le courant américain probe position dans une forme géométrique et envoie les données vers un serveur Paraview. Un client de Paraview connecte sur le même serveur Paraview et affiche en temps réel la position de la forme géométrique, superposée sur une image de Monsieur et d’autres formes géométriques décrivant les poses prédéfinies. Un exemple de la visualisation en temps réel qui en résulte est illustré à la Figure 17.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

tous les spécimens biologiques montrés dans cette vidéo ont été acquises par le biais de la chaîne d’approvisionnement alimentaire standard. Ces échantillons ont été traités en conformité avec les règlements éthiques et la sécurité des institutions concernées.

Remarque : le schéma de la Figure 4 résume les principales 8 étapes du présent protocole. Étapes 1 à 4 concernent des activités initiales, à effectuer une seule fois avant le début de l’acquisition d’images US et étapes de traitement. Ces premières étapes sont les suivantes : 1. conception préliminaire d’expérimental et un fantôme d’agar (à utiliser dans les procédures d’étalonnage) ; 2) préparation du cerveau bovine ex vivo ; 3. l’acquisition des images de résonance du cerveau ; 4. définition des poses qualitatives pour servir de cible pour l’acquisition d’images aux États-Unis. Étapes 5 à 8 concernent l’acquisition et de traitement d’images américaines. Ces étapes sont : 5. montage expérimental, dans lequel tous les instruments sont connectés et intégrés, et toutes les cibles sont positionnés et vérifiées ; 6. étalonnage de la sonde américaine équipée avec marqueurs passifs pour la navigation ; 7. acquisition d’images US du cerveau bovin immergé dans l’eau, dans des poses prédéfinies et en " modeŔ à main levée 8. après le traitement et la visualisation de la MR combiné / U.S. image dataset. Alors que la 5e étape peut être effectuée qu’une seule fois, au début des activités expérimentales, étapes 6 et 7 doivent être répétées par chaque sonde américaine impliqué. Étape 8 peut être effectuée qu’une seule fois sur le dataset combiné ensemble, lorsque toutes les acquisitions sont terminées.

Figure 4
figure 4  : flux de protocole expérimental. Le schéma illustre les principales étapes du protocole, y compris une liste des principales opérations de chaque étape. Les étapes 1 à 5 comportent des activités initiales et préparation de programme d’installation pour nous les acquisitions ; ils sont donc à effectuer une seule fois. Étapes 6 et 7 concernent les acquisitions aux États-Unis et doivent être répétées pour chaque sonde. Étape 8, qui est après traitement de l’image, peut être réalisée qu’une seule fois à la fin. s’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

1. preliminary design

  1. conception et validation de point de repère de positionnement
    Remarque : la procédure suivante définit une stratégie cohérente pour le positionnement des points de repère, à utiliser pour l’étalonnage des la motion tracking système décrit dans la Section 6.
    1. Préparer un mannequin tête polystyrène en découpant une forme approximativement similaire à celle du cerveau bovin (hauteur = 180 mm, largeur = 144 mm, longueur = 84 mm) à l’aide d’un couteau.
    2. Cerveau
    3. Insérez 6 modèles de 3 sphères de verre Flint (3 mm de diamètre) dans le polystyrène, disposé sur les sommets d’un triangle équilatéral avec le côté d’environ 15 mm et pas plus loin que de 1 mm de la surface externe (voir Figure 5 ).
    4. Connecter le mouvement système de suivi à l’ordinateur via le port USB. Ouvrir l’outil de suivi, de commencer le suivi de mouvement et de vérifier que lorsque l'on touche les sphères de verre dans le cerveau en polystyrène, l’outil pointeur reste dans le champ de vision de suivi, afin de vérifier la visibilité et l’accessibilité efficace au cours des expériences.

Figure 5
figure 5  : modèle de polystyrène de le cerveau utilisé pendant la phase de conception préliminaire. La tête de mannequin en polystyrène, coupée correctement pour imiter les dimensions du cerveau de boeuf, a été utilisée pour choisir le positionnement des modèles sphère de verre dans le cerveau. Six patrons triangulaires des sphères, d’un diamètre de 3 mm, ont été implantés dans le modèle en polystyrène, comme illustré dans l’image, c'est-à-dire trois modèles sur la droite et trois sur les hémisphères du cerveau gauche. < un href="//ecsource.jove.com/files/ftp_ upload/55798/55798fig5large.jpg » target = « _blank » > cliquez ici pour visionner une version agrandie de cette figure.

  1. préparation fantôme agar
    Remarque : ces étapes permettent de préparer un fantôme de laboratoire faits agar à utiliser pour les procédures d’étalonnage (point 6.1).
    1. Dans un bécher, diluer 100 g de glycérine et 30 g d’agar dans 870 g d’eau distillée. Remuez le mélange, tout en augmentant sa température jusqu'à 90 ° C, pendant 10-15 min. Versez le mélange pour remplir une 13 x 10 x 10 cm des aliments contenants et conservez-le au réfrigérateur au moins un jour.
    2. Enlever le fantôme de la gélose du réfrigérateur. Couleur 6 boules de verre avec un émail jaune (pour une meilleure visibilité) et insérez les 2 modèles de 3 boules de verre chaque dans la gélose fantôme (c.-à-d. un par la majeure partie de l’édifice), pas plus éloigné de la surface à 1 mm ( Figure 6).
    3. Pour la conservation quand pas en service, immerger le fantôme d’agar dans une solution d’eau et de chlorure de benzalkonium, à l’aide d’un récipient hermétique en plastique alimentaire et conservez-la au réfrigérateur.

Figure 6
figure 6  : fantôme de Agar. La figure montre le fantôme de gélose, dans lequel un modèle implanté des trois sphères de verre peint jaune (indiqué par les flèches noires) est clairement visible dans la partie inférieure. L’infobulle de pointeur, utilisé pour mesurer les positions de la sphère au cours de la phase d’étalonnage, est également montré près le fantôme. s’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

2. préparation du cerveau de boeuf et la fixation

  1. acquérir le cerveau de boeuf ex vivo de la food standard chaîne d’approvisionnement. Transporter sur glace (pour la conservation). En général, comme en l’espèce, le cerveau ex vivo est mis à disposition après avoir été enlevé de l’animal.
  2. Enlever le cerveau de la glace et le placer dans une hotte aspirante. Gardez-le dans la hotte pour les étapes de préparation ultérieure. Isoler les hémisphères cérébraux, en séparant le cervelet, tronc cérébral, mésencéphale et pons, avec une lame chirurgicale, coupant à travers les structures sur la surface ventrale du cerveau.
  3. Le mannequin polystyrène en utilisant comme référence pour le positionnement, l’implant 6 motifs triangulaires de 3 sphères de chaque dans le cortex frontal, temporal et occipital lobe. S’assurer que les conditions prédéfinies (c'est-à-dire les distances de la surface et entre les sphères) sont remplies. Pour la visibilité, marquer les positions de toutes les sphères sur le cerveau de surface avec un tissu vert marquage colorant pour histologie ( Figure 7).
  4. Plonger le cerveau en 10 % tamponnée solution de formol. Utiliser un récipient en plastique pour les pièces anatomiques ( Figure 8). Laisser le cerveau dans le conteneur avec formol pendant au moins 3 semaines, jusqu'à ce que le processus de fixation est terminé.
    ATTENTION : le formol est une substance chimique toxique et doit être manipulé avec soin ; règlements spécifiques peuvent également s’appliquer, par exemple nous OSHA Standard 1910.1048 App. A.

Figure 7
figure 7  : préparation de cerveau de boeuf et implantation des sphères verre. Le cerveau de boeuf est préparé par un expert légiste en enlevant les parties anatomiques en excès et ensuite implanter les patrons de sphère de verre, selon la configuration précédemment conçue (une). Les positions de la sphère sont ensuite marquées avec un colorant vert sur la surface du cerveau (b). s’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Figure 8
figure 8  : fixation de cerveau de boeuf dans du formol. Le cerveau de boeuf avec les sphères de verre implanté est immergé dans une solution de formol 10 % mis en mémoire tamponné à l’intérieur d’un conteneur en plastique pour les parties anatomiques (a). Après une période d’au moins 3 semaines, le processus de fixation est complet (b) et le cerveau peut être utilisé pour les acquisitions de l’image. s’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

3. acquisition d’images de M.

    ,
  1. extraire le cerveau de la solution de formol, lavage dans l’eau pendant la nuit, placez-le dans un contenant de plastique propre et sceller it.
  2. Mettre le récipient dans la bobine de M. head et placez-le dans le scanner de M..
  3. M.
  4. Perform scanne employant un scanner T M. 3 doté d’une bobine de tête 32 voies ( Figure 9). Acquisition de trois séries d’images à l’aide de T1, T2 et CISS séquences avec une résolution de 0.7x07x1 mm 3 et 0.5x0.5x1 mm 3 pour T1/T2 et séquences CISS, respectivement. Enregistrer les images de Monsieur de DICOM format en utilisant les outils du logiciel du scanner M..
  5. Après utilisation, plongez le cerveau dans du formol 10 % mis en mémoire tamponné. Transférer les images de M. acquis du scanner de Monsieur à un poste de travail traitement.

Figure 9
figure 9  : acquisition d’images de M.. Le cerveau de boeuf, scellé dans un récipient en plastique, est mis en 3 T M. scanner pour les acquisitions d’image Monsieur. s’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

4. définition des poses qualitatives pour les acquisitions d’image US

Remarque : cette procédure définit un ensemble de poses qualitatives, en ce qui concerne les images de Monsieur, où la visibilité des régions du cerveau qui contiennent clairement des structures anatomiques reconnaissables et tissus bien différenciés (matière particulièrement blanche et grise) est maximisée en images US.

  1. Ouvert en DICOM, les images de résonance format avec outil de logiciel Paraview (dorénavant, le logiciel de visualisation). Avoir un expert à visualiser les images tant que tranches et volume 3D, comme l’exige.
  2. Inspecter chaque image de Monsieur de dataset pour évaluer la visibilité des structures anatomiques et des tissus (p. ex. des ventricules latéraux, corps calleux, la substance grise des noyaux gris centraux).
  3. Sélectionner les sous-régions spatiales 3D de l’image de Monsieur de référence contenant les meilleures caractéristiques visuelles reconnaissables et environ définissent les plans sécants de visibilité maximale. Identifier 12 poses prédéfinies pour l’acquisition d’image US, chacun impliquant un important ensemble de caractéristiques visuelles.
  4. Pour chaque pose virtuelle, utilisez " Sources > cône " pour créer un cône 3D comme repère visuel. S’adapter à chaque hauteur de cône à 40 mm et de rayon 2 mm et positionner manuellement le cône dans le champ visuel 3D ( Figure 10). Enregistrer le complexe de M. image, régions 3D, plans et points de repère dans un fichier d’état de Paraview.

Figure 10
figure 10  : prédéfinis pose pour image US acquisition. Acquisition d’image les marqueurs en (a) montrent que les positions des 12 poses sélectionnées dans le MR 3D image trame à atteindre par l’opérateur pour les USA. (B) le MR plans correspondant à la pose sélectionnée sont divulgués ; le marqueur rouge représente le déplacement de poste (représenté dans l’espace image de Monsieur) sonde US en temps réel, jusqu'à ce qu’un des marqueurs blancs est atteinte et l’image souhaitée des États-Unis peut être acquis par le système. s’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

5. montage expérimental

  1. environnement et objectifs
    Remarque : cette étape décrit la préparation de l’installation et les instruments pour des expériences d’acquisition américaine.
    1. Poste a 50 x 50 x 30 cm en plastique du réservoir sur une table et remplissez-le avec de l’eau dégazée jusqu'à une hauteur de 15 cm. Position du mouvement système de suivi afin que le réservoir d’eau est visible en haut et tout à fait dans son champ de vision ( Figure 11 ) et connecter le dispositif de suivi de mouvement à l’ordinateur via le port USB.
    2. Pivotante pour calibrer le pointeur à l’aide de l’outil de suivi de la motion tracking système 34 procédez.
    3. Positionner le système ULA-OP sur la table et connectez-le à l’ordinateur via le port USB, en s’assurant que l’écran de l’ordinateur est clairement visible par le conducteur de sonde US. Positionner le poste de travail sur la table et s’assurer que son écran est clairement visible par le conducteur.
    4. Extraire le cerveau de la solution de formol et lavez-le à l’eau. Immobiliser sur une plaque de résine synthétique, à l’aide de segments de sewing thread et adhésif bandes ( Figure 12).
    5. Plonger la plaque avec le cerveau dans le réservoir et vérifier que tout l’espace de travail autour du cerveau s’inscrit dans le champ de vision du tracker motion, en utilisant le pointeur et le logiciel outil de suivi.

Figure 11
figure 11  : configuration de la les acquisitions expérimentales dont le système de suivi de mouvement. Le suivi de capteur de mouvement est placé au-dessus du réservoir d’eau dans lequel est plongé le cerveau de boeuf, afin que la cible et la sonde avec les marqueurs réfléchissants serrés s’inscrivent entièrement dans son champ de vision de mesure. < un href="//ecsource.jove.com/files/ftp_upload/55798/55798fig11large.jpg » target = « _blank »ormation de la motion tracking système de l’espace à l’espace image de Monsieur. s’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

7. acquisition par ultrasons

NOTE : les routines de logiciels en Python pour Paraview, pour la procédure de visualisation en temps réel, sont disponibles en open source à https://bitbucket.org/unipv/denecor-tracking.

  1. Acquisition d’US images des poses prédéfinies
    1. fixer les marqueurs sur la sonde américaine et exécuter la procédure de calibrage (Sections 5.3 et 6.1). Positionner le cerveau et d’exécuter la procédure d’étalonnage (Sections 5.1 et 6.2).
    2. Recueillir les deux paramètres de transformation rigide (U.S.-à-marqueur et motion tracker-à-MR) calculé à l’étape 6.1.5 et 6.2.3 et transférez ces fichiers dans le dossier de la procédure de visualisation en temps réel mises en œuvre en Python et la visualisation logiciel ( Figure 10 b).
    3. Commencer la procédure de visualisation en temps réel en utilisant le logiciel de visualisation (voir le code source ouvert) et vérifier que la position réelle de la sonde américaine s’affiche correctement ( Figure 17).
    4. Démarrer l’application de journalisation pour enregistrer la position de la sonde. Correspondre à chaque position qualitativement prédéfinie, telle qu’affichée dans le logiciel de visualisation, avec la sonde américaine et acquérir l’image correspondante avec le système ULA-OP (étape 5.2.3) manuellement. Arrêter les deux demandes et transférer toutes les images d’US au format ULA-OP et motion fichiers journaux tracker au poste de travail.

Figure 17
figure 17  : Acquisition d’US images des poses prédéfinies. L’opérateur déplace la sonde US pour atteindre les poses prédéfinies ; la procédure est pris en charge en temps réel par une routine de Python, qui montre la position de la sonde sur l’image de M. 3D du cerveau sur l’écran du poste de travail, en utilisant le logiciel de visualisation. s’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

  1. acquisition de dessin à main levée, se déplaçant de poses avec des sondes linéaires d’US pour la reconstruction de l’image 3D
    Remarque : les étapes suivantes sont destinés à être linéaire, sondes US seulement et permettent l’acquisition de séquences de 2D plane US images qui , ainsi que de positionnement des données provenant du système de suivi de mouvement, sont nécessaires pour la reconstruction du volume 3D.
    1. Fixer les marqueurs sur la sonde américaine et exécuter la procédure de calibrage (Sections 5.3 et 6.1). Positionner le cerveau et d’exécuter la procédure d’étalonnage (Sections 5.1 et 6.2).
    2. Positionner manuellement la sonde US à la posture initiale prévue (p. ex. l’extrémité frontale de chaque hémisphère). Démarrer l’acquisition de chaque séquence d’images US avec le système ULA-OP (étape 5.2.3) et l’application de journalisation pour l’enregistrement de position sonde.
    3. Appliquer un mouvement lent, à main levée à la sonde américaine vers la pose finale prévue (p. ex. l’extrémité distale de chaque hémisphère du cerveau). Arrêter l’acquisition d’images avec le système ULA-OP et arrêter le suivi de la sonde. Mouvement fichiers journaux tracker au poste de travail et de transférer toutes les images au format ULA-OP US.

8. Post-traitement et visualisation

  1. post-traitement des séquences à la volée nous image
    Remarque : cette procédure est implémentée en langage de programmation de MATLAB et est appliquée à chaque séquence à la volée d’images 2D d’US dans le po-ULA format, pour produire des images 3D complets.
    1. Charge la séquence des États-Unis images dans le format de ULA-OP. Correspondre à la séquence d’images US avec les fichiers journaux de motion tracker. Extraire une séquence des positions chronométrées de fichiers journaux qui sont inclus dans l’intervalle temporel allant dès le début de la fin du processus d’acquisition, tel qu’enregistré par le système ULA-OP.
    2. Calculer le moment exact de chaque image US dans la séquence en utilisant les paramètres enregistrés par le système ULA-OP.
    3. Calculer la position associée à chaque image US dans la séquence, par interpolation entre les deux postes plus proche chronométrés, enregistrées par le système de suivi de mouvement. Utiliser une interpolation linéaire entre les vecteurs de translation et interpolation linéaire sphérique (SLERP) entre deux relèves, exprimée en quaternions.
      NOTE : Assumer l’image US médian dans la séquence - c'est-à-dire l’image à la position que le meilleur partitionne la séquence en deux moitiés de longueur égale (environ) - comme une référence pour la définition de la trame d’image 3D US.
    4. Appliquer une compression logarithmique, normaliser l’image à son maximum et d’appliquer un seuil (en général-60 dB) pour chaque avion dans l’image US.
    5. En ce qui concerne le cadre de référence, calculer et appliquer une transformation spatiale relative à chacune des autres images dans l’ordre pour obtenir un ensemble de plans dans l’espace situé US.
    6. Appliquer une routine d’interpolation linéaire à la structure des avions dans l’espace situé à produire un tableau 3D cartésiens de voxels. Enregistrer les cartésiennes 3D tableau de voxels dans un fichier de .vtk et d’enregistrer les horodateurs d’intervalle qui correspondent au moment de l’acquisition.
  2. De post-traitement d’autres images US (séquences de pas à main levées)
    Remarque : la procédure suivante est appliquée à chaque image US au format ULA-OP sauf aux séquences à la volée (article 8.1).
    1. Charge aux États-Unis l’image dans le format ULA-OP. Appliquer une compression logarithmique, normaliser l’image à son maximum et d’appliquer un seuil (en général-60 dB) pour chaque avion dans l’image US.
    2. Pour 3D images US s’appliquent uniquement, une routine d’interpolation linéaire (c'est-à-dire conversion de fréquence) à la structure des avions dans l’espace situé à produire un tableau 3D cartésiens de voxels.
    3. Enregistrer le plan de l’image ou le tableau 3D cartésiens de voxels dans un fichier .vtk, enregistrant les horodateurs d’intervalle qui correspondent au moment de l’acquisition.
  3. Images de l’enregistrement d’US
    Remarque : cette section décrit les procédures pour effectuer l’inscription définitive des Etats-Unis et M. images, en utilisant les deux transformations calculé au cours des étapes précédentes de calibrage et les données de position de la sonde américaine a enregistré au cours de l’acquisition. Les routines de logiciels en langage de programmation pour enregistrement de nous images MATLAB sont disponibles en open source à https://bitbucket.org/unipv/denecor-transformations.
    1. Charger l’image US au format .vtk.
    2. Correspond à la synchronisation de l’image des Etats-Unis avec les fichiers journaux de motion tracker. Extraire une séquence des positions chronométrées de fichiers journaux qui sont inclus dans l’intervalle temporel allant dès le début de la fin du processus d’acquisition, tel qu’enregistré dans l’image de .vtk.
    3. Calculer une position moyenne pour l’image des Etats-Unis. Utilisez moyenne linéaire de vecteurs de translation et appliquez l’algorithme décrit dans référence 35 pour les rotations, exprimée en quaternions.
    4. Charger la transformation américain-à-marqueur qui correspond à l’image spécifique des Etats-Unis. Charger de la transformation de traqueur-à-MR motion qui correspond à l’image spécifique des Etats-Unis et de l’image de Monsieur de choix.
    5. Utiliser la position moyenne ainsi que les deux transformations ci-dessus pour calculer la transformation d’enregistrement rigide US-à-M. et enregistrer ce dernier en différents formats, y compris la traduction et les angles d’Euler qui permettent de visualiser l’image américaine dans le cadre d’image de Monsieur de choix.
  4. Visualisation d’images d’US enregistrés
    Remarque : ce sont les dernières étapes pour visualiser les images américaines et M. acquis et de leur montrer après superposition dans le logiciel de visualisation, à l’aide de la précédemment calculée transformations.
    1. Lancez le logiciel de visualisation et charger l’image de Monsieur de choix. Charger toutes les images d’US. Pour chaque image US, créer une transformation Paraview et appliquer la transformation d’enregistrement américain-à-MR calculée ( Figure 18) pour les données d’image.

9. Modèles de calibrage et de Transformations

Remarque : cette section décrit les détails mathématiques des techniques d’étalonnage et de transformation utilisées dans le protocole présenté. Le protocole expérimental comporte quatre différents cadres de référence qui doivent être correctement combiné : 1) la trame d’image US, qui dépend de ces deux caractéristiques physiques de la sonde américaine et la configuration du scanner, qui associe des coordonnées spatiales (x y, z) pour chaque voxel en une image US (pour l’uniformité, toutes les images planaires 2D sont supposés pour avoir y = 0) ; 2) l’image du marqueur (M), qui est inhérente à l’outil marqueur passif qui se bloque à la sonde américaine (Section 6.1) ; 3) le cadre motion Tracking System (TS), qui est inhérente à l’instrument de suivi ; 4) la trame d’image (MRI) Monsieur, qui est définie par le scanner, qui associe des coordonnées spatiales (x, y, z) pour chaque voxel dans une image de Monsieur. Pour la commodité et la simplicité de la notation, les procédures décrites dans cette section sont décrits à l’aide de matrices de rotation (c'est-à-dire les matrices de cosinus direction) et non les quaternions 36.

  1. De US à M frame
    Remarque : la procédure d’étalonnage expérimental à la Section 6.1 produit les renseignements suivants : 1) postes 3D (p 1, …, p 6) TS des 2 modèles de 3 sphères chaque, inclus dans le fantôme de la gélose et mesurés dans le cadre de traqueur de mouvement ; 2) des positions de chacun des deux modèles de mêmes 3D (p 1, …, p 3) nous et (p 4, …, p 6) U.S. mesurée dans chacun les deux américains images acquises ; 3) une transformation (R M > TS, t M > TS), où R est une matrice de rotation et t est un vecteur de translation, mesuré par l’instrument de positionnement, qui décrit la position relative de l’outil marqueur passif (mesurées par le système de suivi de mouvement tous les rotations sont signalées comme les quaternions, qui doivent être traduits dans des matrices de rotation).
    1. Appliquer l’algorithme dans le renvoi de 37 à chacune des deux paires de listes (p 1, …, p 3) nous, (p 1, …, p 3) TS et (p 4, …, p 6) nous, (p 4, …, p 6) TS, pour obtenir deux les transformations de type (R U.S. > TS, t U.S. > TS), correspondant chacun à un particulier nous l’image spatiale. Transformation
      1. calculer une estimation de la direction désirée (R U.S. > M, t U.S. > M) de chacune des transformations ci-dessus de la façon suivante :
        R U.S. > M = R T M > TS R U.S. > TS
        t U.S. > M = R T M > TS (t U.S. > TS - t M > TS)
        Remarque : les deux estimations sont combinées en faisant la moyenne arithmétique des vecteurs t U.S. > M et en moyenne les matrices de rotation R U.S. > M en utilisant la méthode de référence 35, après avoir d’abord traduit des matrices en les quaternions et les quaternions qui en résulte dans une matrice de rotation.
  2. De motion tracking système d’armature de MRI
    Remarque : la procédure à la Section 6.2 produit les renseignements suivants : 1) postes 3D (p 1, …, p 18 ) TS des 6 modèles de 3 sphères inclus dans le cerveau de boeuf, mesurée dans le cadre du système ; de suivi de mouvement 2) 3D postes des 18 mêmes sphères (p 1, …, p 18) MRI mesurée dans l’image cible de Monsieur.
    1. Calculer directement la transformation souhaitée (R TS > MRI, t TS > MRI) en appliquant l’algorithme dans 37 aux deux listes des postes.
  3. De US au cadre de MRI
    Remarque : The US image acquisition procédure décrite à la Section 7 produit des images pour lesquelles, après avoir résolu les horodateurs associés contre la motion tracker log-files, la transformation ( R M > TS, t M > TS) est calculée directement.
    1. Calculer la transformation souhaitée de la manière suivante :
      R U.S. > MRI = R TS > MRI R M > TS R U.S. > M
      t U.S. > MRI = R TS > MRI(RM>TStUS>M + tM>TS) + t TS > IRM

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Le principal résultat obtenu via le protocole décrit est la validation expérimentale d’une procédure d’évaluation efficace et reproductible pour la 2D et les fonctionnalités d’imagerie 3D nous sonde prototypes basés sur la technologie CMUT dans l’application prospective de cerveau d’imagerie. Après la mise en œuvre de toutes les étapes du protocole décrit, un expert peut alors appliquer les fonctions de logiciel de visualisation (p. ex. orientation libre tranchage, extraction de sous-ensemble, interpolation de volume, etc.) afin de comparer le contenu visuel d’enregistrés Images d’US avec une image de M. cible. En particulier, la qualité des images obtenues et en comparaison directe avec l’étalon-or de l’IRM, représente un témoignage premier et important pour le potentiel de la technologie CMUT dans ce domaine.

Comme un exemple d’une possible comparaison visuelle, la Figure 18 illustre deux tranches de volumétriques images acquises avec la sonde CMUT nous et la sonde linéaire-tableau piézoélectrique, respectivement, en superposition de la même tranche correspondante à un Image de M. pondérées en T2. Images pondérées en T2 de Monsieur s’est avéré plus efficace en termes de visibilité des fonctionnalités désirées dans ces expériences et par conséquent ont été choisies comme références pour la superposition. Les deux images US sur la figure ont été acquises à la même fréquence de 9 MHz. Comme on le voit sur la Figure 18, l’image obtenue avec la sonde CMUT a meilleure résolution et un contraste ; aussi, les caractéristiques visuelles sont mieux définis et les structures des sillons et des circonvolutions apparaissent plus clairement, montrant que la sensibilité plus élevée et une bande passante plus large de la sonde CMUT atteignent des performances améliorées.

Figure 18
Figure 18 : Superposition de tranches d’image enregistrés américains et M.. La figure montre l’enregistrement obtenu de Monsieur et nous les images acquises avec le CMUT (a, c, e, g) et piézoélectriques (b, d, f, h) linéaire multiéléments. Aux alinéas a et b la reconstitution 3D dataset contours apparaissent dans l’espace de Monsieur et la tranche 2D sélectionnée est en surbrillance. Panneaux (c, e, g) et (d, f, h) présenter les tranches superposées d’États-Unis et Monsieur à accroître la transparence pour montrer la correspondance des caractéristiques dans les deux images. S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Autres exemples comparatifs, associés à des images volumétriques 3D, sont représentés dans la Figure 19 et 20 Figure. La figure 19 montre deux images 3D, celle obtenue avec la sonde piézoélectrique linéaire après reconstruction volumétrique, et un autre obtenus avec la sonde piézoélectrique balayé mécaniquement pour l’imagerie 3D. La figure 20 montre la reconstruction volumétrique 3D des images acquises avec la sonde CMUT. La structure 3D de la circonvolutions et sillons du cortex cérébral sont clairement visibles dans les trois cas, bien que dans les volumes obtenus avec la sonde CMUT les surfaces extérieures sont beaucoup plus visible et mieux définies.

Figure 19
Figure 19 : Images 3D volumétriques d’US acquis avec les sondes piézoélectriques. Comparaison entre des images 3D d’US acquis avec la sonde balayée mécaniquement (a, c), ou reconstruit à partir des images 2D planes acquis à main levée avec la sonde linéaire en utilisant la motion tracker positionnement données (b, d). (A, b) les positions de ces volumes sont indiqués dans la trame d’image 3D de Monsieur, à l’aide de contours. S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Figure 20
Figure 20 : Reconstruction 3D images d’US acquises avec la sonde CMUT. Les plans de l’image 2D acquis à main levée par balayage du cerveau de boeuf avec la sonde CMUT ont servi à reconstituer des volumes 3D, comme indiqué en (c et d). (A, b) les contours de ces volumes sont représentés dans le cadre d’image 3D de Monsieur. S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Comme un produit important et supplémentaire, les expériences a généré un ensemble de données multi-sonde prolongée des images d’américains qui comprend le positionnement et les données d’enregistrement par rapport à des images de résonance différentes de la même cible. Figure 21 résume toutes les images 3D dans le dataset en montrant les boîtes englobantes de chacun d’eux en superposition à l’image même de Monsieur.

Figure 21
Figure 21 : Acquisition 3D dataset US dans le cadre de référence d’image M.. La figure montre l’image de M. 3D du cerveau et des lignes superposées de la 3D US ensembles de données acquises avec le piézo-électrique balayé mécaniquement (a), tableau linéaire piézoélectrique (b) et CMUT (c) sondes. (B) et (c), les images 3D ont été obtenus par le biais de reconstruction volumétrique. S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Dans l’ensemble, ces résultats démontrent l’efficacité du protocole décrit, qui nous a permis l’acquisition et l’enregistrement correct de 2D/3D images dans le cadre de référence de l’image 3D de Monsieur du même cerveau bovin (Figure 18, 19), et de reconstituer les volumes à partir des images 2D US acquises en mode main levée (Figures 19 d, 20).

À l’aide d’outils logiciels décrits, experts peuvent visuellement explorer les caractéristiques les plus importantes en 2D et 3D images de spécimens biologiques. Des exemples significatifs de l’évaluation qualitative de la sonde CMUT performance d’imagerie montrent en comparaison de ceux des autres sondes américaines (voir Figure 18, Figure 19 et Figure 20) et en référence à une image de M. cible (voir Figure 18). D’autres analyses sophistiquées sont possibles sur les ensembles de données image obtenue, soit par des experts humains ou par l’application d’autres techniques de logiciel, telles que celles pour le numérique, affiné US-M. enregistrement d’images 3D. Ces logiciels techniques seront également adressée à l’avenir des œuvres.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Plusieurs travaux ont été présentés dans la littérature décrivant des techniques qui sont similaires ou liés au protocole présenté. Ces techniques sont également basées sur l’utilisation des cibles réalistes, y compris les animaux fixe ou les cerveaux de cadavre, mais ils sont principalement conçus pour l’essai des méthodes d’enregistrement numérique de toutes sortes.

Le protocole décrit ici, cependant, a pour but spécifique de tests sondes US dans différentes configurations dans les premiers stades de développement et, de ce fait, il répond à une exigence fondamentale de la reproductibilité des acquisitions, à savoir sur le même spécimen biologique et poses comparables. Le protocole présenté emprunte de nombreux aspects des techniques existantes ci-dessus et les assemble dans un arrangement différent à cet effet.

Parmi les leçons qui ont été tirés lors de la conception des protocoles et l’expérimentation, les procédures d’étalonnage sont de loin l’aspect le plus important. Malgré les nombreuses améliorations adoptées, l’erreur globale spatiale de l’ensemble des transformations après que étalonnage est à présent l’ordre de 1 à 1,5 mm. Cette erreur n’est pas due à un manque de précision du tracker motion (qui a une précision documentée dans l’ordre de 0,3 mm), mais plutôt à la difficulté d’acquisition de lecture spatiale précise sur un spécimen biologique qui conserve une certaine souplesse.

En revanche, dans notre expérience, la précision temporelle de synchronisation n’est pas un aspect critique. En fait, le taux d’acquisition des données de position par le dispositif de suivi de mouvement est environ un ordre de grandeur supérieur à la motion de la main de l’homme en train de réaliser une posture stable. De ce fait, le temps de moyennes calculées dans le protocole sont acquis pour une précision supplémentaire. Un autre aspect qui est particulièrement efficace est la définition de poses virtuels. Dans les expériences effectuées, grâce à la routine de repérage visuel en temps réel, opérateurs pourraient conduire à l’acquisition des images comparables pour tous les douze poses virtuels de chacune des trois sondes US sans beaucoup d’efforts et en soutenant des structures mécaniques.

Une éventuelle modification du protocole, à adopter à l’avenir, est à l’aide de méthodes d’étalonnage différents et améliorées, qui devraient se fonder sur une boucle de plus près et les commentaires des transformations spatiales. Dans le présent formulaire, en effet, le protocole exige important post-traitement des lectures spatiales pour calculer les matrices de transformation. Bien que cette activité peut être réalisée dans des dizaines de minutes et ne nécessite pas d’expériences à mettre en mode hors connexion, ce traitement donne des résultats qui ne peuvent pas être visualisés immédiatement, lors de l’exécution de l’étalonnage. À cet égard, une rétroaction visuelle renforcée et éventuellement en temps réel de l’étalonnage obtenue pourrait être d’une grande aide dans la réalisation d’une plus grande précision.

Pour la mise en œuvre effective du protocole, il est fondamental de disposer d’instruments qui sont raisonnablement ouverts et permettent les plusieurs intégrations nécessaires. Par exemple, la possibilité réelle de synchroniser les signaux provenant de différentes sources - assurées par l’accès aux données de synchronisation interne fournies par le système ULA-OP dans ce cas - est cruciale pour étalonnage et après les activités de traitement d’image.

Un autre facteur important est le logiciel. Bien qu’aucun instrument de logiciels majeurs ont été nécessaires pour les expériences, un certain nombre de routines C++ et MATLAB, ainsi que des modules basés sur Python pour Paraview, s’est avérée essentielle pour un certain nombre de tâches cruciales, comme l’étalonnage, suivi de mouvement commentaires sur les prédéfinis poses et post-traitement pour la reconstruction de l’image 3D. Une fois de plus, avoir accès aux données de bas niveau produites par les instruments est extrêmement important pour la création de ces composants logiciels.

Enfin, le choix de la bonne cible pour l’imagerie est très important. Plusieurs options alternatives impliquant la réalisation de fantômes synthétiques étaient considérés comme au préalable et, dans notre expérience, toutes ces alternatives semblent être sous-optimal en comparaison avec le choix très rentable de cerveau de boeuf fixé dans du formol. Cet objectif assure bien meilleur réalisme et, avec des soins appropriés, préservation indéfinie dans le temps.

En conclusion, la réalisation des résultats expérimentaux présentés, avec le dataset d’images multimodales 3D comme un résultat permanent et pertinent, est, à notre avis, le produit d’une stratégie efficace d’intégration technique qui doit être assemblé par morceaux, Grâce à une analyse attentive des nombreux aspects implicites et conçue en ce qui concerne les procédures et les instruments en cause.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Les auteurs déclarent qu’ils n’ont aucun intérêt financier concurrentes.

Acknowledgments

Ce travail a été partiellement soutenu par les gouvernements nationaux et l’Union européenne via le projet ENIAC JU DeNeCoR sous le numéro 324257 de la Convention de subvention. Les auteurs tiens à remercier le professeur Giovanni Magenes, Prof. Piero Tortoli et Dr Giosuè Caliano pour leur précieux soutien et supervision des commentaires perspicaces qui ont rendu ce travail possible. Nous sommes également reconnaissants au Prof. Egidio D'Angelo et son groupe (BCC Lab.), ainsi que de la Fondazione Istituto Neurologico C. Mondino, permettant le suivi de mouvement et de l’instrumentation de Monsieur et à Giancarlo Germani pour les acquisitions de Monsieur. Enfin, nous tenons à remercier Dr Nicoletta Caramia, Dr Alessandro Dallai et Mme Barbara Mauti pour leur précieux soutien technique et M. Walter Volpi pour fournir le cerveau de boeuf.

Materials

Name Company Catalog Number Comments
ULA-OP University of Florence N/A Ultrasound imaging research system
3D imaging piezeoelectric probe Esaote s.p.a. 9600195000 Mechanically-swept 3D ultrasound probe, model BL-433
Linear-array piezoelectric probe Esaote s.p.a. 122001100 Ultrasound linear array probe, model LA-533
CMUT probe University Roma Tre N/A Ultrasound linear array probe based on CMUT technology
MAGNETOM Skyra 3T MR scanner Siemens Healthcare N/A MR scanner
Head coil Siemens Healthcare N/A 32-channel head coil for MR imaging
NDI Polaris Vicra NDI Medical 8700335001 Optical motion tracking system
Pointer tool NDI Medical 8700340 Passive pointer tool with 4 reflecting markers
Clamp-equipped tool NDI Medical 8700399 Rigid body with 4 reflecting markers and a clamp to be connected to the US probe handle
Bovine brain N/A N/A Brain of an adult bovine, from food suppliers
Formalin solution N/A N/A 10% buffered formalin solution for bovine brain fixation - CAUTION, formalin is a toxic chemical substance and must be handled with care; specific regulations may also apply (see for instance US OSHA Standard 1910.1048 App A)
Plastic container for anatomical parts N/A N/A Cilindrical plastic container with lid
Glass spheres N/A N/A 3 mm diameter spheres of Flint glass
Agar N/A N/A 30 g, for phantom preparation
Glycerine AEFFE Farmaceutici A908005248 100 g, for phantom preparation
Distilled water Solbat Gaysol 8027391000015 870 g, for phantom preparation
Beaker N/A N/A Beaker used for the diluition of glycerine and agar in distilled water
Lysoform Lever 8000680500014 A benzalkonium chloride and water solution was used for the agar phantom preservation
Polystyrene mannequin head N/A N/A Polyestirene model which was cutted and used to design the configuration of spheres'patterns
Green tissue marking dye for histology N/A N/A Colour used to mark the glass spheres' positions on the bovine brain surface
Yellow enamel N/A N/A Enamel used to colour the glass spheres implanted in the agar phantom
Water tank N/A N/A 50x50x30 cm plastic tank filled with degassed water up to a 15 cm height 
Mechanical arm Esaote s.p.a. N/A Mechanical arm clamped to the water tank border and used to held the probe in fixed positions
Plate of synthetic resin N/A N/A Plate used as a support for the bovine brain positioning in the water tank
Sewing threads N/A N/A Sewing thread segments used to immobilize the brain on the resin plate
Adhesive tape N/A N/A Adhesive tape used to fix the sewing thread extremities onto the resin plate
Plastic food container N/A N/A Sealed food container used for the agar phantom
Notebook Lenovo Z50-70 Lenovo  Z50-70, Intel(R) Core i7-4510U @ 2.0 GHz, 8 GB RAM
Workstation Dell Inc. T5810 Intel(R) Xeon(R) CPU E3-1240v3 @ 3.40 GHz, 16 GB RAM
Matlab The MathWorks R2013a Software tool, used for space transformation computation and 3D reconstruction from image planes
Paraview Kitware Inc. v. 4.4.1 Open-source software for 3D image processing and visualization
NDI Toolbox - ToolTracker Utility NDI Medical v. 4.007.007 Software for marker position visualization and tracking in the NDI Polaris Vicra measurement volume
C++ data-logging software NDI Medical v. 4.007.007 Software for marker position recording on a text log file
ULA-OP software  University of Florence N/A Software for real-time display and control of the ULA-OP system

DOWNLOAD MATERIALS LIST

References

  1. Matrone, G., Savoia, A. S., Terenzi, M., Caliano, G., Quaglia, F., Magenes, G. A Volumetric CMUT-Based Ultrasound Imaging System Simulator With Integrated Reception and µ-Beamforming Electronics Models. IEEE Trans. Ultrason. Ferroelectr. Freq. Control. 61 (5), 792-804 (2014).
  2. Pappalardo, M., Caliano, G., Savoia, A. S., Caronti, A. Micromachined ultrasonic transducers. Piezoelectric and Acoustic Materials for Transducer Applications. , Springer. 453-478 (2008).
  3. Oralkan, O. Capacitive micromachined ultrasonic transducers: Next-generation arrays for acoustic imaging? IEEE Trans. Ultrason. Ferroelectr. Freq. Control. 49 (11), 1596-1610 (2002).
  4. Savoia, A., Caliano, G., Pappalardo, M. A CMUT probe for medical ultrasonography: From microfabrication to system integration. IEEE Trans. Ultrason. Ferroelectr. Freq. Control. 59 (6), 1127-1138 (2012).
  5. ENIAC JU project DeNeCoR website. , http://www.denecor.info (2017).
  6. Ramalli, A., Boni, E., Savoia, A. S., Tortoli, P. Density-tapered spiral arrays for ultrasound 3-D imaging. IEEE Trans. Ultrason. Ferroelectr. Freq. Control. 62 (8), 1580-1588 (2015).
  7. Lazebnik, R. S., Lancaster, T. L., Breen, M. S., Lewin, J. S., Wilson, D. L. Volume registration using needle paths and point landmarks for evaluation of interventional MRI treatments. IEEE Trans. Med. Imag. 22 (5), 653-660 (2003).
  8. Dawe, R. J., Bennett, D. A., Schneider, J. A., Vasireddi, S. K., Arfanakis, K. Postmortem MRI of human brain hemispheres: T2 relaxation times during formaldehyde fixation. Magn. Reson. Med. 61 (4), 810-818 (2009).
  9. Chen, S. J., et al. An anthropomorphic polyvinyl alcohol brain phantom based on Colin27 for use in multimodal imaging. Mag. Res. Phys. 39 (1), 554-561 (2012).
  10. Farrer, A. I. Characterization and evaluation of tissue-mimicking gelatin phantoms for use with MRgFUS. J. Ther. Ultrasound. 3 (9), (2015).
  11. Choe, A. S., Gao, Y., Li, X., Compton, K. B., Stepniewska, I., Anderson, A. W. Accuracy of image registration between MRI and light microscopy in the ex vivo brain. Magn. Reson. Imaging. 29 (5), 683-692 (2011).
  12. PVA brain phantom images website. , http://pvabrain.inria.fr (2017).
  13. Gobbi, D. G., Comeau, R. M., Peters, T. M. Ultrasound probe tracking for real-time ultrasound/MRI overlay and visualization of brain shift. Int. Conf. Med. Image Comput. Comput. Assist. Interv (MICCAI) n. 920, 927 (1999).
  14. Ternifi, R. Ultrasound measurements of brain tissue pulsatility correlate with the volume of MRI white-matter hyperintensity. J. Cereb. Blood Flow. Metab. 34 (6), 942-944 (2014).
  15. Unsgaard, G. Neuronavigation by Intraoperative Three-dimensional Ultrasound: Initial Experience during Brain Tumor Resection. Neurosurgery. 50 (4), 804-812 (2002).
  16. Pfefferbaum, A. Postmortem MR imaging of formalin-fixed human brain. NeuroImage. 21 (4), 1585-1595 (2004).
  17. Schulz, G. Three-dimensional strain fields in human brain resulting from formalin fixation. J. Neurosci. Meth. 202 (1), 17-27 (2011).
  18. Ahrens, J., Geveci, B., Law, C. ParaView: An End-User Tool for Large Data Visualization. Visualization Handbook. , Elsevier. (2005).
  19. Cloutier, G. A multimodality vascular imaging phantom with fiducial markers visible in DSA, CTA, MRA, and ultrasound. Med. Phys. 31 (6), 1424-1433 (2004).
  20. Boni, E. A reconfigurable and programmable FPGA-based system for nonstandard ultrasound methods. IEEE Trans. Ultrason. Ferroelectr. Freq. Control. 59 (7), 1378-1385 (2012).
  21. Bagolini, A. PECVD low stress silicon nitride analysis and optimization for the fabrication of CMUT devices. J. Micromech. Microeng. 25 (1), (2015).
  22. Savoia, A. Design and fabrication of a cMUT probe for ultrasound imaging of fingerprints. Proc. IEEE Int. Ultrasonics Symp. , 1877-1880 (2010).
  23. Fenster, A., Downey, D. B. Three-dimensional ultrasound imaging. Annu. Rev. Biomed. Eng. 2, 457-475 (2000).
  24. Matrone, G., Ramalli, A., Savoia, A. S., Tortoli, P., Magenes, G. High Frame-Rate, High Resolution Ultrasound Imaging with Multi-Line Transmission and Filtered-Delay Multiply And Sum Beamforming. IEEE Trans. Med. Imag. 36 (2), 478-486 (2017).
  25. Matrone, G., Savoia, A. S., Caliano, G., Magenes, G. Depth-of-field enhancement in Filtered-Delay Multiply and Sum beamformed images using Synthetic Aperture Focusing. Ultrasonics. 75, 216-225 (2017).
  26. Boni, E., Cellai, A., Ramalli, A., Tortoli, P. A high performance board for acquisition of 64-channel ultrasound RF data. Proc. IEEE Int. Ultrasonics Symp. , 2067-2070 (2012).
  27. Matrone, G., Savoia, A. S., Caliano, G., Magenes, G. The Delay Multiply and Sum beamforming algorithm in medical ultrasound imaging. IEEE Trans. Med. Imag. 34, 940-949 (2015).
  28. Savoia, A. S. Improved lateral resolution and contrast in ultrasound imaging using a sidelobe masking technique. Proc. IEEE Int. Ultrasonics Symp. , 1682-1685 (2014).
  29. Gyöngy, G., Makra, A. Experimental validation of a convolution- based ultrasound image formation model using a planar arrangement of micrometer-scale scatterers. IEEE Trans. Ultrason. Ferroelectr. Freq. Control. 62 (6), 1211-1219 (2015).
  30. Shapoori, K., Sadler, J., Wydra, A., Malyarenko, E. V., Sinclair, A. N., Maev, R. G. An Ultrasonic-Adaptive Beamforming Method and Its Application for Trans-skull Imaging of Certain Types of Head Injuries; Part I: Transmission Mode. IEEE Trans. Biomed. Eng. 62 (5), 1253-1264 (2015).
  31. Salles, S., Liebgott, H., Basset, O., Cachard, C., Vray, D., Lavarello, R. Experimental evaluation of spectral-based quantitative ultrasound imaging using plane wave compounding. IEEE Trans. Ultrason. Ferroelectr. Freq. Control. 61 (11), 1824-1834 (2014).
  32. Alessandrini, M. A New Technique for the Estimation of Cardiac Motion in Echocardiography Based on Transverse Oscillations: A Preliminary Evaluation In Silico and a Feasibility Demonstration In Vivo. IEEE Trans. Med. Imag. 33 (5), 1148-1162 (2014).
  33. Ramalli, A., Basset, O., Cachard, C., Boni, E., Tortoli, P. Frequency-domain-based strain estimation and high-frame-rate imaging for quasi-static elastography. IEEE Trans. Ultrason. Ferroelectr. Freq. Control. 59 (4), 817-824 (2012).
  34. NDI Polaris Vicra optical tracking system website. , http://www.ndigital.com/medical/polaris-family (2017).
  35. Markley, F. L., Cheng, Y., Crassidis, J. L., Oshman, Y. Averaging quaternions. J. Guid. Cont. Dyn. 30 (4), 1193-1197 (2007).
  36. Dorst, L., Fontijne, D., Mann, S. Geometric Algebra for Computer Science. An Object-oriented Approach to Geometry. , A Volume in the Morgan Kaufmann Series in Computer Graphics (2007).
  37. Horn, B. K. P. Closed-form solution of absolute orientation using unit quaternions. J. Opt. Soc. Am. A. 4 (4), 629-642 (1987).

Tags

Bio-ingénierie question 127 CMUT échographie 3D système d’imagerie cerveau IRM motion tracking bovine enregistrement d’image
Un protocole expérimental pour évaluer la Performance des nouvelles sondes ultrasons basés sur la technologie CMUT en Application à l’imagerie cérébrale
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Matrone, G., Ramalli, A., Savoia, A. More

Matrone, G., Ramalli, A., Savoia, A. S., Quaglia, F., Castellazzi, G., Morbini, P., Piastra, M. An Experimental Protocol for Assessing the Performance of New Ultrasound Probes Based on CMUT Technology in Application to Brain Imaging. J. Vis. Exp. (127), e55798, doi:10.3791/55798 (2017).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter