Le goulot d'étranglement pour la microscopie électronique 3D cellulaire est l'extraction de caractéristiques (segmentation) dans des cartes très complexes de densité 3D. Nous avons développé un ensemble de critères, qui fournit des précisions sur l'approche de segmentation (manuel, semi-automatique ou automatique) est le mieux adapté pour différents types de données, fournissant ainsi un point de départ pour la segmentation efficace.
Méthodes de microscopie électronique 3D modernes ont récemment permis analyse sans précédent dans l'organisation ultrastructurale 3D de cellules et de tissus, ce qui permet la visualisation de grandes machines macromoléculaires, tels que les complexes d'adhérence, ainsi que les structures d'ordre supérieur, tels que le cytosquelette et des organites cellulaires dans leur cellule respective et le contexte tissulaire. Compte tenu de la complexité inhérente des volumes cellulaires, il est essentiel de d'abord extraire les caractéristiques d'intérêt afin de permettre la visualisation, la quantification, et donc la compréhension de leur organisation en 3D. Chaque jeu de données est définie par des caractéristiques distinctes, par exemple, le rapport signal-sur-bruit, netteté (netteté) des données, l'hétérogénéité de ses fonctions, entassement des caractéristiques, la présence ou l'absence de formes caractéristiques qui permettent d'identifier facilement, et le pourcentage de la totalité du volume qu'une région d'intérêt spécifique occupe. Toutes ces caractéristiques doivent être considéréesau moment de décider sur l'approche à adopter pour la segmentation.
Les six ensembles de données ultrastructurale 3D différents présentés ont été obtenus par imagerie en trois différentes approches: la tomographie électronique teinté intégré de résine, d'ions focalisé BEAM et la microscopie électronique à balayage face-bloc de série (FIB-SEM, SBF-SEM) des échantillons légèrement colorées et fortement colorées , respectivement. Pour ces ensembles de données, quatre approches de segmentation différentes ont été appliquées: (1) le renforcement entièrement manuel modèle suivi uniquement par la visualisation du modèle, (2) le traçage manuel segmentation des données suivies par la fonte de surface, (3) des approches semi-automatiques suivies par le rendu de surface, ou des algorithmes de segmentation conçu sur mesure (4) automatisés suivis par la fonte de surface et de l'analyse quantitative. En fonction de la combinaison de caractéristiques d'ensemble de données, il a été constaté que généralement l'une de ces quatre approches catégoriques surpasse les autres, mais en fonction de la séquence exacte de critères, more d'une approche peut être couronnée de succès. Sur la base de ces données, nous proposons un système de triage qui permet de classer les objectifs caractéristiques des ensembles de données et des critères subjectifs personnels pour l'analyse des différents ensembles de données.
Traditionnellement, la microscopie électronique (EM) domaine a été divisé en 1) la branche de la biologie structurale à l'aide de haut et très haute résolution TEM, généralement combinées avec les données implicites ou explicites moyenne pour enquêter sur l'(3D) structure tridimensionnelle de complexes macromoléculaires avec une composition définie et généralement une taille relativement petite 1-4, et 2) la branche d'imagerie cellulaire dans lequel paysages cellulaires entières sont visualisés 1,5,6. Tandis que la branche structurelle de biologie a connu un développement spectaculaire au cours des quatre dernières décennies, la branche de la biologie cellulaire a été la plupart du temps limitée à deux dimensions, souvent sur des échantillons moins-que-optimale conservés. Seulement avec l'avènement de la tomographie électronique dans la dernière décennie a cellule biologique imagerie ultrastructurale élargi dans la troisième dimension 5,7, où la moyenne ne peuvent généralement pas être effectué comme les paysages cellulaires, et donc les caractéristiques d'intérêt, sont généralement unique.
Bien que les scènes cellulaires visualisées sont souvent capte le regard, une extraction efficace des éléments d'intérêt et l'analyse quantitative ultérieure de ces volumes cellulaires très complexes sont à la traîne, en partie parce que la composition de protéines précis est généralement inconnue, rendant donc difficile de les interpréter cellulaire volume 3D. À ce jour, une grande expertise biologique est souvent nécessaire pour interpréter les tomographies complexes, ou même pour identifier les régions importantes et des éléments essentiels dans le volume 3D. Comme une complication supplémentaire, la visualisation de volumes 3D est remarquablement non-trivial. Volumes 3D peuvent être considérés et donc visualisées sous forme de piles d'images 2D. Inspection tranche par tranche d'images 2D séquentielles réduit la complexité, mais il limite également dotées extraction et l'analyse quantitative ainsi les deux dimensions. Cependant, pour la plupart des objets 3D, la représentation des volumes 3D comme un simple empilement de plans consécutifs conduit à une incomplètes uned perspective biaisée en 3D la nature d'un système particulier. Modes alternatifs de l'inspection visuelle nécessitent soit rendu de volume ou de la prestation de surface, qui, étant donné la nature souvent dense d'un cellulaire volume peut facilement conduire à une vue obstruée d'objets imbriqués ou écraser un utilisateur tout à fait, ce qui rend la segmentation manuelle interactive difficile.
Pour remédier à ces obstacles, une grande variété d'extraction de fonction automatisée (segmentation) approches ont été développées qui sont généralement soit densimètres ou 8-10 base gradient. Cependant, ces méthodes ont tendance à segmenter le volume entier, quel que soit les zones ou caractéristiques présentent un intérêt pour l'expert, bien que certaines méthodes récentes peuvent cibler un élément spécifique d'intérêt tels que des filaments d'actine 11. De plus, les programmes d'exécution de segmentation automatique peuvent parfois aboutir à la production d'un grand nombre de sous-volumes (par exemple, lors de l'application des bassins versants immersion segmentation) qui ont souvent besoin d'être fusionnés manuellement dans comprenant l'ensemble caractéristique d'intérêt ou être soumis à une nouvelle segmentation. Cela est vrai en particulier pour les ensembles de données complexes et bondés, ainsi algorithmes informatiques les plus rendu sont incapables d'extraire uniquement les éléments d'intérêt avec fidélité, et les efforts de curation substantielles par un expert sont souvent nécessaires pour produire un volume segmenté souhaitée.
En outre, des solutions personnalisées à un problème très spécifique sont souvent publiés sous forme d'un document de réunion scientifique, avec peu ou pas l'accent sur ce qui les rend large et des outils complets accessibles aux chercheurs qui n'ont pas une connaissance approfondie des domaines des mathématiques, de l'informatique et / ou infographie. Un environnement logiciel de programmation personnalisable, contenant une gamme de bibliothèques d'analyse d'image, peut être un ensemble d'outils puissants permettant aux utilisateurs d'écrire efficacement leurs propres modules de segmentation précise. Cependant, cette approche nécessite posteformation ensive et une formation en informatique afin de profiter de ses nombreuses fonctionnalités ou les capacités d'analyse d'image. On peut travailler dans un tel environnement logiciel polyvalent pour certains ensembles de données où les caractéristiques sont plus rares, par exemple, en utilisant des approches à base de forme-puissants qui reposent sur la géométrie unique de «modèles» pour séparer les objets d'intérêt de leur entourage 12,13 .
Une foire variété de forfaits infographie de visualisation existent pour la segmentation manuel interactif et la construction de modèles. Certains paquets sont disponibles dans le commerce, tandis que d'autres sont d'origine académique et distribués gratuitement, tels que: l'Université de Californie à San Francisco Chimera 14, Université du Colorado MID 15, et de l'Université du Texas Austin VolumeRover 16. Cependant, le large éventail et la complexité des fonctions et capacités de ces programmes possèdent plus raide de la courbe d'apprentissage pour each. Certains programmes de visualisation fournissent des modèles géométriques simples, tels que des billes et des bâtonnets de différentes tailles, qui peuvent être placés dans les cartes de densité afin de créer un modèle simplifié du volume 3D complexe. Ces modèles permettent alors des mesures géométriques et volumétriques simples et donc aller au-delà de l'image "jolie". Un tel suivi manuel des objets fonctionne bien pour les volumes où seul un petit nombre d'objets doivent être retrouvés et extrait. Cependant, le développement récent de grand volume imagerie ultrastructural 3D utilisant la microscopie électronique à balayage d'un faisceau d'ions focalisé (FIB-SEM) de 17 à 20 ou la microscopie électronique à balayage de la face de bloc série (SBF-SEM) 21 présente la complication supplémentaire que la taille des données 3D ensembles peuvent aller de gigaoctets à des dizaines et des centaines de giga-octets, et même les téraoctets. Par conséquent, de tels volumes 3D sont pratiquement inaccessibles à l'extraction manuelle de fonction, et donc efficace feat semi-automatique guidé par l'utilisateurextraction ure sera l'un des goulots d'étranglement pour l'analyse efficace des volumes 3D dans un avenir prévisible.
Présenté voici quatre approches de segmentation différents qui sont couramment utilisés sur une large gamme de types d'images biologiques. Ces méthodes sont ensuite comparés pour leur efficacité pour différents types d'ensembles de données, ce qui permet une compilation en un guide pour aider les biologistes décident ce qui pourrait être la meilleure approche de segmentation pour l'extraction de caractéristiques efficace de leurs propres données. Comme les manuels d'utilisation détaillés sont disponibles pour la plupart des programmes décrits, le but n'est pas de rendre les utilisateurs potentiels connaissent l'un de ces paquets particuliers. Au lieu de cela, l'objectif est de démontrer les forces et les limites respectives de ces stratégies de segmentation différents en les appliquant à six par exemple des ensembles de données avec des caractéristiques différentes. Par cette comparaison, un ensemble de critères ont été développés qui sont soit basées sur les caractéristiques de l'image de l'objectifEnsembles de données 3D, tels que le contraste des données, la précision, cohue, et de la complexité, ou de la tige de considérations subjectives, comme l'objectif souhaité pour la segmentation, morphologie des fonctionnalités pour être segmentés, la densité de population des éléments d'intérêt, ce qui signifie la fraction de le volume occupé par la fonction d'intérêt, et la façon dont on procède de manière optimale avec des ressources limitées telles que le temps et la disponibilité du personnel. Ces différents ensembles de données d'exemple illustrent comment ces critères objectifs et subjectifs peuvent être appliqués de façon séquentielle dans une variété de combinaisons pour obtenir un appariement de certaines approches d'extraction de caractéristiques avec certains types d'ensembles de données. Les recommandations données, nous l'espérons aider les novices face à une grande variété d'options de segmentation choisir l'approche de segmentation plus efficace pour leur propre volume 3D.
Bien que l'accent de cet article est l'extraction de caractéristiques, attention à la collecte de données et prétraitement des données est cruciale pour s efficacesegmentation. Souvent la coloration des échantillons peut être inégale, et, par conséquent, des artefacts de coloration potentiels doivent être pris en considération dans la procédure de segmentation. Toutefois, les taches donne habituellement signal-bruit élevé, et nécessite donc moins de filtrage et autre traitement mathématique des volumes cellulaires, qui pourraient résulter également en artefacts. Les ensembles de données d'images brutes respectives doivent être acquises dans les réglages de contraste et de la caméra pixels corrects, alignés, et reconstruite dans un volume 3D. Pour les tomographies, les images reconstruites sont alignées en utilisant typiquement de rétroprojection pondérée, et ensuite l'ensemble de données est généralement soumis à des algorithmes de débruitage comme non linéaire anisotrope diffusion 22, de filtrage 23 bilatérale, ou médian récursif filtration 24. Données d'imagerie FIB-SEM et SBF-SEM sont alignés par tranches consécutives corrélation croisée dans les programmes utilisant XY tels que ImageJ 25. l'amélioration du contraste et de filtrage peuvent être appliqués pour augmenter les caractéristiques d'intérêt et donc de dé-bruit de la pile d'images. Le filtrage peut être effectué soit sur la totalité du volume de sous-volume avant ou sélection sur les sous-volumes sélectionnés, à l'approche de filtrage peuvent être coûteux en calcul. Sous-échantillonnage des données (binning), qui est parfois utilisé pour la réduction du bruit et / ou le fichier réduction de la taille, est seulement recommandé si les données ont été significativement sur-échantillonné par rapport à la résolution prévue.
Après la réduction du bruit, les images traitées peuvent ensuite être segmentés par diverses méthodes, et la mise au point dans cette étude est sur les quatre éléments suivants: (1) Manuel génération de modèle abstrait en créant un modèle de boule-et-bâton, (2) le traçage manuel des caractéristiques d'intérêt, (3) la densité en fonction de seuil automatique, et (4) la segmentation automatique sur mesure via un script pour projet segmentation spécifique. Segmentation limite de 8 et immersive segmentation des bassins versants 10 existe de meilleures alternatives à seuillage simple, mais they appartenir à la même catégorie et n'ont pas été inclus explicitement dans cette discussion.
Traçage manuel nécessite de densités présentant les caractéristiques d'intérêt, tranche par tranche, ce qui permet le maintien de la densité initiale des zones de sous-cellulaires respectifs. Cette approche permet un contrôle maximal du processus de segmentation, mais est un processus fastidieux et de main-d'œuvre.
Approches de segmentation de la densité (et lié) à seuil automatiques sont semi-automatiques, où un algorithme choisit pixels basé sur un ensemble de paramètres définis par l'utilisateur. Plusieurs (gratuit) paquets de visualisation d'enseignement, tels que l'UCSF Chimera, MID, Fidji 26, et VolumeRover sont disponibles, ainsi que commercial (nécessitant licences payées) des paquets, et les deux types comprennent généralement un ou plusieurs de ces approches de segmentation. Les logiciels utilisés dans ce travail pour illustrer ces différentes méthodes comprennent à la fois des programmes commerciaux et s ouvertes académiquesource programmes pour générer manuellement un modèle théorique, ainsi que le manuel et automatisé de segmentation densité. Cependant, les logiciels open source peut parfois offrir des options plus avancées grâce à la possibilité de personnalisation.
Une comparaison de ces techniques à l'aide de différents types d'ensembles de données conduit à la présentation qui suit des règles et des conseils sur la façon d'aborder la segmentation des divers volumes 3D de données biologiques, qui à notre connaissance n'a pas encore été publiés. Ainsi, c'est la première comparaison systématique des différentes approches et leur utilité sur des ensembles de données possédant des caractéristiques variées pour les utilisateurs ayant des objectifs différents.
Des stratégies efficaces pour l'extraction de caractéristiques pertinentes de volumes 3D EM sont nécessaires de toute urgence pour faire face à la tsunami de données qui a récemment frappé l'imagerie biologique. Bien que les données peuvent être générés en heures ou en jours, il faut plusieurs mois pour analyser les volumes 3D en profondeur. Par conséquent, il est clair que l'analyse de l'image est devenue le goulot d'étranglement pour les découvertes scientifiques; sans solutions adéquates à ces problèmes, spécialistes de l'imagerie deviennent les victimes de leur propre succès. C'est en partie en raison de la grande complexité des données et aussi l'encombrement macromoléculaire l'on trouve généralement dans les cellules biologiques, où les protéines et complexes protéiques frontière un autre et essentiellement apparaissent comme un gradient continu de densité en niveaux de gris. Le problème est compliqué par la préparation d'échantillons et d'imagerie imperfections, et dans certains artefacts de reconstruction d'image des cas, conduisant à moins que parfait données volumétriques qui peuvent poser des défis pour l'approche entièrement automatiséees. Le plus important, cependant, est le fait que les experts dans la préparation des échantillons, l'imagerie et l'interprétation biologique sont rarement bien versés dans la science informatique, et donc besoin de conseils sur la façon d'aborder efficacement l'extraction et l'analyse fonctionnalité. Par conséquent, grâce à l'utilisation de divers exemples, le protocole explique comment préparer les données de segmentation, ainsi que les étapes de génération d'emploi abstraite de modèle et automatisé de segmentation basé sur la densité, le traçage manuel des éléments d'intérêt et la segmentation automatique sur mesure. Les approches manuelles et automatiques décrites dans la procédure peuvent être trouvés dans une grande variété de logiciels de segmentation, dont certains sont mentionnés ici, mais d'autres remplissent des fonctions similaires et sont également bien adapté.
Les résultats montrent que l'efficacité de chacune des méthodes de segmentation 3D varie pour chaque type d'ensembles de données différents. Même si les différentes approches produits qualitativement srendus 3D es mesures analogues que le produit final, la quantité de temps et les efforts consacrés à chaque cours du processus de segmentation varié de manière significative. Les recommandations pour les caractéristiques de l'image appropriés et objectifs personnels par approche de segmentation sont résumées dans la figure 5, qui est expliqué plus en détail dans les quatre sous-sections suivantes. Ces critères ont été appliqués pour les six ensembles de données, comme indiqué dans le tableau des flux de décision de la figure 6. Bien que les figures 5 et 6 sont simplement destinés à fournir une justification pour chaque ensemble de données et la façon dont chacun des critères ont été pondérés dans le processus de prise de décision, ils ne fournissent pas une orientation à toute épreuve, mais plutôt un point de départ. Il ya tout simplement trop de critères qui influencent le processus de prise de décision: certains sont des critères objectifs, tels que les caractéristiques des ensembles de données, tandis que d'autres sont des critères plus subjectifs, tels que l'objectif recherché. Il est sûr de dire que les ensembles de données qui affichent un haut nivel de contraste avec des limites nettes nettes, ont des caractéristiques qui sont bien séparées et relativement homogène (pas trop diverse), et sont traités avec l'objectif d'afficher un modèle de densité pour un grand nombre d'objets, des approches automatisées seront supérieurs, si ce n'est pour le fait que les approches manuelles seraient tout simplement des ressources (temps) -prohibitive. D'autre part, si le contraste est faible, les données est floue et nécessite des connaissances d'un expert, les objets sont bondés, et les caractéristiques montrent une grande diversité et sont donc hétérogène donc, on ne peut pas avoir d'autre choix que l'extraction manuelle de fonction / segmentation.
Manuel abstrait Modèle génération
Manuel abstraite modèle suivi est particulièrement efficace pour segmenter les éléments linéaires, la fourniture de semences points (balles) qui peuvent être connectés automatiquement (bâtons). Ces balles et bâtons-modèles peuvent être très puissants pour mesurer la longueur d'une orientation de ce modèle et de fournir un modèle abstrait de manière adéquate à la fois pour l'inspection qualitative et l'analyse quantitative. Manuel génération de modèle abstrait est couramment utilisé lors de la réduction des ressources consacrées à l'analyse est plus importante que la fidélité absolue à la forme des données d'origine. Il est plus efficace avec des fonctions linéaires et homogènes d'intérêt (par exemple, des filaments, des tubes). contraste des données, la précision, et crowdedness ne jouent pas un rôle majeur dans la détermination de la réussite de cette méthode, aussi longtemps que l'oeil humain peut reconnaître l'objet d'intérêt. Parfois, de tels modèles peuvent également être utilisés en tant que squelette pour le segment de la carte en 3D dans une zone autour du squelette. Bien que le modèle est abstrait plutôt que le reflet de densités exactes, il représente une version squelette de la densité de 3D et permet la visualisation sans encombrement et analyse qualitative ainsi. Des mesures quantitatives telles que la longueur peut également être déterminée à partir du modèle approximatif. Pour unexemple de logiciel avec manuel génération modèle abstrait, s'il vous plaît visitez mode d'emploi détaillé de Chimera en ligne à http://www.cgl.ucsf.edu/chimera/current/docs/UsersGuide/index.html .
Traçage manuel des éléments d'intérêt
Manuel pinceau traçage fonctionne bien avec presque toutes les caractéristiques des données, mais il est aussi le plus de temps méthode consommer. Parfois, il est la seule technique pour extraire une caractéristique d'intérêt à partir d'un ensemble d'images complexes contenant une grande variété de fonctions, telles que la membrane cellulaire fine et compliquée. Un outil utile disponible dans certains programmes permet l'interpolation entre des tranches segmenté de façon discontinue lorsque la fonction d'intérêt change en douceur. Traçage manuel peut être appliqué le plus efficacement si les données est croquante et moyennement à contraste élevé, mais il peut également être utilisépour les ensembles de données plus difficiles, aussi longtemps que l'utilisateur est familiarisé avec l'objet d'intérêt. La complexité des données peut varier à partir d'objets discrets à des ensembles de données complexes et surpeuplées, où les objets sont étroitement emballés. Dans ce dernier cas, la segmentation manuelle peut être le seul choix, que les approches automatiques ont souvent du mal à segmenter le volume désiré et extraire trop ou trop peu. Morphologies de longs difficiles, comme des feuilles ou des volumes alambiquées, peuvent également être extraites par cette méthode. Toutefois, l'utilisateur doit garder à l'esprit qu'un ensemble de données avec plusieurs caractéristiques difficiles ne peut être segmenté si la densité de population des éléments d'intérêt est faible, la segmentation de fortes densités de population des éléments d'intérêt devient temps prohibitif. Pour un exemple de logiciel de traçage manuel, s'il vous plaît visitez mode d'emploi détaillé de Amira ligne à http://www.vsg3d.com/sites/default/files/Amira_Users_Guide.pdf.
Segmentation en fonction de la densité automatisé
Contrairement aux techniques manuelles, les approches automatisées sont généralement moins de temps, ce qui est un facteur important à considérer lors de segmenter une grande pile d'images. Cependant, seuillage simple ne peut pas être aussi précis, et beaucoup plus de temps peut être dépensé sur le raffinement et la conservation du volume segmenté automatiquement. Segmentation de la densité automatique qui fonctionne le mieux sur des ensembles de données qui affichent un grand nombre de caractéristiques similaires d'intérêt qui nécessitent tous segmentation. Si les données sont plus complexes, ces techniques automatisées peuvent encore servir comme un premier pas, mais auront probablement besoin d'une intervention manuelle sur la ligne afin de spécifier un sous-volume contenant la caractéristique d'intérêt. Cette stratégie fonctionne généralement bien sur morphologies linéaires ou volumes alambiquées, mais il est rarement couronnée de succès avec de fines feuilles compliquées telles queles membranes cellulaires. Intervention minimale de l'utilisateur avec des approches automatisées permet la segmentation par de grands ou de petits volumes, tout en dépensant peu de ressources de l'utilisateur, tels que le temps de retour pour la haute fidélité. Pour un exemple de logiciel avec une segmentation en fonction de la densité automatique, s'il vous plaît visitez mode d'emploi détaillé de Amira ligne à http://www.vsg3d.com/sites/default/files/Amira_Users_Guide.pdf .
Taillés sur mesure automatisée de segmentation
Taillé sur mesure segmentation automatique permet la personnalisation de puissance des algorithmes pour un ensemble de données spécifique, mais il est souvent spécifique à l'ensemble de données ou le type de données, appropriées pour un nombre limité de caractéristiques de la forme, et ne peut être généralisé facilement. La procédure présenté ici diffère des approches de segmentation automatiques générales, telles que l'immersion des bassins versants et d'autres niveaux méthodes set, qui s'appuient sur une décision programmée de points de semences critiques, suivie par l'expansion de cube marche rapide de ces points de semences. Une variation sur ce thème est la segmentation frontière, où l'information de vecteur de gradient informe longs limites. En revanche, le script personnalisé utilisée ici repose sur une étape de formation dans laquelle l'utilisateur trace manuellement quelques exemples. Grâce à l'apprentissage de la machine, des algorithmes spécifiques permet de détecter et apprendre à reconnaître indépendamment des propriétés et caractéristiques des données régulièrement trouvés dans les traces. Un utilisateur expert peut recycler les algorithmes et améliorer la précision de la segmentation par exemple dont plus trace de fournir un ensemble plus large de critères de fonctionnalité. Dans l'ensemble, les approches de seuillage et approches connexes, ou même sur mesure peuvent ne pas être aussi utile pour extraire un seul élément d'intérêt d'une image de la diversité complexe des organites ou des formes, comme curation peut être tout aussi laborieux que le traçage manuel.
">Stratégies de triage des données et choix d'une approche de segmentation
Compte tenu des critères subjectifs et objectifs présentés dans la figure 4 et un résumé des ensembles de données appropriés à la figure 5, le système de prise de décision représentée sur la figure 6 peut aider une évaluation efficace des stratégies d'extraction de caractéristiques pour une grande variété d'ensembles de données. Les ensembles de données sont triés en quatre décisions consécutives, dont chacune peut inclure l'une quelconque des quatre objectifs respectifs ainsi que les quatre critères subjectifs introduits dans la figure 4. À titre d'exemple, la figure 6 représente la logique de triage chacune des données six ensembles présentés dans la figure 3. Sans aucun doute, pour chaque ensemble de données, il n'est pas un seul chemin unique, mais plutôt différents chemins à travers cette matrice suivants différents critères de prise de décision qui peut conduire to identiques ou différents recommandation de segmentation de données. Bien que chaque ensemble de données aura son propre ensemble de propriétés qui ne peuvent pas être anticipés, six exemples sont donnés, chaque paire avec une explication de la raison d'être de l'approche d'extraction / de segmentation caractéristique préférée. La plupart comprennent également une proposition pour une décision itinéraire alternatif qui entraîne l'utilisation de la même ou une approche de segmentation différente (Figure 6).
Le kinocil est un ensemble avec des frontières clairement définies, ce qui rend les approches automatisées plus de chances de réussir données nettes. Tous les éléments d'intérêt sont bien séparés, favorisant encore une approche automatisée. En outre, les caractéristiques d'intérêt sont semblables les uns aux autres, ce qui en fait un ensemble relativement homogène de données idéal pour la segmentation sur mesure. Enfin, l'objectif était d'extraire la fonction entière, en privilégiant une approche semi-automatique. En conséquence, il a été conclu qu'un seuillage automatique (solide ligne verte) ainsi que d'un (par exemple, la forme de segmentation supervisée) approche conçue sur mesure (ligne pointillée verte) sont à la fois susceptibles de bien faire sur cet ensemble de données.
Des critères similaires, bien que placé dans un ordre différent dans le réseau de prise de décision, s'appliquent au cas de bactéries. Une approche sur mesure est recommandé en partie parce que cet ensemble de données était très grande; par conséquent, les ressources limitées interdisent manuel une approche d'intervention / de segmentation de la main-d'œuvre. Bien seuil aurait donné des résultats acceptables, l'approche sur-mesure a été en mesure d'exécuter des principaux objectifs de l'étude de séparer les formes bactériennes arrondies des gisements de métaux extracellulaires, situés soit en entre les bactéries ou juste à côté des bactéries, et donc la approche sur mesure a été préféré.
Pour les ensembles de données de stéréocils, la première considération était l'objectif recherché: l'objectif peut être soit de montrer toute la densitéou pour créer des modèles géométriques. Le volume d'intérêt est une zone très peuplée, et l'objectif était de segmenter un grand nombre d'objets comme des objets séparés afin d'exécuter la suite l'analyse volumétrique quantitative, y compris des longueurs, des chiffres, des distances, orientation, etc Il était utile que les objets de intérêt était essentiellement linéaire, et ce fait modèle géométrique tracer la méthode de choix. Toutefois, si, au lieu de l'objectif a été de montrer toute la densité, alors la fonction morphologie linéaire ainsi que relativement à contraste élevé avec des limites bien définies ferait un protocole de seuillage automatique possible.
Les membranes cellulaires et des cas de données de mitochondries sont difficiles pour les approches automatisées en raison de leurs catégories de fonction morphologie: feuilles et les volumes alambiquées, respectivement. L'objectif est de retracer la cellule ou les mitochondries contour avec précision, mais il ya des ressources ne finis pour le faire. En outre, les caractéristiques des interEst sont complexes et ne peut pas être facilement détecté automatiquement ou forme codée, bien que pour les données de mitochondries définit l'approche de script personnalisé prises pour que les bactéries peuvent éventuellement être appliqué avec davantage de personnalisation. Heureusement, la membrane et les mitochondries se ne représentent qu'une petite fraction de la totalité du volume et, par conséquent, le traçage manuel est une simple approche de temps bien. Traçage manuel est également la méthode de choix pour ces ensembles de données lorsque le contraste est assez faible et les limites sont assez floues. En conséquence, même si elles constituent une partie importante des ensembles de données, ces feuilles compliquées doivent être tracées à la main, tout simplement en raison de l'absence d'une meilleure alternative.
L'ensemble de données de l'installation pose ses propres défis parce que le but était de segmenter tous les objets, qui sont densément espacées et forment un paysage encombré. Affichage de la densité tel quel permettrait mesures concernant la forme et l'organisation des objets, mais barce segmenter manuellement chaque objet filamenteux est trop coûteux, seuillage automatique a été utilisé à la place.
Les étapes et les résultats correspondants dans la création d'un modèle 3D ont été affichées ici, mais plus important encore, les caractéristiques des données et des critères personnels jugées cruciales pour déterminer le meilleur chemin de segmentation ont également été élucidé. Les caractéristiques importantes des données d'image lui-même comprennent ce qui est décrit ici comme l'inverse, crowdedness, croustillant, et le nombre de formes différentes ou des caractéristiques (telles que des organelles, des filaments, des membranes). Critères subjectifs à considérer l'objectif souhaité de segmentation (mesure / comptage, la représentation squelette des données / afficher des volumes dans des rendus 3D), les caractéristiques morphologiques de la fonction d'intérêt (linéaire, allongé, en réseau, complexe, alambiquée), la densité de caractéristiques d'intérêt par rapport à la totalité du volume (la fraction des objets qui sontimportants et devront être extraites), et d'équilibrer les compromis de consacrer des ressources à la fidélité de la segmentation des données d'origine et le rendement décroissant de l'investissement a entraîné des améliorations supplémentaires pour l'allocation des ressources sensiblement plus élevé.
Le domaine de la segmentation d'image a considérablement évolué au cours des dernières années, mais il n'y a pas de solution miracle, pas d'algorithme ou un programme qui peut tout faire. ensemble de données de tailles ont augmenté de plusieurs centaines de mégaoctets de routine des dizaines de giga-octets, et ils sont maintenant de commencer à dépasser téraoctets, ce qui rend presque impossible la segmentation manuelle. Ainsi, davantage de ressources doivent être investies dans les approches d'extraction de caractéristiques intelligentes et temps-efficace qui imitent le processus de prise de décision humaine. Ces efforts devront être combiné avec (1) Système d'information géographique (SIG) à base de bases de données hiérarchiques sémantiques (similaire à Google Earth), (2) les techniques d'abstraction de données (c.-à-transitiond'un voxel de représentation géométrique / volumétrique) compatible avec conception assistée par ordinateur (CAO) afin de réduire considérablement la quantité de données et permettant ainsi l'affichage de plus grands volumes de 35, (3) les techniques de simulation, car ils sont fréquemment utilisés dans le disciplines de l'ingénierie, ainsi que (4) animation de pointe et la réalisation de films capacités, y compris des animations de survol par (semblables à ce qui est mis au point pour l'industrie du jeu).
De toute évidence, l'extraction de caractéristiques efficace et la segmentation est au cœur de cette révolution à venir dans cellulaire imagerie à haute résolution, et alors que de meilleures approches seront toujours nécessaires, les principes présentés ici, ainsi que les exemples de ce que l'approche a été prise pour différents types de données , fournira de précieuses informations pour prendre une décision sur l'approche à adopter.
The authors have nothing to disclose.
We would like to acknowledge and thank Tom Goddard at University of California San Francisco for his endless help with Chimera, Joel Mancuso and Chris Booth at Gatan, Inc. for their help with SBF-SEM data collection of bacteria dataset, Doug Wei at Zeiss, Inc. for his help with the FIB-SEM data collection of epithelial cell dataset, Kent McDonald at University of California Berkeley Electron Microscopy Lab for advice on sample preparation, TEM imaging and tomography, Roseann Csencsits at Lawrence Berkeley National Laboratory for her help taking the cryo-TEM image, Elena Bosneaga for cryo-sectioning of the plant dataset, Jocelyn Krey at Oregon Health and Science University for the dissection of utricle tissue, David Skinner at National Energy Research Scientific Computing Center (NERSC) and Jitendra Malik at University of California Berkeley for their advice in software infrastructure, and Pablo Arbelaez at University of California Berkeley for his codes contributions to the custom-tailored script presented in this article.
Research was supported by the U.S. Department of Energy, Office of Science under contract No. DE-AC02-05CH11231 [David Skinner], as well as U.S. National Institutes of Health (NIH) grant No. P01 GM051487 [M.A.] for the inner ear hair cell project and microscopy instrumentation use.
Material Name | Company | Comments | |
Amira | FEI Visualization Sciences Group | http://www.vsg3d.com/amira/overview | |
Chimera | UCSF | http://www.cgl.ucsf.edu/chimera/ | |
Fiji/ImageJ | National Institute of Health | http://fiji.sc/Fiji, http://rsbweb.nih.gov/ij/ | |
IMOD | Boulder Laboratory for 3D Electron Microscopy of Cells | http://bio3d.colorado.edu/imod/ | |
Photoshop | Adobe | http://www.adobe.com/products/ photoshopfamily.html | |
MATLAB | MathWorks | http://www.mathworks.com/ | |
VLFeat | VLFeat | http://www.vlfeat.org/ |