Den flaskehals for cellulære 3D elektronmikroskopi er feature ekstraktion (segmentering) i meget komplekse 3D tæthed kort. Vi har udviklet et sæt kriterier, der giver vejledning om, hvilke segmentering tilgang (manuel, halvautomatisk eller automatisk) er bedst egnet til forskellige datatyper, hvilket giver et udgangspunkt for en effektiv segmentering.
Moderne 3D-elektronmikroskopi tilgange har for nylig tilladt hidtil uset indblik i 3D ultrastrukturel organisering af celler og væv, der muliggør visualisering af store makromolekylære maskiner, såsom friktion komplekser, såvel som højere-ordens strukturer, såsom cytoskelettet og cellulære organeller i deres respektive celler og væv sammenhæng. I betragtning af den iboende kompleksitet af cellulære mængder, er det vigtigt først at udtrække de funktioner af interesse for at tillade visualisering, kvantificering og dermed forståelsen af deres 3D organisation. Hvert datasæt er defineret ved særlige karakteristika, fx, signal-støjforhold, sprødhed (skarphed) af de data, heterogenitet dens funktioner, crowdedness funktioner, tilstedeværelse eller fravær af karakteristiske figurer, der giver mulighed for nem identifikation og den procentvise af hele mængden, at en bestemt område af interesse indtager. Alle disse egenskaber skal overvejesved valget af den metode til at tage til segmentering.
De seks forskellige 3D ultrastrukturel datasæt fremlagt blev opnået ved tre forskellige billeddannelse tilgange: harpiks indlejret farves elektron tomografi, fokuseret ion Sprede- og seriel blok ansigt-scanning elektronmikroskopi (FIB-SEM, SBF-SEM) af mildt farvede og stærkt farvede prøver hhv. For disse datasæt, har fire forskellige segmentering tilgange er anvendt: (1) fuldt manuel modelbygning udelukkende efterfulgt af visualisering af modellen, (2) manuel sporing segmentering af de data, efterfulgt af overfladegengivelse, (3) halvautomatiske tilgange fulgt ved overfladegengivelse, eller (4) automatiserede specialdesignede segmentering algoritmer efterfulgt af overfladegengivelse og kvantitativ analyse. Afhængigt af kombinationen af data sæt karakteristika, blev det konstateret, at der typisk én af disse fire kategoriske metoder udkonkurrerer de andre, men afhængigt af den nøjagtige sekvens af kriterier, more end en fremgangsmåde kan være en succes. Baseret på disse data, foreslår vi en triage ordning, der kategoriserer både objektive data sæt karakteristika og subjektive personlige kriterier for analyse af de forskellige datasæt.
Traditionelt elektronmikroskopi felt (EM) er opdelt i 1) den strukturelle biologi gren ved hjælp af høj og super høj opløsning TEM, typisk kombineret med implicitte eller eksplicitte data gennemsnit at undersøge den tredimensionale (3D) strukturen af makromolekylære komplekser med en defineret sammensætning og typisk en forholdsvis lille størrelse 1-4, og 2) det cellulære billeddannelse gren, hvor hele cellulære scenerier visualiseres 1,5,6. Mens den strukturelle biologi gren har gennemgået en spektakulær udvikling i løbet af de sidste fire årtier, blev cellebiologi gren meste begrænset til to dimensioner, ofte på mindre end optimalt præparerede prøver. Kun med fremkomsten af elektron tomografi i det sidste årti har celle biologisk ultrastrukturel billeddannelse udvidet til den tredje dimension 5,7, hvor der typisk gennemsnit kan ikke udføres, da de cellulære scenerier og dermed de funktioner af interesse, er typisk unikke.
Selv visualiseret cellulære scener er ofte fantastisk for øjet, effektiv ekstraktion af de funktioner af interesse og efterfølgende kvantitativ analyse af sådanne yderst komplekse cellulære mængder halter bagefter, dels fordi den præcise proteinsammensætning er normalt ukendt, derfor gør det udfordrende at fortolke disse cellulære 3D-volumener. Til denne dato, er en omfattende biologisk ekspertise ofte behov for at fortolke komplekse tomogrammer, eller endog at identificere de vigtige områder og væsentlige komponenter i 3D volumen. Som en yderligere komplikation, visualisering af 3D volumener er bemærkelsesværdigt ikke-triviel. 3D-volumener kan opfattes og dermed visualiseret som stakke af 2D-billeder. Slice-by-skive inspektion af sekventielle 2D-billeder reducerer kompleksiteten, men det begrænser også feature extraction og dermed kvantitativ analyse af de to dimensioner. Men for de fleste 3D-objekter, skildringen af 3D-volumener som blot en stak hinanden følgende planer fører til en ufuldstændig end skæv perspektiv i et bestemt system 3D natur. Alternative former for visuel inspektion kræver enten volumen rendering eller overfladegengivelse, som-i betragtning af den ofte tætte karakter af et cellulært volumen-kan let føre til en modvirket visning af indlejrede objekter eller overvælde en bruger helt, hvilket gør interaktiv vejledning segmentering vanskelig.
For at afhjælpe disse barrierer, et stort udvalg af automatiserede feature extraction (segmentering) tilgange er blevet udviklet, som er typisk enten Density eller gradient-baserede 8-10. Men disse metoder har tendens til at segmentere hele mængden, uanset hvilke områder eller funktioner er af interesse for den sagkyndige, selv om nogle af de seneste metoder kan målrette en bestemt funktion af interesse, såsom actinfilamenter 11. Desuden kan de programmer, der udfører automatiserede segmentering undertiden resultere i produktionen af en lang række sub-volumen (fx ved anvendelsen vandskel immersion segmentering), der ofte brug for at blive fusioneret manuelt tilbage til omfattende det hele træk af interesse eller underkastes yderligere segmentering. Dette gælder især for komplekse og overfyldte datasæt, således mest destruktionsprocesser computer algoritmer er i stand til at udtrække kun de funktioner af interesse med troskab, og betydelige datasikring indsats af en ekspert er ofte nødvendig for at producere en ønsket segmenteret volumen.
Desuden er tilpassede løsninger på et meget specifikt problem ofte udgivet som et videnskabeligt møde papir, med lidt at ingen vægt på at gøre dem bredt og omfattende værktøjer tilgængelige for forskere, der ikke har indgående kendskab til områderne matematik, datalogi og / eller computergrafik. En justerbar programmeringssoftware miljø, som indeholder en række billedanalyse biblioteker, kan være et effektivt redskab sæt giver brugerne mulighed for effektivt at skrive deres egne moduler til præcis segmentering. Men denne tilgang kræver extensive uddannelse og en baggrund i datalogi med henblik på at drage fordel af sine mange funktioner eller kapaciteter til billedanalyse. Man kan arbejde inden for en sådan alsidig software miljø for visse datasæt, hvor funktionerne er mere sparsomme, fx ved at bruge kraftfulde form fremgangsmåder, der er afhængige af den unikke geometri "skabeloner" til at adskille objekter af interesse fra deres omgivelser 12,13 .
En retfærdig række computergrafik visualiserings pakker findes for interaktiv vejledning segmentering og modelbyggeri. Nogle pakker er kommercielt tilgængelige, mens andre er af akademisk oprindelse og uddeles gratis, såsom: University of California San Francisco Chimera 14, University of Colorado israelske forsvarsminister 15, og University of Texas Austin VolumeRover 16. Men den brede vifte og kompleksiteten af funktioner og muligheder disse programmer besidder stejlere indlæringskurve for each. Visse visualiseringsprogrammer give simple geometriske modeller, såsom bolde og pinde i forskellige størrelser, som kan placeres ind i tætheden kort med henblik på at skabe en forenklet model af den komplekse 3D-volumen. Disse modeller derefter give enkle geometriske og volumetriske målinger, og derfor gå videre end bare "smukt billede". En sådan manuel sporing af objekter fungerer godt for mængder, hvor kun et lille antal objekter skal spores og udvindes. Men den seneste udvikling af stort volumen 3D ultrastrukturelle billeddannelse ved hjælp af enten fokuseret ionstråle scanningselektronmikroskopi (FIB-SEM) 17-20 eller seriebloknummer ansigt scanningselektronmikroskopi (SBF-SEM) 21 viser den yderligere komplikation, at størrelsen af 3D-data sæt kan variere fra gigabytes til snesevis og hundredvis af gigabyte, og selv terabytes. Derfor bør sådanne store 3D volumener er næsten utilgængelige for manuel funktion udvinding og dermed effektiv bruger-styret semi-automatiseret feature udvinding vil være en af de flaskehalse for en effektiv analyse af 3D volumener i en overskuelig fremtid.
Præsenteret her er fire forskellige segmentering tilgange, der rutinemæssigt anvendes på en lang række biologiske billedtyper. Disse metoder sammenlignes derefter for deres effektivitet for forskellige typer af datasæt, så en samling i en guide til at hjælpe biologer beslutte, hvad der kan være den bedste segmentering metode til effektiv feature extraction af deres egne data. Så detaljeret brugervejledninger er tilgængelige for de fleste af de programmer, der er beskrevet, er målet ikke at gøre potentielle brugere bekendt med nogen af disse særlige pakker. I stedet er målet at demonstrere de respektive styrker og begrænsninger af disse forskellige segmentering strategier ved at anvende dem til seks eksempel datasæt med forskellige karakteristika. Gennem denne sammenligning, har et sæt af kriterier, blevet udviklet, som er enten baseret på objektive billede karakteristika3D datasæt, såsom oplysninger kontrast, skarphed, crowdedness og kompleksitet, eller stammer fra subjektive overvejelser, såsom den ønskede målsætning for segmentering, at morfologier af de elementer være segmenteret, befolkningstæthed af funktionerne af interesse, hvilket betyder den del af volumen besat af funktionen af interesse, og hvordan man går optimalt med begrænsede ressourcer såsom tid og tilgængelighed af personale. Disse forskellige eksempler datasæt illustrere, hvordan disse objektive og subjektive kriterier kan anvendes sekventielt i en række forskellige kombinationer til opnåelse af en parring af visse feature extraction tilgange med visse typer datasæt. Anbefalingerne vil forhåbentlig hjælpe nybegyndere konfronteret med et stort udvalg af segmenteringsmuligheder vælge den mest effektive segmentering metode til deres egen 3D-volumen.
Mens fokus i dette papir er feature extraction, opmærksomhed på dataindsamling og præ-databehandling er afgørende for effektive filtreegmentation. Ofte farvning af prøver kan være ujævn, og derfor bør de potentielle farvning artefakter overvejes i segmentering procedure. Men plet normalt giver højere signal-støj, og derfor kræver mindre filtrering og andre matematiske behandling af cellulære mængder, der potentielt kan også resultere i artefakter. De respektive rå billeddata datasæt skal erhverves på de korrekte kontrast og kamera pixel indstillinger justeret, og rekonstrueret i en 3D-volumen. For tomogrammer, der flugter billeder rekonstrueret typisk ved hjælp af vægtet back-projektion, og derefter datasættet er normalt underkastet denoising algoritmer såsom ikke-lineær anisotropisk diffusion 22 bilaterale filtrering 23 eller rekursive medianfiltrering 24. FIB-SEM og SBF-SEM billeddata er afstemt med cross-korrelerende hinanden følgende skiver i XY udnytter programmer såsom ImageJ 25. Kontrastforbedring og filtrering kan anvendes til at øge de funktionerinteresse og dermed de-støj billedstak. Filtrering kan udføres enten på hele volumen før subvolume valg eller om de valgte subvoluminer, som filtrering tilgange kan være beregningsmæssigt dyrt. Ned-sampling af dataene (udsmidningen), som undertiden anvendes til støjreduktion og / eller reduktion af filstørrelse, anbefales kun, hvis dataene er blevet væsentligt oversampled sammenlignet med den forventede opløsning.
Efter reduktion af støjen, kan de behandlede billeder derefter segmenteret ved forskellige metoder, og fokus i denne undersøgelse er på følgende fire: (1) manuel indvindes model generation ved at skabe en bold-og-stick model, (2) manuel sporing funktioner af interesse, (3) automatiseret tærskel-baserede tæthed, og (4) skræddersyet automatiseret segmentering via et script til projektet specifik segmentering. Boundary segmentering 8 og medrivende vandskel segmentering 10 er bedre alternativer til simpel tærskling, men they tilhører samme kategori, og er ikke medtaget eksplicit i denne diskussion.
Manuel sporing af tætheder kræver skitserer de funktioner af interesse, slice-by-skive, som tillader tilbageholdelse af den oprindelige tæthed af de respektive sub-cellulære områder. Denne fremgangsmåde giver mulighed for maksimal styring af segmentering proces, men er en kedelig og arbejdskrævende proces.
Automatiserede tærskel-baserede (og beslægtede) segmentering tæthed tilgange er semi-automatisk, hvor en algoritme vælger pixel baseret på et sæt af brugerdefinerede parametre. Flere akademiske (gratis) visualiserings pakker, såsom UCSF Chimera, israelske forsvarsminister, Fiji 26, og VolumeRover er til rådighed, såvel som kommercielle (kræver betalte licenser) pakker, og begge typer typisk omfatte en eller flere af disse segmentering tilgange. Den software, der anvendes i dette arbejde for at illustrere disse forskellige metoder omfatter både kommercielle programmer og akademiske åbne sOurce programmer for manuelt at generere en abstrakt model, samt segmentering manuel og automatiseret tæthed. Dog kan open source-software til tider tilbyde mere avancerede muligheder gennem muligheden for tilpasning.
En sammenligning af disse teknikker, der anvender forskellige typer af datasæt førte til følgende præsentation af regler og vejledning om, hvordan man griber segmentering af forskellige biologiske data 3D volumener, som til vores viden er endnu ikke blevet offentliggjort. Dette er således det første systematisk sammenligning af de forskellige tilgange og deres anvendelighed på datasæt med varierende karakteristika for brugere med forskellige formål.
Effektive strategier for udvinding af relevante funktioner fra 3D EM volumener er et presserende behov for at holde op med de data tsunami, der for nylig har ramt biologisk billeddannelse. Mens data kan genereres i timer eller dage, det tager mange måneder at analysere 3D-volumener i dybden. Derfor er det klart, at det billede, analysen er blevet flaskehals for videnskabelige opdagelser; uden tilstrækkelige løsninger på disse problemer, billedbehandling forskere bliver ofre for deres egen succes. Dette er til dels på grund af den høje kompleksitet af data og også den makromolekylære fortrængning typisk findes i biologiske celler, hvor proteiner og proteinkomplekser kant en anden og i det væsentlige fremstår som en kontinuert gradient af gråtoner tætheder. Problemet kompliceres af forberedelse og billedbehandling prøve ufuldkommenheder, og i nogle tilfælde billedet genopbygning artefakter, hvilket fører til mindre end perfekt volumetriske data, der kan udgøre udfordringer for fuldautomatisk tilganges. Mest markant er dog det faktum, at eksperterne i prøveforberedelse, billedbehandling og den biologiske fortolkning sjældent er velbevandret i computervidenskab og kræver derfor også vejledning om, hvordan man effektivt nærme feature extraction og analyse. Derfor ved hjælp af forskellige eksempler, protokollen forklarer, hvordan du forbereder data for segmentering, samt trin for manuel indvindes model generation, automatiseret tæthed baseret segmentering, manuel sporing funktioner af interesse, og skræddersyet automatiseret segmentering. Kan findes De manuelle og automatiske indflyvninger skitseret i proceduren i en lang række af segmentering software hvoraf nogle er nævnt her, men andre lignende funktioner og er lige velegnede.
Resultaterne viser, at effektiviteten af hver af de 3D-segmentering tilgange varierer for hver forskellig type af datasæt. Selvom de forskellige tilgange produceret kvalitativt similar 3D-gengivelser som slutproduktet, mængden af tid og kræfter brugt på hver under segmenteringsprocessen varierede betydeligt. Anbefalingerne for relevante billedfiler egenskaber og personlige mål pr segmentering tilgang er opsummeret i figur 5, hvilket er yderligere forklaret i de følgende fire underafsnit. Disse kriterier blev anvendt på de seks datasæt, som vist i beslutning rutediagram i figur 6. Selvom figurerne 5 og 6 kun beregnet til at give en begrundelse for hvert datasæt og hvordan hver af de forskellige kriterier vægtes i beslutningsprocessen, de giver ikke en idiotsikker vejledning, men snarere et udgangspunkt. Der er simpelthen for mange kriterier, der har indflydelse på beslutningsprocessen: nogle er objektive kriterier, såsom data sæt egenskaber, mens andre er mere subjektive kriterier, såsom det ønskede mål. Det er sikkert at sige, at datasæt, der viser en høj level kontrast med skarpe skarpe grænser, har funktioner, der er godt adskilt og relativt homogent (ikke alt for forskellige), og behandles med det formål at vise en densitet model for et stort antal objekter, vil automatiserede metoder være bedre, hvis ikke for det faktum, at manuelle metoder ville simpelthen være ressource (tid) -prohibitive. På den anden side, hvis kontrast er lav, dataene er uklart, og derfor kræver en sagkyndig viden, objekterne er overfyldt, og de funktioner en høj diversitet og er således heterogen, kan man ikke have noget andet valg end manuel feature extraction / segmentering.
Manuel Abstracted Model Generation
Manuel indvindes model sporing er særlig effektiv i segmentere lineære elementer, der giver frø punkter (bolde), der automatisk kan tilsluttes (pinde). Sådanne bolde og pinde-modeller kan være meget stærk til at måle længden ennd orienteringen af en sådan model og give et tilstrækkeligt indvindes model for både kvalitativ inspektion og kvantitativ analyse. Manuel indvindes model generation er almindeligt anvendt, når minimere ressourceforbrug på analysen er vigtigere end absolut troskab til formerne af de oprindelige data. Det er mest succesfulde med lineære og homogene funktioner af interesse (f.eks filamenter rør). Data kontrast, skarphed, og crowdedness ikke spiller en stor rolle i fastsættelsen af denne metode succes, så længe det menneskelige øje kan genkende genstand for interesse. Sommetider sådanne modeller kan også anvendes som et skelet til segment 3D-kortet i en zone omkring skelettet. Selvom modellen er abstrakt snarere end en afspejling af nøjagtige densiteter repræsenterer en skeletonized version af 3D tæthed og muliggør således rod visualisering og kvalitativ analyse. Kvantitative målinger såsom længde kan også bestemmes ud fra det omtrentlige model. For eneksempel på software med manuel indvindes model generation, kan du besøge Chimera detaljerede brugervejledning online på http://www.cgl.ucsf.edu/chimera/current/docs/UsersGuide/index.html .
Manuel Sporing af funktioner seværdigheder
Manuel pensel sporing fungerer godt med næsten alle data egenskaber, men det er også den mest tidskrævende metode. Til tider er det eneste teknik til ekstraktion af en funktion af interesse fra et komplekst billede sæt indeholder en lang række funktioner, såsom den tynde og indviklede cellemembranen. Et nyttigt værktøj til rådighed i nogle programmer giver mulighed for interpolation mellem intermitterende segmenterede skiver, når funktionen af interesse ændrer sig jævnt. Manuel sporing kan anvendes mest effektivt, hvis dataene er sprøde og har medium til høj kontrast, men det kan også anvendestil mere udfordrende datasæt, så længe brugeren er bekendt med objekt af interesse. De data kompleksitet kan variere fra diskrete objekter til komplekse og overfyldte datasæt, hvor objekter er tætpakkede. I det sidstnævnte tilfælde kan manuel segmentering være det eneste valg, som automatiske indflyvninger ofte svært ved at segment det ønskede volumen og udtrække for meget eller for lidt. Vanskelige har morfologi, såsom indviklede plader eller mængder, også kan udvindes ved denne metode. Dog skal brugeren huske på, at et datasæt med flere vanskelige kendetegn kun kan segmenteres hvis befolkningstætheden i de funktioner af interesse er lav, da segmentering af høj befolkningstæthed af de elementer af interesse bliver tid uoverkommelige. For et eksempel på software med manuel sporing, kan du besøge Amira detaljerede brugervejledning online på http://www.vsg3d.com/sites/default/files/Amira_Users_GuidE.pdf.
Automatiseret Densitetskorrigeret segmentering
I modsætning til de manuelle teknikker, de automatiserede metoder er generelt mindre tidskrævende, hvilket er en vigtig faktor til at overveje, når segmentere en stor stak billeder. Dog kan simpelt tærskling ikke være så nøjagtige, og meget mere tid kan blive brugt på raffinement og datasikring af automatisk segmenterede volumen. Automatiseret tæthed-baserede segmentering virker bedst på datasæt, der viser et stort antal lignende funktioner af interesse, at alle kræver segmentering. Hvis dataene er mere kompleks, kan disse automatiserede teknikker stadig tjene som et første skridt, men vil sandsynligvis kræve nogle manuel indgriben ned linjen for at angive en subvolume indeholder funktionen af interesse. Denne strategi virker typisk godt på lineære morfologier eller indviklede mængder, men det er sjældent succes med tynde indviklede plader såsomcellemembraner. Minimalt behov for brugerindgreb med automatiserede metoder muliggør segmentering gennem store eller små mængder, mens expending få brugerkonti ressourcer såsom tid til gengæld for high fidelity. For et eksempel på software med automatiserede tæthed-baserede segmentering, besøg Amira detaljerede brugervejledning online på http://www.vsg3d.com/sites/default/files/Amira_Users_Guide.pdf .
Skræddersyet Automated segmentering
Skræddersyet automatiseret segmentering giver magt tilpasning af algoritmer til et bestemt datasæt, men det er ofte specifik for de fastsatte data eller datatype, der passer til et begrænset antal har egenskaber, og kan ikke generaliseres nemt. Proceduren fremvist her adskiller sig fra de generelle automatiske segmentering tilgange, såsom vandskel fordybelse og andet plan sæt metoder, der er afhængige af en programmeret bestemmelse af kritiske kimpunkter, efterfulgt af hurtig-marcherende terning udvidelse fra disse frø point. En variation af dette tema er grænse segmentering, hvor gradientvektor oplysninger informerer funktionen grænser. I modsætning hertil tilpassede script anvendt her er baseret på en uddannelse stadie, hvor brugeren manuelt spor nogle få eksempler. Gennem machine learning vil specifikke algoritmer registrerer og derefter lære selvstændigt genkende egenskaber og data egenskaber konsekvent fundet i sporene. En ekspert bruger kan omskole algoritmerne og forbedre nøjagtigheden af segmentering ved at medtage flere eksempel spor for at give et større sæt af spillefilm kriterier. Samlet set kan tærsklingsparametre og lignende fremgangsmåder, eller endda skræddersyede tilgange ikke være så nyttigt at udtrække et enkelt element af interesse fra et billede med komplekse mangfoldighed af organeller og figurer, som datasikring kan være lige så arbejdskrævende som manuel sporing.
">Strategier for triaging Data og vælge en Segmentering Approach
I betragtning af de subjektive og objektive kriterier, der præsenteres i figur 4 og sammenfatning af egnede datasæt i figur 5, kan beslutningsprocessen ordning afbildet i figur 6 bistå en effektiv vurdering af feature extraction strategier for en lang række datasæt. Datasættene triaged i fire på hinanden følgende beslutninger, som hver især kan omfatte et hvilket som helst af de fire respektive formål samt de fire subjektive kriterier indført i figur 4. Som et eksempel, figur 6 er rationalet for triaging hver af de seks data sæt vist i figur 3. Utvivlsomt, for hvert datasæt er der ikke en enkelt unik vej, men snarere forskellige stier gennem denne matrix efter forskellige kriterier for beslutningstagning, der kan føre to ens eller forskellige anbefaling til segmentering af data. Mens hver datasæt vil have sit eget sæt af egenskaber, som ikke kan forudses, er seks eksempler, idet hver parret med en forklaring af rationalet bag den foretrukne feature extraction / segmentering tilgang. Mest også omfatte et forslag til en alternativ beslutning rute, som enten resulterer i brugen af den samme eller en anden segmentering metode (figur 6).
Den kinocilium er en sprød datasæt med klart definerede grænser, hvilket gør automatiserede tilgange mere tilbøjelige til at lykkes. Alle funktioner i interesse er godt adskilt, igen favorisere en automatiseret metode. Desuden funktionerne af interesse er lig hinanden, hvilket gør det et relativt homogent datasæt ideel til skræddersyet segmentering. Endelig var målet at udtrække hele funktionen, begunstige en semi-automatiseret metode. Som en følge heraf blev det konkluderet, at en automatiseret tærskel (solid grøn linje) samt en specialdesignet (fx form overvåget segmentering) metode (punkteret grøn linje) er begge tilbøjelige til at gøre godt på dette datasæt.
Lignende kriterier, skønt placeret i en anden rækkefølge i beslutningsprocessen netværk, finder anvendelse på tilfælde af bakterier. Der anbefales en skræddersyet tilgang, dels fordi dette datasæt var meget stor; dermed begrænsede ressourcer forbyde en arbejdskrævende manuelle indgriben / segmentering tilgang. Mens tærskling ville du have haft acceptable resultater, specialdesignede fremgangsmåde var i stand til at udføre undersøgelsens centrale mål at adskille de afrundede bakterielle figurer fra de ekstracellulære metal indlån, der er beliggende i-mellem bakterierne eller lige ved siden af bakterierne, og derfor skræddersyet tilgang blev foretrukket.
For stereocilia datasæt, den første overvejelse var det ønskede mål: målet kan enten være at vise hele tæthedeller for at skabe geometriske modeller. Mængden af interesse var et overfyldt område, og målet var at segment et stort antal objekter som adskilte objekter med henblik på efterfølgende at udføre kvantitativ volumetrisk analyse, herunder længder, tal, afstande, orientering etc. Det var nyttigt at de genstande af interesse var hovedsagelig lineær, og dette gjorde geometriske model spore den foretrukne metode. Men hvis der i stedet målet har været at vise hele tæthed, så den lineære funktion morfologi samt relativt høj kontrast med skarpt definerede grænser ville gøre en automatiseret tærskelværdiansættelse protokol muligt.
De cellemembraner og mitokondrier data sager er udfordrende for automatiserede metoder på grund af de forskellige kategorier af funktionen morfologi: indviklede plader og mængder hhv. Målet er at spore celle eller mitokondrier skitse præcist, men der er kun begrænsede ressourcer til at gøre det. Hertil kommer, funktionerne i interest er komplekse og kan ikke være nemt registreres automatisk eller forme-kodet, men for mitokondrierne datasæt den tilpassede scripting tilgang for bakterierne kan eventuelt anvendes med yderligere tilpasning. Heldigvis membranen og mitokondrier selv kun udgør en lille brøkdel af den samlede volumen og dermed manuel sporing er en enkel omend tidskrævende tilgang. Manuel sporing er også den foretrukne metode til sådanne datasæt, når kontrasten er temmelig lav, og grænserne er temmelig fuzzy. Som et resultat, selv om de udgør en væsentlig del af de datasæt, skal disse indviklede ark manuelt spores, simpelthen på grund af mangel på et bedre alternativ.
Anlægget datasæt stillet sine egne udfordringer, fordi målet var at segmentere alle objekter, der er tæt afstand og udgør en overfyldt natur. Visning af massefylde som-er vil gøre det muligt målinger om form og organisering af objekterne, men Because manuelt segmentere hver trådformede objekt er for dyrt, automatisk tærskling blev ansat i stedet.
De forskellige trin og tilsvarende resultater i at skabe en 3D-model er blevet vist her, men endnu vigtigere, at de data, karakteristika og personlige kriterier fundet være afgørende for fastlæggelsen af den bedste vej for segmentering er også blevet belyst. De vigtige karakteristika ved billeddata omfatte, hvad der er beskrevet her som modsætning crowdedness, sprødhed, og antallet af forskellige former eller funktioner (såsom organeller, filamenter, membraner). Subjektive kriterier til at overveje at omfatte det ønskede mål for segmentering (måling / optælling skeletonized repræsentation af data / visning mængder i 3D-gengivelser), morfologiske kendetegn funktionen af interesse (lineær, aflange, der er netbaseret, komplekse, indviklede), tætheden af funktioner af interesse i forhold til hele volumen (den del af de objekter, der ervigtigt og skal udvindes), og afvejning af de kompromiser for expending ressourcer til segmenteringen troskab af den oprindelige data og faldende afkast af investeringen resulterer i gradvise forbedringer for væsentligt højere fordeling af ressourcerne.
Feltet af billedet segmentering er væsentligt modnet i løbet af de seneste år, men der er ingen mirakelkur, ingen algoritme eller et program, der kan gøre det hele. Datasæt størrelser er vokset fra hundredvis af megabyte rutinemæssigt snesevis af gigabytes, og de er nu begyndt at overstige terabytes, hvilket gør manuel segmentering nær umuligt. Således skal investeres i de kloge og tid-effektiv feature extraction tilgange, der efterligner den menneskelige beslutningsproces flere ressourcer. En sådan indsats skal kombineres med (1) geografisk informationssystem (GIS) -baseret semantiske hierarkiske databaser (svarende til Google Earth), (2) oplysninger abstraktion teknikker (dvs. overgangfra en voxel til geometrisk / volumetrisk repræsentation) kompatibel med computer assisteret design (CAD) software med henblik på at reducere mængden af data og dermed muliggør visning af større mængder 35, (3) simuleringsteknikker, da de ofte anvendes i ingeniørdiscipliner, samt (4) avanceret animation og film gør kapaciteter, herunder fly-gennem animationer (svarende til, hvad der er udviklet til gaming industrien).
Det er klart, effektiv feature extraction og segmentering ligger i hjertet af det kommende revolution i cellulær høj opløsning billeddannelse, og mens vil altid være behov for en bedre tilgang, de principper, der præsenteres her, såvel som eksempler på, hvad fremgangsmåde blev anvendt til forskellige datatyper vil give nogle værdifulde oplysninger for at gøre en beslutning om, hvilken tilgang til at tage.
The authors have nothing to disclose.
We would like to acknowledge and thank Tom Goddard at University of California San Francisco for his endless help with Chimera, Joel Mancuso and Chris Booth at Gatan, Inc. for their help with SBF-SEM data collection of bacteria dataset, Doug Wei at Zeiss, Inc. for his help with the FIB-SEM data collection of epithelial cell dataset, Kent McDonald at University of California Berkeley Electron Microscopy Lab for advice on sample preparation, TEM imaging and tomography, Roseann Csencsits at Lawrence Berkeley National Laboratory for her help taking the cryo-TEM image, Elena Bosneaga for cryo-sectioning of the plant dataset, Jocelyn Krey at Oregon Health and Science University for the dissection of utricle tissue, David Skinner at National Energy Research Scientific Computing Center (NERSC) and Jitendra Malik at University of California Berkeley for their advice in software infrastructure, and Pablo Arbelaez at University of California Berkeley for his codes contributions to the custom-tailored script presented in this article.
Research was supported by the U.S. Department of Energy, Office of Science under contract No. DE-AC02-05CH11231 [David Skinner], as well as U.S. National Institutes of Health (NIH) grant No. P01 GM051487 [M.A.] for the inner ear hair cell project and microscopy instrumentation use.
Material Name | Company | Comments | |
Amira | FEI Visualization Sciences Group | http://www.vsg3d.com/amira/overview | |
Chimera | UCSF | http://www.cgl.ucsf.edu/chimera/ | |
Fiji/ImageJ | National Institute of Health | http://fiji.sc/Fiji, http://rsbweb.nih.gov/ij/ | |
IMOD | Boulder Laboratory for 3D Electron Microscopy of Cells | http://bio3d.colorado.edu/imod/ | |
Photoshop | Adobe | http://www.adobe.com/products/ photoshopfamily.html | |
MATLAB | MathWorks | http://www.mathworks.com/ | |
VLFeat | VLFeat | http://www.vlfeat.org/ |