Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Neuroscience

En metode til 3D rekonstruktion og Virtual Reality analyse af glial og neuronal celler

Published: September 28, 2019 doi: 10.3791/59444

Summary

Den beskrevne rørledning er designet til segmentering af elektronmikroskopi datasæt større end gigabytes, at udtrække helcelle morfologier. Når cellerne er rekonstrueret i 3D, kan tilpasset software designet omkring individuelle behov bruges til at udføre en kvalitativ og kvantitativ analyse direkte i 3D, også ved hjælp af Virtual Reality for at overvinde View okklusion.

Abstract

Seriel skæring og efterfølgende billeddannelse i høj opløsning af biologisk væv ved hjælp af elektronmikroskopi (EM) gør det muligt at segmentere og genopbygge højopløsnings afbildet stakke for at afsløre ultrastrukturelle mønstre, der ikke kunne løses ved hjælp af 2D Billeder. Faktisk kan sidstnævnte føre til en fejlfortolkning af morfologier, som i tilfældet med mitokondrier; brugen af 3D-modeller er derfor mere og mere udbredt og anvendes til formulering af morfologiske-baserede funktionelle hypoteser. Til dato gør brugen af 3D-modeller genereret fra lys eller elektron billedstakke kvalitative, visuelle vurderinger, samt kvantificering, mere bekvemt at blive udført direkte i 3D. Da disse modeller ofte er ekstremt komplekse, er det også vigtigt at oprette et virtuelt Reality-miljø for at overvinde okklusion og udnytte 3D-strukturen fuldt ud. Her er en trinvis vejledning fra billedsegmentering til genopbygning og analyse beskrevet i detaljer.

Introduction

Den første foreslåede model for en elektronmikroskopi setup tillader automatiseret seriel sektion og Imaging dateres tilbage til 19811; udbredelsen af sådanne automatiserede, forbedrede opsætninger til billede store prøver ved hjælp af EM steg i de sidste ti år2,3, og værker fremvisning imponerende tætte rekonstruktioner eller fuld morfologier umiddelbart fulgte4, 5,6,7,8,9,10.

Produktionen af store datasæt kom med behovet for forbedrede rørledninger til billedsegmentering. Software værktøjer til manuel segmentering af seriellesektioner, såsomReconstructog TrakEM2,blev designet til transmission elektronmikroskopi (tem). Da hele processen kan være ekstremt tidskrævende, disse værktøjer er ikke passende, når der beskæftiger sig med de tusindvis af serielle mikrografer, som kan genereres automatisk med state-of-the-art, automatiseret EM seriel sektion teknikker (3DEM), såsom blok-Face scanning Electron mikroskopi (SBEM)3 eller fokuseret ionstråle-scanning elektronmikroskopi (FIB-SEM)2. Af denne grund, forskere sat indsats for at udvikle semi-automatiserede værktøjer, samt fuldt automatiserede værktøjer, for at forbedre segmentering effektivitet. Fuldt automatiserede værktøjer, baseret på maskinel indlæring13 eller State-of-the-art, uuddannede pixel klassifikations algoritmer14, er ved at blive forbedret til at blive brugt af et større samfund; ikke desto mindre, segmentering er stadig langt fra at være fuldt pålidelige, og mange værker er stadig baseret på manuel arbejdskraft, som er ineffektiv i form af segmentering tid, men stadig giver fuldstændig pålidelighed. Halvautomatiserede værktøjer, såsom ilastik15, repræsenterer et bedre kompromis, da de giver en umiddelbar udlæsning for segmentering, der kan korrigeres til en vis grad, selv om det ikke giver en reel korrekturlæser rammer, og kan integreres ved hjælp af TrakEM2 parallelt16.

Storstilet segmentering er til dato for det meste begrænset til forbundethed; Derfor er computer forskere mest interesseret i at tilvejebringe rammer for integrerede visualiseringer af store, kommenterede datasæt og analysere tilslutnings mønstre, der udledes af tilstedeværelsen af synaptiske kontakter17,18. Ikke desto mindre kan præcise 3D-rekonstruktioner anvendes til kvantitative morpometriske analyser i stedet for kvalitative vurderinger af 3D-strukturerne. Værktøjer som neuromorph19,20 og glykogen analyse10 er blevet udviklet til at tage målinger på 3D rekonstruktioner for længder, overfladearealer og volumener, og på fordelingen af Cloud Points, helt kassere den oprindelige EM stack8,10. Astrocytter repræsenterer en interessant casestudie, fordi manglen på visuelle spor eller gentagne strukturelle mønstre giver undersøgere et vink om funktionen af individuelle strukturelle enheder og deraf følgende mangel på en tilstrækkelig ontologi af astrocytiske processer 21, gør det udfordrende at designe analytiske værktøjer. En nylig forsøg var Abstractocyte22, som giver mulighed for en visuel udforskning af astrocytiske processer og følgeslutning af kvalitative relationer mellem astrocytiske processer og neurites.

Ikke desto mindre, bekvemmelighed af billeddannelse sektioneret væv under EM kommer fra det faktum, at mængden af oplysninger gemt i intakt hjerne prøver er enorm og fortolke enkelt afsnit billeder kan overvinde dette problem. Tætheden af strukturer i hjernen er så høj, at 3D rekonstruktioner af selv et par objekter synlige på én gang ville gøre det umuligt at skelne dem visuelt. Derfor har vi for nylig foreslået brugen af Virtual Reality (VR) som en forbedret metode til at observere komplekse strukturer. Vi fokuserer på astrocytter23 for at overvinde okklusion (hvilket er blokeringen af synligheden af et objekt af interesse med en anden, i et 3D-rum) og lette kvalitative vurderinger af rekonstruktioner, herunder korrekturlæsning, samt kvantifikationer af funktioner ved hjælp af optælling af punkter i rummet. Vi har for nylig kombineret VR visuel udforskning med brugen af glam (glykogen-afledte laktat absorption model), en teknik til at visualisere et kort over lactat shuttle sandsynlighed for neurites, ved at overveje glykogen granulat som lysemitterende organer23; Vi brugte især VR til at kvantificere de lystoppe, der produceres af GLAM.

Protocol

1. billedbehandling ved hjælp af Fiji

  1. Åbn billed stakken ved at trække og slippe den oprindelige fil fra mikroskopet, der indeholder stakken, eller ved at trække og slippe den mappe, der indeholder hele billed stakken, i software vinduet.
    Bemærk: Fiji er i stand til automatisk at genkende alle de standard billedformater, såsom. jpg,. tif, og. png, samt proprietære filformater fra mikroskop udbydere. Mens følgende protokol er optimeret til billedstakke fra 3DEM, kan disse trin også bruges til lette mikroskopi datasæt.
  2. Når stakken er åbnet, skal du gå til billede ≫ egenskaber for at sikre, at voxel-størrelsen er blevet læst fra metadataene. Hvis ikke, kan den indtastes manuelt.
  3. Sørg for at omdanne billedet til 8-bit. Klik på billedet ≫ type og vælg 8-bit.
  4. Hvis den oprindelige stak var i forskellige sekventielle filer/mapper, skal du bruge Concatenate til at flette dem i en enkelt stak ved at vælge billede ≫ stakke > værktøjer > Concatenate.
  5. Gem stakken ved at vælge filer ≫ Gem som. Det vil blive gemt som en enkelt. tif-fil og kan bruges som en backup og til videre behandling.
  6. Hvis den oprindelige stak er erhvervet som forskellige fliser, anvende syning inden for TrakEM2.
    1. Opret et nyt TrakEM2-projekt ved hjælp af nye ≫ TrakEM2 (blank).
    2. I visningen Graphical User Interface (GUI), importere stakke ved at klikke på højre museknap > importere > import stak, og importere alle de fliser åbnet i Fiji vigtigste GUI. Sørg for at ændre størrelsen på lærredsstørrelsen, så den passer til hele stakken, ved at højreklikke > vise > ændre størrelse på lærred/lagsætog vælge y/x -pixelstørrelsen afhængigt af montage Lens endelige størrelse.
      Bemærk: For eksempel, hvis montage skal færdiggøres ved hjælp af fire fliser på 4.096 x 4.096 pixels, lærred størrelse bør være mindst 8.192 x 8.192 pixels. Overvej at gøre det lidt større, og beskære det senere.
    3. Oversæt de almindeligt forekommende dele af de enkelte fliser ved at trække og slippe dem på lagsættet. Brug skyderen øverst til venstre til at ændre gennemsigtigheden for at hjælpe med superudskydelse.
    4. Montage og justering af stakke ved at klikke på højre museknap ≫ justere, og vælg derefter en af indstillingerne (se note nedenfor).
      Bemærk: SBEM eller FIB-SEM er normalt allerede godt justeret, men mindre fejljusteringer kan forekomme. Juster lag er den automatiserede pipeline til z -justering. Montage flere lag er den automatiserede rørledning til justering fliser på hver z stak, for hele volumen; Juster flerlags mosaik kombinerer de to tidligere indstillinger. Denne handling er tidskrævende og underlagt maskinens RAM (Random-Access Memory). Overvej at bruge en high-end computer og lad den køre i timevis/dage, afhængigt af størrelsen af stakken.
    5. Endelig eksportere billedet stakke og gemme dem ved hjælp af musen Højreklik ≫ gøre fladt billede, og derefter sørge for at vælge den første til det sidste billede i drop-down menuer Start og .
    6. Brug TrakEM2 indlejrede funktioner, segment strukturer af interesse, hvis det er nødvendigt.
      1. I TrakEM2's GUI skal du højreklikke på noget under skabelon vinduet og vælge Tilføj nyt barn ≫ Area_list.
      2. Træk og slip noget oven på mappen under Project- objekter, og en alt vil blive vist der.
      3. Træk og slip områdelisten fra skabelonen til noget , som er placeret under Project-objekter.
      4. På billedet stak viewport, skal du vælge Z mellemrum med markøren. Områdelisten vises med et entydigt ID-nummer. Vælg penselværktøjet øverst (nederst til højre), og brug musen til at segmentere en struktur ved at udfylde dens cytosol, over hele z -stakken.
      5. Eksporter den segmenterede maske, der skal bruges i ilastik, som frø til udskæring ved at højreklikke enten på objektet områdeliste på listen Z-plads eller på masken i viewporten og vælge Eksporter > områdelister som etiketter (TIF).
  7. Afhængigt af den nødvendige opløsning til yderligere rekonstruktioner, hvis det er muligt, reducere pixelstørrelse af billedet stakken ved nedsampling, i betragtning af hukommelsen krav til den software, der vil blive brugt til segmentering og genopbygning. Brug billed ≫ juster ≫ størrelse.
    Bemærk: ilastik håndterer stakke på op til 500 pixels på XY -brønd. Også nedsampling vil reducere opløsningen af stakken; derfor tage hensyn til den mindste størrelse, hvor objektet stadig synes genkendelige og dermed kan segmenteret.
  8. For at øge kontrasten og hjælpe segmentering kan filteret Uskarp maskning anvendes til at gøre membraner skarpere. Brug proces ≫ Filter ≫ Uskarp maskning.
  9. Eksporter billed stakken som enkeltbilleder til videre behandling i segmenterings software (f. eks. ilastik) ved hjælp af fil ≫ Gem som... > Billedsekvens , og vælg. tif-format.

2. segmentering (semi-automatiseret) og rekonstruktion ved hjælp af ilastik 1.3.2

  1. I den vigtigste ilastik GUI, skal du vælge carving modul.
  2. Indlæs billed stakken ved hjælp af Tilføj ny ≫ Tilføj en enkelt 3D/4d-diskenhed fra sekvens.
  3. Sluttet hel bibliotek og gide den omslag indeholdende den billedstak oplagt nemlig ugifte filer. I bunden af det nye vindue, hvor muligheder for indlæsning af billederne er til stede, skal du sørge for at holde Z valgt.
  4. For de følgende trin, alle operationer og knapper kan findes på venstre side af den vigtigste software GUI. Under fanen forbehandling skal du bruge de standardindstillinger, som allerede er markeret. Brug lyse streger (rygnings filtre) , og hold filter skalaen på 1,600. Denne parameter kan ændres bagefter.
  5. Når forbehandlingen er færdig, skal du vælge den næste side i rullemenuen i mærknings modulet. Et objekt og én baggrund er som standard til stede.
  6. Vælg objektet frø ved at klikke på det, og tegne en linje på toppen af strukturen af interesse; Vælg derefter baggrunds frøet, og tegn en eller flere linjer uden for det objekt, der skal rekonstrueres. Klik derefter på segment, og vent.
    Bemærk:
    afhængigt af computerens strøm og størrelsen af stakken kan segmentering tage fra et par sekunder til timer. Når det er gjort, skal en halvgennemsigtig maske, der fremhæver segmentering, vises oven på den segmenterede struktur.
    1. Rul gennem stakken for at kontrollere segmentering. Segmenteringen er muligvis ikke korrekt og følger ikke strukturen af interessen nøjagtigt eller løber ud fra den. Korriger enhver afsmittende ved at placere en baggrundsfrø på den spildte segmentering og tilføje et objekt frø over det ikke-rekonstruerede segment af interesseobjektet.
    2. Hvis segmentering stadig ikke er korrekt, kan du prøve at ændre med parameteren bias , som vil øge eller mindske mængden af usikre klassificerede pixels som accepteret. Dens værdi er 0,95 som standard; Reducer det for at begrænse spild lover (normalt til ikke mindre end 0,9) eller stige, hvis segmentering er for konservativ (op til 1).
    3. En anden mulighed er at gå tilbage til trin 2,4 (ved at klikke på forbehandling) og ændre størrelsen af filteret; forøgelse af værdien (f. eks. til 2) vil minimere salt-og-peber støj-lignende effekter, men vil også gøre membraner mere sløret og mindre detaljer sværere at opdage. Dette kan begrænse spillover.
  7. Gentag så meget som nødvendigt, så længe alle ønskede objekter er blevet segmenteret. Når et objekt er færdigt, klik på Gem aktuelt objekt, under segment. To nye frø vises, for at starte segmenteringen af et nyt objekt.
  8. Uddrag overflade masker med det samme som. OBJ filer ved at klikke på Eksporter alle masker.
  9. Hvis der er behov for yderligere korrekturlæsning, kan segmentering udvindes som binære masker. Vælg masken for at eksportere den ved at klikke på Gennemse objekter; derefter skal du højreklikke på segmentering ≫ Eksporter og derefter under output filoplysningervælge TIF sekvens som format.

3. korrekturlæsning/segmentering (manual) i TrakEM2 (Fiji)

  1. Indlæs billed stakken, og Opret et nyt TrekEM2 projekt pr. trin 1.6.1.
  2. Importer de masker, der skal korrekturlæse, ved hjælp af indstillingen Importer etiketter som arealists, der er tilgængelige i den samme import menu, der bruges til at importere billed stakken.
  3. Vælg den arealist, der importeres i Z-området, og brug penselværktøjet til at gennemgå segmentering.
  4. Visualiser modellen i 3D ved at højreklikke på områdelisten ≫ Vis i 3D. I det følgende vindue, der beder om et resample-nummer, vil en højere værdi generere en lavere opløsnings maske.
    Bemærk: Afhængigt af objektets størrelse skal du overveje at bruge en værdi mellem 4 og 6, som normalt giver det bedste kompromis mellem opløsning og morfologiske detaljer.
  5. Eksporter 3D-masken som Wavefront. OBJ ved at vælge fra Menufilen ≫ eksportere overflader ≫ Wavefront.

4.3D-analyse

  1. Åben blender. For de følgende trin, skal du sørge for at installere den neuromorph Toolkit (tilgængelig på tilgængelig på https://neuromorph.EPFL.ch/index.html) og glykogen Analysis Toolkit (tilgængelig på https://github.com/daniJb/Glyco-Analysis).
    1. Importer objekterne ved hjælp af NeuroMorph-batch importen ved at klikke på Importer objekter undermenuen scene for at importere flere objekter på én gang. Sørg for at aktivere Brug Remesh og glatte skygger.
      Bemærk: Det anbefales ikke at klikke på færdiggør Remesh , hvis der er usikkerhed om den oprindelige størrelse af objektet. Import trædybde ved værdi 7 (standard) er normalt god til at opretholde en acceptabel opløsning og morfologi af objektet.
    2. Vælg objektet af interesse fra henkaste og ændre octree dybden af Remesh funktion under modifikatorer menuen iterativt at minimere antallet af knudepunkter og for at undgå at miste detaljer i opløsning og korrigere morfologi. Når du ændrer octree dybden, vil masken på den vigtigste GUI ændre sig i overensstemmelse hermed. Når du er færdig, skal du klikke på Anvend for at afslutte processen.
      Bemærk: Værdier omkring 4 er normalt gode til små objekter (f. eks. postsynaptiske tætheder), værdier omkring 7 for større (såsom lange axoner eller dendritter) og værdier omkring 8 eller 9 for komplette cellulære morfologier, hvor detaljerne i forskellige opløsninger skal Vedligeholdes.
    3. Brug billed stak interaktioner til billed oversætnings værktøjet i venstre panel undermenuen Neuromorph til at indlæse billed stakken. Sørg for at indtaste den fysiske størrelse af billed stakken for x, yog x (i mikron eller nanometer, afhængigt af enhederne i masken) og vælg stien til stakken ved at klikke på Source_Z. X og Y er ortogonale fly; de er valgfrie og vil kun blive indlæst, hvis brugeren indsætter en gyldig sti.
    4. Vælg derefter en maske på visningen ved at højreklikke på den, skal du indtaste redigeringstilstand ved at trykke på tab, Vælg en (eller flere) knudepunkter ved hjælp af musen Højreklik, og endelig, klik på Vis billede på vertex. Et (eller flere) skære plan (r) med mikrografen vises oven på masken.
    5. Vælg klippe planet ved at højreklikke på det, tryk på CTRL + Y, og rul over 3D-modellen ved hjælp af musen rulle. Dette kan også bruges som korrekturlæsning metode.
    6. Brug måleværktøjer til kvantifikationer af overfladearealer, volumener og længder. Disse operationer er dokumenteret i flere detaljer af Jorstad et al.19 og på NeuroMorph hjemmeside24.
    7. Brug glykogen analyseværktøj til at kvantificere glykogen nærhed mod spines og boutons. Operationer dokumenteres i flere detaljer i en tidligere publikation10 og i glykogen analyse lageret25.
  2. Kør GLAM23. Koden, eksekverbare, og nogle test filer er tilgængelige i GLAM repository26.
    1. Forbered to geometri filer i. ply format: en kildefil, der indeholder glykogen granulat og en målfil, der indeholder morfologiske overflader.
    2. Forbered tre. ASCII colormap-filer (hver linje, der indeholder t_norm (0.. 1) R (0.. 255) G (0.. 255) B (0.. 255)) til at repræsentere lokale absorptions værdier, spidsværdier og gennemsnitlige absorptions værdier.
    3. Udfør C++-scriptet GLAM med geometri-filerne (trin 4.2.1) og colormap-filer (trin 4.2.2) ved at indstille indflydelses radius (i mikron), den maksimale forventede absorptionsværdi og en normaliseret tærskel for klyngedannelse af absorptions toppe. Du kan få oplysninger om andre parametre ved at udføre scriptet med hjælp-funktionen.
    4. Eksporter resultaterne som. ply eller. OBJ filer: Target objekter farve-kortlagt med GLAM-værdier, absorption peak markører repræsenteret som farvekodede kugler, og målrette objekter farvekodet med hensyn til den gennemsnitlige absorption værdi.
  3. Åbn VR-data interaktivt. VR data INTERACT-eksekverbar kode er tilgængelig i et offentligt Depot27.
    1. Importer masker, der skal visualiseres, ved at følge instruktionerne i VR-menuen. Sørg for at importere. OBJ-filerne, der er beregnet i trin 4.2.1, hvis der er behov for en GLAM-analyse.

Representative Results

Ved at bruge den procedure, der præsenteres ovenfor, viser vi resultater på to billedstakke af forskellig størrelse for at demonstrere, hvordan fleksibiliteten i værktøjerne gør det muligt at opskalere proceduren til større datasæt. I dette tilfælde er de to 3DEM-datasæt (i) P14 rat, somatosensorisk cortex, Layer VI, 100 μm x 100 μm x 76,4 μm4 og (II) P60 rat, HIPPOCAMPUS carnot, 7,07 μm x 6,75 μm x 4,73 μm10.

Forbehandlings trinnene (figur 1) kan udføres på samme måde for begge datasæt, blot under hensyntagen til, at et større datasæt som den første stak, som er 25 GB, kræver mere hardware til at håndtere store datavisualisering og-behandling . Den anden stak er kun 1 GB, med en perfekt isotropisk voxel størrelse.

Størrelsen af data kan ikke være direkte relateret til synsfeltet (FOV), snarere end til opløsningen af stakken selv, som afhænger af den maksimale pixelstørrelse af sensoren af mikroskopet, og forstørrelse af stakken. Under alle omstændigheder, logisk, større FOVs er tilbøjelige til at besætte mere fysisk rum i forhold til mindre FOVs, hvis erhvervet på samme opløsning.

Når billedet stakken er importeret, som angivet i afsnit 1 i protokollen, i Fiji software (figur 1a), en videnskabelig udgivelse af ImageJ12, et vigtigt punkt er at sikre, at billedet format er 8-bit (figur 1b). Dette fordi mange erhvervelse software forskellige mikroskopi virksomheder producenter generere deres proprietære filformat i 16-bit til at gemme metadata relevante for oplysninger om erhvervelses processen (dvs. pixelstørrelse, tykkelse, strøm/spænding af elektronstråle, kammer tryk) sammen med billed stakken. Sådanne justeringer tillader forskerne at spare hukommelse, da de ekstra 8-bit indeholder metadata ikke påvirker billederne. Den anden vigtige parameter til at kontrollere, er voxel størrelse, som derefter tillader genopbygning efter segmentering, der skal udføres på den korrekte skala (mikrometer eller nanometer; Figur 1b).

Stakke kan have brug for justering og/eller syning, hvis de er erhvervet ved hjælp af flisebelægning; disse operationer kan udføres inden for TrakEM2 (figur 2a), men med hensyn til justering, automatiserede 3dem teknikker som FIB-SEM eller 3view er normalt godt justeret.

Et sidste trin kræver filtrering og eventuelt nedsampling af stakken, afhængigt af hvilke objekter der skal rekonstrueres, og om nedsampling påvirker anerkendelsen af de rekonstruktable funktioner. For eksempel, for den større stak (af den somatosensoriske cortex af P14 rotter), det var ikke muligt at kompromittere opløsningen til gavn for genopbygningen effektivitet, mens der for den mindre stak (af hippocampus Carnot af P60 rotter), det var muligt at gøre det fordi opløsningen var langt over, hvad der var nødvendigt for de mindste objekter, der skal rekonstrueres. Endelig, brugen af Uskarp maskning øger forskellen mellem membraner og baggrunden, hvilket gør det gunstigt for rekonstruktioner af software som ilastik, som bruger gradienter til at pre-evaluere grænser.

Efter billedbehandlingen kan genopbygningen udføres enten manuelt ved hjælp af TrakEM2 eller semi-automatisk ved hjælp af ilastik (figur 2c). Et datasæt som det mindre, der er anført her (II), der kan nedsamples til at passe ind i hukommelsen, kan være fuldt segmenteret ved hjælp af ilastik (figur 2b) til at producere en tæt rekonstruktion. I tilfælde af det første datasæt, der er angivet her (i), har vi formået at indlæse og forbehandle hele datasættet med en Linux-arbejdsstation med 500 GB RAM. Den sparsomme segmentering af 16 fulde morfologier blev opnået med en hybrid pipeline ved at udtrække grov segmentering, der manuelt blev korrekturlæst ved hjælp af TrakEM2.

3D-analysen af funktioner som overfladearealer, volumener eller fordelingen af intracellulære glykogen kan udføres i en blender miljø (figur 3) ved hjælp af brugerdefinerede koder, såsom NeuroMorph19 eller glykogen analyse10.

I tilfælde af datasæt, der indeholder glykogen granulat samt, analyse af deres fordeling kan udledes ved hjælp af GLAM, en C++ kode, der ville generere colormaps med indflydelse område direkte på masken.

Endelig kan sådanne komplekse datasæt visualiseres og analyseres ved hjælp af VR, hvilket har vist sig at være nyttigt til analyse af datasæt med en bestemt okcerede visning (figur 4). For eksempel blev toppe udledt fra GLAM Maps let udledes visuelt fra dendritter i det andet datasæt diskuteret her.

Figure 1
Figur 1: billedbehandling og forberedelse til billedsegmentering. (a) vigtigste Fiji GUI. b) eksempel på stablede billeder fra datasæt (i), som er drøftet i de repræsentative resultater. Panelet til højre viser egenskaber, der gør det muligt for brugeren at indstille voxel størrelse. (c) eksempel på en filer og resize operation anvendes på et enkelt billede. Panelerne til højre viser forstørrelser fra midten af billedet. Venligst klik her for at se en større version af dette tal.

Figure 2
Figur 2: segmentering og genopbygning ved hjælp af TrakEM2 og ilastik. (a) TrakEM2 GUI med objekter manuelt segmenteret (i rødt). b) den eksporterede maske fra panel a kan anvendes som input (Seed) til (c) semi-automatiseret segmentering (udskæring). Fra ilastik, masker (rød) kan eksporteres yderligere til TrakEM2 for manuel korrekturlæsning. (d) masker kan derefter eksporteres som 3D trekantede masker til at afsløre rekonstruerede strukturer. I dette eksempel blev fire neuroner, astrocytter, microglia og pericytes fra DataSet (i) (diskuteret i de repræsentative resultater) rekonstrueret ved hjælp af denne proces. Venligst klik her for at se en større version af dette tal.

Figure 3
Figur 3: 3D-analyse af rekonstruerede morfologier ved hjælp af tilpassede værktøjer. a) isotropisk afbildet volumen fra FIB-SEM datasæt (II) (som beskrevet i de repræsentative resultater). b) tæt rekonstruktion fra panel a. Grå = axoner; grøn = astrocytisk proces; blå = dendritter. (c) Mikrograf, der viser eksempler på mål for kvantifikationer såsom synapser (datasæt (i)) og astrocytiske glykogen granulat (datasæt (II)) i de rigtige forstørrelser. (d) maske fra panel c viser fordelingen af glykogen granulat omkring synapser. e) kvantificering af glykogen fordeling fra datasættet fra panel cved hjælp af glykogen Analyskasse fra blender. Fejllinjerne angiver standardfejl. N = 4.145 glykogen granulat. (f) en grafisk illustration af input og output VISUALISERING af glam. Venligst klik her for at se en større version af dette tal.

Figure 4
Figur 4: analyse i VR. (a) en bruger, der bærer et VR-headset, mens han arbejder påb) den tætte rekonstruktion fra FIB-SEM-datasæt (II) (som beskrevet i de repræsentative resultater). (c) FORDYBENDE VR-scene fra en delmængde af neuriter fra panel b. Den grønne laser peger på en GLAM Peak. (d) eksempel på en analyse fra glam peak tæller i VR. N = 3 mus pr. bar. Analyse af FIB-SEM fra en tidligere publikation28. Fejllinjerne angiver standard fejlene. *p < 0,1, enkelt-vejs ANOVA. Venligst klik her for at se en større version af dette tal.

Discussion

Den metode, der præsenteres her, er en nyttig trin-for-trin-vejledning til segmentering og 3D-rekonstruktion af et multiscale EM-datasæt, uanset om de kommer fra billedbehandlings teknikker med høj opløsning, som FIB-SEM eller andre automatiserede serielle skære-og billedbehandlings teknikker. FIB-SEM har fordelen af potentielt at nå perfekt isotropi i voxel størrelse ved at skære sektioner så tynde som 5 nm ved hjælp af en fokuseret ionstråle, dens FOV kan være begrænset til 15-20 μm på grund af side artefakter, som muligvis skyldes aflejring af det afskårne væv, hvis fo V overskrider denne værdi. Sådanne artefakter kan undgås ved hjælp af andre teknikker, såsom SBEM, som bruger en diamant kniv til at skære serielle sektioner inde i mikroskop kammeret. I sidstnævnte tilfælde kan z -opløsningen være omkring 20 Nm i bedste fald (normalt 50 nm), men FOV kan være større, selvom pixel opløsningen bør kompromitteres for en stor region af interesse. En løsning til at overvinde sådanne begrænsninger (forstørrelse vs. FOV) er at opdele regionen af interesse i fliser og erhverve hver af dem på en højere opløsning. Vi har vist her resultater fra både en SBEM stack-datasæt (i) i de repræsentative resultater-og en FIB-SEM stack-datasæt (II) i de repræsentative resultater.

Efterhånden som genereringen af større og større datasæt bliver mere og mere udbredt, mangedobles bestræbelserne på at skabe værktøjer til pixel klassifikation og automatiseret billedsegmentering. ikke desto mindre har ingen software hidtil vist sig at være sammenlignelig med den menneskelige korrektur, som derfor stadig er nødvendig, uanset hvor tidskrævende den er. Generelt kan mindre datasæt, der kan nedsamples, som i tilfælde af datasæt (II), være tæt rekonstrueret af en enkelt, ekspert bruger i en uge, herunder korrekturlæsning tid.

Den protokol, der præsenteres her indebærer brugen af tre softwareprogrammer i særdeleshed: Fiji (version 2.0.0-RC-65/1.65 b), ilastik (version 1.3.2 RC2), og blender (2,79), som er alle open source og multi-platform programmer og downloades gratis. Fiji er en udgivelse af ImageJ, drevet af plugins til biologisk billedanalyse. Det har en robust software arkitektur og foreslås, da det er en fælles platform for Life forskere og omfatter TrakEM2, en af de første og mest udbredte plugins til billedsegmentering. Et problem opleves af mange brugere sidst er overgangen fra Java 6 til Java 8, som skaber kompatibilitetsproblemer; Derfor foreslår vi at afstå fra at opdatere til Java 8, hvis det er muligt, at tillade Fiji at arbejde ordentligt. ilastik er en kraftfuld software, der giver en række rammer for pixel klassifikation, hver enkelt dokumenteret og forklaret på deres hjemmeside. Den carving modul, der anvendes til semi-automatiseret segmentering af EM stakke er praktisk, da det sparer meget tid, så forskerne til at reducere den tid brugt på manuelt arbejde fra måneder til dage for en erfaren bruger, som med et enkelt klik en hel neurite kan være segmenteret i sekunder. Forbehandlings trinnet er meget intens fra en hardware synspunkt, og meget store datasæt, ligesom SBEM stak præsenteret her, som var 26 GB, kræver ejendommelige strategier til at passe ind i hukommelsen, i betragtning af at man ville erhverve store datasæt, fordi der ikke kan kompromis syns-og beslutningsforslag. Derfor er nedsampling måske ikke en hensigtsmæssig løsning i dette tilfælde. Den seneste udgivelse af softwaren kan gøre forbehandlingen i et par timer med en kraftfuld Linux-arbejdsstation, men segmentering ville tage minutter, og rulle gennem stakken ville stadig være relativt langsom. Vi bruger stadig denne metode til en første, grov segmentering, og korrekturlæse den ved hjælp af TrakEM2. Endelig, blender er en 3D modellering software, med en kraftfuld 3D gengivelse motor, som kan tilpasses med python scripts, der kan indlejres i de vigtigste GUI som add-ons, såsom neuromorph og glykogen analyse. Fleksibiliteten af denne software kommer med den ulempe, at, i modsætning til Fiji, for eksempel, det er ikke designet til online visualisering af store datasæt; Det kan derfor være langsom og ikke effektivt at visualisere og navigere gennem store masker (over 1 GB). På grund af dette, er det altid tilrådeligt at vælge teknikker, der reducerer mesh kompleksitet, men er omhyggelig med ikke at forstyrre den oprindelige morfologi af strukturen af interesse. Den Remesh funktion kommer i handy og er en indlejret funktion i NeuroMorph batch import Tool. Et problem med denne funktion er, at afhængigt af antallet af knudepunkter i den oprindelige maske, skal oktræets dybde værdi, som er relateret til den endelige opløsning, ændres i overensstemmelse hermed. Små objekter kan remeshed med en lille octree dybde (f. eks 4), men den samme værdi kan forstyrre morfologien af større objekter, som har brug for større værdier (6 i bedste fald, til 8 eller endda 9 for en meget stor mesh, såsom en fuld celle). Det er tilrådeligt at gøre denne proces iterativ og teste de forskellige octree dybder, hvis størrelsen af objektet ikke er klar.

Som tidligere nævnt, et aspekt, der bør tages i betragtning, er den beregningsmæssige magt til at være dedikeret til genopbygning og analyse, relateret til den software, der bliver brugt. Alle de operationer, der er vist i de repræsentative resultater af dette manuskript, blev indhentet ved hjælp af en MacPro, udstyret med et AMD FirePro D500-grafikkort, 64 GB RAM og en Intel Xeon E5 CPU med 8 kerner. Fiji har en god software arkitektur til håndtering af store datasæt; Derfor anbefales det at bruge en bærbar computer med en god hardware ydeevne, såsom en MacBook Pro med en 2,5 GHz Intel i7 CPU og 16 GB RAM. ilastik software er mere krævende med hensyn til hardware ressourcer, især under forbehandlings trinnet. Selvom nedsampling billed stakken er et godt trick til at begrænse hardware anmodninger fra softwaren og giver brugeren mulighed for at behandle en stak med en bærbar computer (typisk hvis det er under 500 pixels i x,y,z), foreslår vi brugen af en high-end computer til at køre denne software gnidningsløst. Vi bruger en arbejdsstation udstyret med en Intel Xeon Gold 6150 CPU med 16 kerner og 500 GB RAM.

Når de leveres med en nøjagtig 3D-rekonstruktion, kan forskerne kassere de oprindelige mikrografer og arbejde direkte på 3D-modellerne for at udtrække nyttige morpometriske data for at sammenligne celler af samme type, samt forskellige typer celler, og drage fordel af VR for kvalitative og kvantitative vurderinger af morfologier. Navnlig har anvendelsen af sidstnævnte vist sig at være gavnlig i tilfælde af analyser af tætte eller komplekse morfologier, der præsenterer visuel okklusion (dvs. blokering af et objekt af interesse i 3D-rummet med en anden placeret mellem observatøren og fi det første objekt), hvilket gør det vanskeligt at repræsentere og analysere dem i 3D. I det viste eksempel tog en erfaren bruger ca. 4 ikke-sammenhængende timer for at observere data sætsene og tælle objekterne. Den tid, der bruges på VR-analyse kan variere, da aspekter som VR-sygdom (som til en vis grad kan relateres til bilsygdom) har en negativ indvirkning på brugeroplevelsen; i dette tilfælde kan brugeren foretrække andre analyseværktøjer og begrænse deres tid dedikeret til VR.

Endelig kan alle disse trin anvendes på andre mikroskopi og ikke-EM-teknikker, der genererer billedstakke. EM genererer billeder, der i almindelighed er udfordrende at håndtere og segment, sammenlignet med, for eksempel, Fluorescens mikroskopi, hvor noget kan sammenlignes med en binær maske (signal versus en sort baggrund), der i princippet let gengives i 3D for behandling, ofte skal behandles.

Disclosures

Forfatterne har intet at afsløre.

Acknowledgments

Dette arbejde blev støttet af King Abdullah University of Science and Technology (KAUST) konkurrencedygtige forskningsstipendier (CRG) Grant "KAUST-BBP Alliance for Integrative modellering af hjernen energimetabolisme" til P.J.M.

Materials

Name Company Catalog Number Comments
Fiji Open Source 2.0.0-rc-65/1.65b Open Source image processing editor
www.fiji.sc
iLastik Open Source  1.3.2 rc2 Image Segmentation tool
www.ilastik.org
Blender Blender Foundation 2.79 Open Source 3D Modeling software
www.blender.org
HTC Vive Headset HTC Vive / Vive Pro Virtual Reality (VR) Head monted headset
www.vive.com
Neuromorph Open Source --- Collection of Blender Addons for 3D Analysis
neuromorph.epfl.ch
Glycogen Analysis Open Source --- Blender addon for analysis of Glycogen
https://github.com/daniJb/glyco-analysis
GLAM Open Source --- C++ Code For generating GLAM Maps
https://github.com/magus74/GLAM

DOWNLOAD MATERIALS LIST

References

  1. Leighton, S. B. SEM images of block faces, cut by a miniature microtome within the SEM - a technical note. Scanning Electron Microscopy. , 73-76 (1981).
  2. Knott, G., Marchman, H., Wall, D., Lich, B. Serial section scanning electron microscopy of adult brain tissue using focused ion beam milling. Journal of Neuroscience. 28, 2959-2964 (2008).
  3. Denk, W., Horstmann, H. Serial block-face scanning electron microscopy to reconstruct three-dimensional tissue nanostructure. PLOS Biology. 2, e329 (2004).
  4. Coggan, J. S., et al. A Process for Digitizing and Simulating Biologically Realistic Oligocellular Networks Demonstrated for the Neuro-Glio-Vascular Ensemble. Frontiers in Neuroscience. 12, (2018).
  5. Tomassy, G. S., et al. Distinct Profiles of Myelin Distribution Along Single Axons of Pyramidal Neurons in the Neocortex. Science. 344, 319-324 (2014).
  6. Wanner, A. A., Genoud, C., Masudi, T., Siksou, L., Friedrich, R. W. Dense EM-based reconstruction of the interglomerular projectome in the zebrafish olfactory bulb. Nature Neuroscience. 19, 816-825 (2016).
  7. Kasthuri, N., et al. Saturated Reconstruction of a Volume of Neocortex. Cell. 162, 648-661 (2015).
  8. Calì, C., et al. The effects of aging on neuropil structure in mouse somatosensory cortex—A 3D electron microscopy analysis of layer 1. PLOS ONE. 13, e0198131 (2018).
  9. Visual Analysis of Glycogen Derived Lactate Absorption in Dense and Sparse Surface Reconstructions of Rodent Brain Structures. Calì, C., Agus, M., Gagnon, N., Hadwiger, M., Magistretti, P. J. Eurographics Italian Chapter Conference 2017 – Smart Tools and Apps in computer Graphics, , Catania, Italy. (2017).
  10. Calì, C., et al. Three-dimensional immersive virtual reality for studying cellular compartments in 3D models from EM preparations of neural tissues. Journal of Comparative Neurology. 524, 23-38 (2016).
  11. Fiala, J. C. Reconstruct: a free editor for serial section microscopy. Journal of Microscopy. 218, 52-61 (2005).
  12. Cardona, A., et al. TrakEM2 software for neural circuit reconstruction. PLOS ONE. 7, e38011 (2012).
  13. Januszewski, M., et al. High-precision automated reconstruction of neurons with flood-filling networks. Nature Methods. 1, (2018).
  14. Shahbazi, A., et al. Flexible Learning-Free Segmentation and Reconstruction of Neural Volumes. Scientific Reports. 8, 14247 (2018).
  15. Sommer, C., Straehle, C., Köthe, U., Hamprecht, F. A. Ilastik: Interactive learning and segmentation toolkit. 2011 IEEE International Symposium on Biomedical Imaging: From Nano to Macro, Chicago, IL, , (2011).
  16. Holst, G., Berg, S., Kare, K., Magistretti, P., Calì, C. Adding large EM stack support. 2016 4th Saudi International Conference on Information Technology (Big Data Analysis) (KACSTIT), Riyadh, Saudi Arabia, , (2016).
  17. Beyer, J., et al. ConnectomeExplorer: query-guided visual analysis of large volumetric neuroscience data. IEEE Transactions on Visualization and Computer Graphics. 19, 2868-2877 (2013).
  18. Beyer, J., et al. Culling for Extreme-Scale Segmentation Volumes: A Hybrid Deterministic and Probabilistic Approach. IEEE Transactions on Visualization and Computer. , (2018).
  19. Jorstad, A., et al. NeuroMorph: A Toolset for the Morphometric Analysis and Visualization of 3D Models Derived from Electron Microscopy Image Stacks. Neuroinformatics. 13, 83-92 (2015).
  20. Jorstad, A., Blanc, J., Knott, G. NeuroMorph: A Software Toolset for 3D Analysis of Neurite Morphology and Connectivity. Frontiers in Neuroanatomy. 12, 59 (2018).
  21. Calì, C. Astroglial anatomy in the times of connectomics. Journal of Translational Neuroscience. 2, 31-40 (2017).
  22. Mohammed, H., et al. Abstractocyte: A Visual Tool for Exploring Nanoscale Astroglial Cells. IEEE Transactions on Visualization and Computer Graphics. , (2017).
  23. Agus, M., et al. GLAM: Glycogen-derived Lactate Absorption Map for visual analysis of dense and sparse surface reconstructions of rodent brain structures on desktop systems and virtual environments. Computers & Graphics. 74, 85-98 (2018).
  24. École Polytechnique Fédérale de Lausanne. NeuroMorph Analysis and Visualization Toolset. , http://neuromorph.epfl.ch (2018).
  25. Boges, D. GitHub - daniJb/glycol-analysis: Glycogen_analysis.py is a python-blender API based script that performs analysis on a reconstructed module of glycogen data. , https://github.com/daniJb/glyco-analysis (2018).
  26. Agus, M. GitHub – magus74/GLAM: Glycogen Lactate Absorption Model. , https://github.com/magus74/GLAM (2019).
  27. Agus, M., et al. GLAM: Glycogen-derived Lactate Absorption Map for visual analysis of dense and sparse surface reconstructions of rodent brain structures on desktop systems and virtual environments. Dryad Digital Repository. , (2018).
  28. Calì, C., et al. Data from: The effects of aging on neuropil structure in mouse somatosensory cortex—A 3D electron microscopy analysis of layer 1. Dryad Digital Repository. , (2018).

Tags

Neurovidenskab 3DEM segmentering 3D rekonstruktion 3D-analyse Virtual Reality astrocyt
En metode til 3D rekonstruktion og Virtual Reality analyse af glial og neuronal celler
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Calì, C., Kare, K., Agus, M.,More

Calì, C., Kare, K., Agus, M., Veloz Castillo, M. F., Boges, D., Hadwiger, M., Magistretti, P. A Method for 3D Reconstruction and Virtual Reality Analysis of Glial and Neuronal Cells. J. Vis. Exp. (151), e59444, doi:10.3791/59444 (2019).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter