Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Neuroscience

En metode for 3D rekonstruksjon og Virtual Reality analyse av gliacellene og neuronal Cells

Published: September 28, 2019 doi: 10.3791/59444

Summary

Den beskrevne rørledningen er utformet for segmentering av elektron mikroskopi datasett som er større enn gigabyte, for å trekke ut hele celle morfologier. Når cellene er rekonstruert i 3D, tilpasset programvare designet rundt individuelle behov kan brukes til å utføre en kvalitativ og kvantitativ analyse direkte i 3D, også ved hjelp av virtuell virkelighet å overvinne vise okklusjon.

Abstract

Serial snitting og påfølgende Høyoppløselig bilde av biologisk vev ved hjelp av elektron mikroskopi (EM) tillater segmentering og rekonstruksjon av høyoppløselig avbildet stabler å avdekke ultrastructural mønstre som ikke kunne løses ved hjelp av 2D Bilder. Faktisk kan sistnevnte føre til en feil tolkning av morfologier, som i tilfelle av mitokondrier; Bruk av 3D-modeller er derfor mer og mer vanlig og brukt på formuleringen av morfologi-baserte funksjonelle hypoteser. Til dags dato gjør bruk av 3D-modeller generert fra lys eller elektron bilde stabler kvalitative, visuelle vurderinger, så vel som kvantifisering, mer praktisk å bli utført direkte i 3D. Ettersom disse modellene er ofte svært komplekse, er en virtuell virkelighet miljø også viktig å være satt opp til å overvinne okklusjon og å dra full nytte av 3D-strukturen. Her er en steg-for-steg guide fra bilde segmentering til rekonstruksjon og analyse er beskrevet i detalj.

Introduction

Den første foreslåtte modellen for et elektron mikroskopi oppsett slik at automatiserte serielle delen og Imaging dateres tilbake til 19811; spredningen av slike automatiserte, forbedret oppsett til bilde store prøver å bruke EM økt i de siste ti årene2,3, og arbeider utstillingsvindu imponerende tette rekonstruksjoner eller full morfologier umiddelbart fulgt4, 5,6,7,8,9,10.

Produksjonen av store datasett kom med behovet for forbedrede rørledninger for bilde segmentering. Programvareverktøy for manuell segmentering av serielleseksjoner, sliksom rekonstruereog TrakEM2,ble utformet for overføring av elektron mikroskopi (TEM). Som hele prosessen kan være svært tidkrevende, disse verktøyene er ikke hensiktsmessig når du arbeider med tusenvis av serielle micrographs som kan automatisk generert med State-of-the-art, automatiserte EM seriell del teknikker (3DEM), for eksempel blokk-ansikt skanning elektron mikroskopi (SBEM)3 eller fokusert ion Beam-Scanning elektron MIKROSKOPI (LØGN-SEM)2. Av denne grunn, forskere legger innsats i å utvikle semi-automatiserte verktøy, samt helautomatisk verktøy, for å forbedre segmentering effektivitet. Helautomatisk verktøy, basert på maskinlæring13 eller State-of-the-art, uerfarne pixel klassifisering algoritmer14, blir forbedret for å brukes av et større fellesskap; Likevel er segmentering fortsatt langt fra å være fullt pålitelig, og mange arbeider er fortsatt basert på manuell arbeidskraft, som er ineffektiv i forhold til segmentering tid, men likevel gir fullstendig pålitelighet. Semi-automatiserte verktøy, for eksempel ilastik15, representerer et bedre kompromiss, som de gir en umiddelbar avlesning for segmentering som kan korrigeres til en viss grad, selv om det ikke gir en reell korrekturlesing rammeverk, og kan integreres ved hjelp av TrakEM2 i parallell16.

Stor skala segmentering er hittil, for det meste begrenset til connectomics; Derfor er dataforskere mest interessert i å tilby rammeverk for integrerte visualiseringer av store, kommenterte datasett og analysere tilkoblings mønstre utledes av tilstedeværelsen av Synaptic kontakter17,18. Likevel kan nøyaktige 3D-rekonstruksjoner brukes til kvantitative morphometric analyser, i stedet for kvalitative vurderinger av 3D-strukturene. Verktøy som NeuroMorph19,20 og glykogen analyse10 er utviklet for å ta målinger på 3D-rekonstruksjoner for lengder, overflateområder og volumer, og på fordelingen av Sky poeng, helt forkaster den opprinnelige EM-stakken8,10. Astrocytter representerer en interessant case-studie, fordi mangelen på visuelle ledetråder eller repeterende strukturelle mønstre gi etterforskere et hint om funksjonen til individuelle strukturelle enheter og påfølgende mangel på en adekvat ontologi av astrocytic prosesser 21, gjør det utfordrende å designe analytiske verktøy. Et siste forsøk var Abstractocyte22, som tillater en visuell utforskning av astrocytic prosesser og den slutning av kvalitative relasjoner mellom astrocytic prosesser og neurites.

Likevel, bekvemmeligheten av tenkelig delt vev under EM kommer fra det faktum at mengden av informasjon gjemt i intakt hjerne prøver er enorm og tolke enkelt del bilder kan overvinne dette problemet. Tettheten av strukturer i hjernen er så høy at 3D rekonstruksjoner av enda noen objekter synlig på en gang ville gjøre det umulig å skille dem visuelt. Av denne grunn har vi nylig foreslått bruk av Virtual Reality (VR) som en forbedret metode for å observere komplekse strukturer. Vi fokuserer på astrocytter23 for å overvinne okklusjon (som er blokkering av synligheten av et objekt av interesse med en andre, i et 3D-rom) og lette kvalitative vurderinger av rekonstruksjoner, inkludert korrekturlesing, samt quantifications av funksjoner ved hjelp av antall poeng i rommet. Vi kombinerte nylig VR visuell utforskning med bruk av GLAM (glykogen-avledet melkesyre absorpsjons modell), en teknikk for å visualisere et kart over neurites av melkesyre shuttle, ved å vurdere glykogen granulat som lys-Emitting organer23; spesielt brukte vi VR til å kvantifisere de lyse toppene produsert av GLAM.

Protocol

1. bildebehandling bruke Fiji

  1. Åpne bildes takken ved å dra og slippe den opprinnelige filen fra mikroskopet som inneholder stabelen, eller ved å dra og slippe mappen som inneholder hele bilde stabelen, inn i programvare vinduet.
    Merk: Fiji kan automatisk gjenkjenne alle standard bildeformater, for eksempel jpg, TIF og PNG, i tillegg til proprietære filformater fra mikroskop leverandører. Selv om følgende protokoll er optimalisert for bilde stabler fra 3DEM, kan disse trinnene også brukes for lys mikroskopi datasett.
  2. Når stabelen er åpnet, gå til bilde ≫ egenskaper for å sikre at Voxel størrelsen er lest fra metadataene. Hvis ikke, kan det angis manuelt.
  3. Sørg for å forvandle bildet til 8-bits. Klikk på bildet ≫ type og velg 8-bit.
  4. Hvis den opprinnelige stakken var i forskjellige sekvensielle filer/mapper, bruker du sammenkoble til å flette dem i én stabel ved å velge bilde ≫ stabler ≫ verktøy > sammenkoble.
  5. Lagre stakken ved å velge fil ≫ lagre som. Det vil bli lagret som en enkelt TIF-fil og kan brukes som en sikkerhetskopi og for videre behandling.
  6. Hvis den opprinnelige stabelen er ervervet som forskjellige fliser, Påfør søm i TrakEM2.
    1. Opprett et nytt TrakEM2-prosjekt ved hjelp av nye ≫ TrakEM2 (blank).
    2. Innenfor viewport grafiske brukergrensesnittet (GUI), importere stabler ved å klikke på høyre museknapp > importere > importere stabelen, og Importer alle flisene åpnet i Fiji viktigste GUI. Pass på at du endrer størrelsen på lerretet slik at det passer til hele stabelen, ved å høyreklikke > skjerm > endre størrelse på lerret/lag sett, og velg pikselstørrelsen y/x avhengig av den endelige størrelsen på Montage.
      Merk: For eksempel, hvis Montage skal være sluttført ved hjelp av fire fliser på 4 096 x 4 096 piksler, bør lerretet størrelse være minst 8 192 x 8 192 piksler. Vurder å gjøre den litt større og beskjære den senere.
    3. Sammenligne med de vanlige delene av enkelt brikker ved å dra og slippe dem på lagsettet. Bruk glidebryteren øverst til venstre for å endre gjennomsiktigheten for å hjelpe til med superimposition.
    4. Montage og justere stabler ved å klikke på høyre museknapp ≫ Juster, og velg deretter ett av alternativene (se merknad nedenfor).
      Merk: SBEM eller liten LØGN-SEM er vanligvis allerede godt justert, men mindre avvik kan forekomme. Juster lag er den automatiserte rørledningen for z -justering; Montage flere lag er den automatiserte rørledningen for å samkjøre fliser på hver z -stabel, for hele volumet; Juster flerlags mosaikk kombinerer de to foregående alternativene. Denne operasjonen er tidkrevende og underlagt maskinens RAM (Random-Access Memory). Vurder å bruke en avansert datamaskin og la den kjøre i timer/dager, avhengig av størrelsen på stakken.
    5. Endelig eksportere bildet stabler og lagre dem ved hjelp av musen Høyreklikk ≫ lag flatt bilde, og deretter sørge for å velge den første til det siste bildet i drop-down menyer Start og slutt.
    6. Bruke TrakEM2 innebygde funksjoner, segment strukturer av interesse om nødvendig.
      1. I TrakEM2's GUI, høyreklikk på alt under mal-vinduet og velg Legg til nytt barn ≫ Area_list.
      2. Hemsko og miste alt på toppen av folderen under prosjekt emner, og ettall alt ville komme der.
      3. Dra og slipp områdelisten fra malen til alt som er plassert under prosjekt objekter.
      4. På bildet stabelen viewport, velger Z Space med markøren. Områdelisten vises med et unikt ID-nummer. Velg pensel verktøyet øverst (nederst til høyre), og Bruk musen til å segmentere en struktur ved å fylle stoffer over hele z -stakken.
      5. Eksportere segmentert masken som skal brukes i ilastik som frø for carving ved å høyreklikke enten på området liste objekt på Z Space listen, eller på masken i viewport, og velg Eksporter > områdelister som etiketter (TIF).
  7. Avhengig av oppløsningen som trengs for ytterligere rekonstruksjoner, hvis mulig, Reduser pikselstørrelsen på bildes takken ved samplingsreduksjon, med tanke på Minnekravene til programvaren som skal brukes til segmentering og gjenoppbygging. Bruk bilde ≫ juster ≫ størrelse.
    Merk: ilastik håndterer stabler av opptil 500 piksler på XY godt. I tillegg vil samplingsreduksjon redusere oppløsningen til stakken. Derfor ta hensyn til minimumsstørrelsen der objektet fortsatt vises gjenkjennelig, og dermed kan segmentert.
  8. For å forbedre kontrasten og hjelpe til med segmentering, kan Uskarp maske -filteret brukes til å gjøre membraner skarpere. Bruk prosess ≫ Filter ≫ Uskarp maske.
  9. Eksporter bildet stabelen som enkeltbilder for videre behandling i segmentering programvare, (f. eks ilastik), ved hjelp av fil ≫ lagre som... > Bildesekvens og velg TIF-format.

2. segmentering (semi-automatisert) og rekonstruksjon bruke ilastik 1.3.2

  1. I hoved ilastik GUI, velg carving modulen.
  2. Last inn bildes takken ved hjelp av Legg til ny ≫ Legg til en enkelt 3D/4d-volum fra sekvensen.
  3. Velg hele katalogen og velg mappen som inneholder bildet stabelen lagret som enkeltfiler. På bunnen av det nye vinduet, der alternativer for lasting av bildene er til stede, sørg for å holde Z Selected.
  4. For følgende trinn, alle operasjoner og knapper kan bli funnet på venstre side av de viktigste programvaren GUI. I kategorien forhåndsbehandling bruker du standard alternativene som allerede er merket. Bruk lyse linjer (Ridge filtre) og holde filteret skalaen på 1,600. Denne parameteren kan endres etterpå.
  5. Når forhåndsbehandlingen er fullført, velger du den neste siden i rullegardinmenyen for etikett modulen. Et objekt og én bakgrunn finnes som standard.
  6. Velg objekt frø ved å klikke på den, og tegne en linje på toppen av strukturen av interesse; deretter velger du bakgrunns frøet og tegner en eller flere linjer utenfor objektet som skal rekonstruert. Deretter klikker du på segment og venter.
    Merk:
    avhengig av kraften til datamaskinen og størrelsen på stabelen, kan segmentering ta fra noen sekunder til timer. Når det er gjort, en delvis gjennomsiktig maske fremheve segmentering skal vises på toppen av segmentert struktur.
    1. Bla gjennom stabelen for å se på segmentering. Den segmentering kan ikke være nøyaktig og ikke følge strukturen av interesse nøyaktig eller smitte ut fra den. Korrigere eventuelle smitteeffekter ved å plassere en bakgrunn seedet på sølt segmentering, og legge til et objekt frø over nonreconstructed segmentet av objektet av interesse.
    2. Hvis segmentering er fortsatt ikke riktig, kan du prøve å endre med bias parameter, som vil øke eller redusere mengden usikre klassifiserte piksler som akseptert. Verdien er 0,95 som standard. redusere det å begrense eventuelle smitteeffekter (vanligvis til ikke mindre enn 0,9) eller øke hvis segmentering er for konservative (opp til 1).
    3. En annen mulighet er å gå tilbake til trinn 2,4 (ved å klikke på forbehandling) og å endre størrelsen på filteret; øke verdien (for eksempel til 2) vil minimere salt-og-pepper støy-lignende effekter, men vil også gjøre membraner mer uskarpt og mindre detaljer vanskeligere å oppdage. Dette kan begrense smitteeffekter.
  7. Gjenta så mye som nødvendig, så lenge alle ønskede objekter har blitt segmentert. En gang en gjenstand er ferdig, falle i staver opp på bevare aktuelle gjenstand, neden avsnitt. To nye frø vil vises, for å starte segmentering av et nytt objekt.
  8. Pakk overflaten maskene med en gang som. OBJ filer ved å klikke på Eksporter alle maskene.
  9. Hvis ytterligere korrekturlesing er nødvendig, kan segmentering trekkes ut som binære masker. Velg masken for å eksportere den ved å klikke Bla gjennom objekter; deretter høyreklikk på segmentering ≫ Export , og deretter under Output File info, velg TIF sekvens som format.

3. korrekturlesing/segmentering (manuell) i TrakEM2 (Fiji)

  1. Belaste bildet stabel og opprette en ny TrekEM2 prosjekt idet per steg 1.6.1.
  2. Importer maskene som trenger korrektur ved hjelp av alternativet Importer etiketter som arealists, somer tilgjengelig i den samme import menyen som brukes til å importere bildes takken.
  3. Velg arealist som er importert i Z-området, og bruk pensel verktøyet til å gå gjennom segmentering.
  4. Visualiser modellen i 3D ved å høyreklikke områdelisten ≫ Vis i 3D. I følgende vindu ber om et nytt nummer, en høyere verdi vil generere en lavere oppløsning mesh.
    Merk: Avhengig av størrelsen på objektet, bør du vurdere å bruke en verdi mellom 4 og 6, som vanligvis gir det beste kompromiss mellom oppløsning og morfologiske detaljer.
  5. Eksporter 3D mesh som Wavefront. OBJ ved å velge fra menyen fil ≫ Eksporter overflater ≫ Wavefront.

4.3D analyse

  1. Åpne blender. For følgende trinn, sørg for å installere NeuroMorph verktøykasse (tilgjengelig på tilgjengelig på https://neuromorph.epfl.ch/index.html) og glykogen analyseverktøy kasse (tilgjengelig på https://github.com/daniJb/glyco-analysis).
    1. Importer objektene ved hjelp av NeuroMorph satsvis import ved å klikke Importer objekter under scene -menyen for å importere flere objekter samtidig. Sørg for å aktivere Bruk remesh og jevn skyggelegging.
      Merk: Det anbefales ikke å klikke på Fullfør remesh hvis det er usikkerhet rundt objektets opprinnelige størrelse. Importer tre dybde i verdi 7 (standard) er vanligvis godt å opprettholde en akseptabel oppløsning og morfologi av objektet.
    2. Velg objektet av interesse fra outliner og endre octree dybden av remesh funksjonen under endrings meny iteratively å minimere antall hjørner og for å unngå å miste detaljer i oppløsning og riktig morfologi. Når skiftende det octree dybden, det maske på hovedavdeling GUI ville endre følgelig. Når ferdig, klikker du på Bruk for å fullføre prosessen.
      Merk: Verdier rundt 4 er vanligvis bra for små objekter (for eksempel postsynaptic tetthet), verdier rundt 7 for større (for eksempel lange axons eller dendrites), og verdier rundt 8 eller 9 for komplett mobil morfologier der detaljer om ulike oppløsninger bør Vedlikeholdt.
    3. Bruk bildet superimposition verktøyet bildet stabelen interaksjoner på venstre panel, under NeuroMorph menyen, for å laste bildet stabelen. Sørg for å angi den fysiske størrelsen på bildes takken for x, yog x (i mikron eller nanometer, avhengig av enhetene i mesh) og Velg banen til stabelen ved å klikke på Source_Z. X og Y er ortogonale fly; de er valgfrie og vil bli lastet inn bare hvis brukeren setter inn en gyldig bane.
    4. Så, velge en maske på viewport av rett-klikker opp på den, gå inn det redigere måte av trykker tab, velge ettall (eller flere) hjørnene benytter musen rett falle i staver, og til slutt, falle i staver opp på viser image for toppunktet. Ett (eller flere) skjære plan (er) med mikroskop vises oppå nettet.
    5. Velg skjæringsplanet ved å høyreklikke på den, trykk CTRL + Y, og bla over 3D-modellen ved hjelp av musen bla. Dette kan også brukes som korrekturlesing metode.
    6. Bruk måleverktøy for quantifications av overflateområder, volumer og lengder. Disse operasjonene er dokumentert i mer detaljer av Jørstad et al.19 og på NeuroMorph nettside24.
    7. Bruk glykogen analyseverktøy for kvantifisere glykogen nærhet mot pigger og boutons. Operasjoner er dokumentert i flere detaljer i en tidligere publikasjon10 og i glykogen analyse depotet25.
  2. Kjør GLAM23. Koden, kjørbar, og noen test filer er tilgjengelig i GLAM depotet26.
    1. Forbered to geometri filer i. Ply format: en kildefil som inneholder glykogen granulat og en målfil som inneholder morfologi overflater.
    2. Klargjør tre. ASCII fargekartet-filer (hver linje som inneholder t_norm (0.. 1) R (0.. 255) G (0.. 255) B (0.. 255)) for å representere lokale absorpsjons verdier, topp verdier og gjennomsnittlige absorpsjons verdier.
    3. Utfør C++ script GLAM, med geometri filer (trinn 4.2.1) og fargekartet filer (trinn 4.2.2), ved å sette innflytelse radius (i mikron), maksimal forventet absorpsjon verdi, og en normalisert terskel for klynger absorpsjonen toppene. Hvis du vil ha informasjon om andre parametere, kan du kjøre skriptet med-hjelp-alternativet.
    4. Eksportere resultatene som. Ply eller. OBJ filer: Target objekter farge-kartlagt med GLAM verdier, absorpsjon peak markører representert som fargekodede kuler, og målrette objekter fargekodet med hensyn til gjennomsnittlig absorpsjons verdien.
  3. Åpne VR data samhandle. VR data samhandle-kjørbar kode er tilgjengelig i et offentlig register27.
    1. Importer nett for å visualisere dette ved å følge instruksjonene i VR-menyen. Sørg for å importere OBJ-filer beregnet i trinn 4.2.1, i tilfelle en GLAM analyse er nødvendig.

Representative Results

Ved å bruke prosedyren presentert ovenfor, viser vi resultater på to bilde stabler av forskjellige størrelser, for å demonstrere hvordan fleksibiliteten til verktøyene gjør det mulig å skalere opp prosedyren til større datasett. I dette tilfellet er de to 3DEM datasettene (i) P14 rotte, somatosensory cortex, Layer VI, 100 μm x 100 μm x 76,4 μm4 og (II) P60 rotte, hippocampus CA1, 7,07 μm x 6,75 μm x 4,73 μm10.

Forbehandling trinn (figur 1) kan utføres på samme måte for begge datasettene, bare tar hensyn til at et større datasett som den første stakken, som er 25 GB, krever mer utfører maskinvare for å håndtere store data visualisering og prosessering . Den andre stabelen er bare 1 GB, med en perfekt isotropic Voxel størrelse.

Det kan hende at størrelsen på dataene ikke er direkte relatert til synsfeltet (FOV), i stedet for oppløsningen til selve stakken, som avhenger av den maksimale pikselstørrelsen til sensoren i mikroskopet og forstørrelsen av stakken. I alle fall, logisk, større FOVs er sannsynlig å oppta mer fysisk plass sammenlignet med mindre FOVs, hvis ervervet i samme oppløsning.

Når bildet stabelen er importert, som angitt i del 1 av protokollen, i Fiji programvare (figur 1a), en vitenskapelig utgivelse av ImageJ12, er et viktig poeng å sørge for at bildeformatet er 8-bit (figur 1B). Dette fordi mange oppkjøpet programvare ulike mikroskopi selskaper produsenter generere sine proprietære filformat i 16-bit for å lagre metadata relevant for informasjon om å anskaffe prosessen (dvs. pikselstørrelse, tykkelse, strøm/spenning av elektronstråle, kammer trykk) sammen med bildes takken. Slike justeringer tillate forskere å spare minne, som ekstra 8-bit som inneholder metadata påvirker ikke bildene. Den andre viktige parameteren for å sjekke er Voxel størrelse, som deretter tillater gjenoppbygging etter segmentering som skal utføres på riktig skala (mikrometer eller nanometer; Figur 1B).

Stabler kan trenge omstilling og/eller søm hvis de har blitt anskaffet ved hjelp av flislegging; disse operasjonene kan utføres innenfor TrakEM2 (figur 2a), selv om omstilling, automatiserte 3DEM teknikker som liten LØGN-SEM eller 3View er vanligvis godt realigned.

Et siste trinn krever filtrering og, muligens, samplingsreduksjon av stakken, avhengig av hvilke objekter som må bli rekonstruert og om reduksjon av oppløsning påvirker gjenkjenningen av de reconstructable funksjonene. For eksempel, for større stabel (av somatosensory cortex på P14 rotter), var det ikke mulig å kompromittere oppløsningen til fordel for gjenoppbygging effektivitet, mens for mindre stabel (av hippocampus CA1 av P60 rotter), var det mulig å gjøre det fordi resolusjonen var langt over det som var nødvendig for at de minste gjenstandene skulle bli rekonstruert. Til slutt øker bruken av Uskarp maske forskjellen mellom membraner og bakgrunnen, noe som gjør det gunstig for rekonstruksjoner av programvare som ilastik som bruker graderinger til pre-evaluere grenser.

Etter bildebehandlingen kan rekonstruksjon utføres enten manuelt ved hjelp av TrakEM2, eller semi-automatisk ved hjelp av ilastik (figur 2C). Et datasett som den minste som er oppført her (II), som kan være Nedsamples å passe inn i minnet, kan være fullt segmentert ved hjelp av ilastik (figur 2b) for å produsere en tett rekonstruksjon. Når det gjelder det første datasettet som er oppført her (i), har vi klart å laste inn og forhåndsbehandle hele datasettet med en Linux-arbeidsstasjon med 500 GB RAM. Den spredte segmentering av 16 fulle morfologier ble innhentet med en hybrid rørledning, ved å trekke ut grov segmentering som ble manuelt korrekturlese bruker TrakEM2.

3D-analyse av funksjoner som overflateområder, volumer, eller fordelingen av intracellulære glykogen kan utføres i en blender miljø (Figur 3) ved hjelp av egendefinerte koder, for eksempel NeuroMorph19 eller glykogen analyse10.

I tilfelle datasett som inneholder glykogen granulater også, analyse på distribusjonen deres kan utledes ved hjelp av GLAM, en c + + kode som vil generere colormaps med innflytelse området direkte på mesh.

Til slutt kan slike komplekse datasett bli vist og analysert ved hjelp av VR, som er bevist å være nyttig for analyse av datasett med en bestemt okkludert visning (Figur 4). For eksempel, topper utledes fra GLAM kart ble lett utledes visuelt fra dendrites i det andre datasettet diskutert her.

Figure 1
Figur 1: bildebehandling og forberedelse til bilde segmentering. (a) Main Fiji GUI. (b) eksempel på stablede bilder fra datasett (i) som diskuteres i representative resultater. Panelet til høyre viser egenskaper som tillater brukeren å angi Voxel størrelse. (c) eksempel på en filer og endre størrelsen på operasjonen som brukes på et enkelt bilde. Panelene til høyre viser forstørrelser fra midten av bildet. Vennligst klikk her for å se en større versjon av dette tallet.

Figure 2
Figur 2: segmentering og gjenoppbygging ved hjelp av TrakEM2 og ilastik. (a) TrakEM2 GUI med objekter manuelt segmentert (i rødt). (b) den eksporterte masken fra panel a kan brukes som inn data (frø) for (c) semi-automatisert segmentering (utskjæring). Fra ilastik kan masker (rød) eksporteres videre til TrakEM2 for manuell korrekturlesing. (d) masker kan deretter eksporteres som 3D trekantede maskene å avdekke rekonstruert strukturer. I dette eksempelet ble fire neurons, astrocytter, mikroglia og pericytes fra datasett (i) (omtalt i representative resultater) rekonstruert ved hjelp av denne prosessen. Vennligst klikk her for å se en større versjon av dette tallet.

Figure 3
Figur 3: 3D-analyse av rekonstruert morfologier ved hjelp av tilpassede verktøy. (a) ISOTROPIC avbildet volum fra løgn-SEM datasett (II) (som diskutert i representative resultater). (b) tett rekonstruksjon fra panel a. Grå = axons; grønn = astrocytic prosess; blå = dendrites. (c) mikroskop viser eksempler på mål for quantifications som synapser (datasett (i)) og astrocytic glykogen granulat (datasett (II)) i riktig forstørrelser. (d) maske fra panel c viser fordelingen av glykogen granulat rundt synapser. (e) kvantifisering av glykogen distribusjon fra datasettet fra panel c, ved hjelp av glykogen analyseverktøy kasse fra blender. Feilfeltene angir standard feil. N = 4 145 glykogen granulat. (f) en grafisk illustrasjon av input og output VISUALISERING av glam. Vennligst klikk her for å se en større versjon av dette tallet.

Figure 4
Figur 4: analyse i vr. (a) en bruker på seg en vr headset mens du arbeider på (b) den tette REKONSTRUKSJON fra løgn-SEM datasett (II) (som diskutert i representative resultater). (c) engasjerende vr-scene fra et delsett av neurites fra panel b. Den grønne laseren peker mot en GLAM topp. (d) eksempel på en analyse fra glam peak teller i vr. N = 3 mus per linje. Analyse av LØGN-SEM fra en tidligere publikasjon28. Feilfeltene angir standard feilene. *p < 0,1, enveis Anova. Vennligst klikk her for å se en større versjon av dette tallet.

Discussion

Metoden som presenteres her er en nyttig steg-for-steg guide for segmentering og 3D rekonstruksjon av en multiscale EM datasett, enten de kommer fra høyoppløselig Imaging teknikker, som liten LØGN-SEM, eller andre automatiserte seriell snitting og Imaging teknikker. Liten LØGN-SEM har fordelen av potensielt nå perfekt isotropisk i Voxel størrelse ved å kutte seksjoner så tynne som 5 NM ved hjelp av en fokusert ion strålen, dens FOV kan være begrenset til 15-20 μm grunn av side gjenstander, som er muligens på grunn av deponering av kuttet vev hvis FO V overskrider denne verdien. Slike gjenstander kan unngås ved hjelp av andre teknikker, for eksempel SBEM, som bruker en diamant kniv til å kutte serielle seksjoner inne i mikroskopet kammeret. I dette sistnevnte tilfellet kan z -oppløsningen være rundt 20 NM i beste fall (vanligvis, 50 NM), men FOV kan være større, selv om piksel oppløsningen bør forringes for et stort område av interesse. En løsning for å overvinne slike begrensninger (forstørrelse g. FOV) er å dele regionen av interesse i fliser og erverve hver av dem på en høyere oppløsning. Vi har vist her resultater fra både en SBEM stack-datasett (i) i representative resultater-og en liten LØGN-SEM stabel-datasett (II) i representative resultater.

Ettersom generering av større og større datasett blir stadig mer vanlig, er arbeidet med å lage verktøy for piksel klassifisering og automatisert bilde segmentering multiplisere; Likevel, hittil har ingen programvare bevist pålitelighet sammenlignes med menneskets korrekturlesing, som derfor fortsatt er nødvendig, uansett hvor tidkrevende det er. Generelt kan mindre datasett som kan Nedsamples, for eksempel når det gjelder datasett (II), bli tett rekonstruert av en enkelt Ekspertbruker i en uke, inkludert korrekturlesing tid.

Protokollen som presenteres her innebærer bruk av tre programmer spesielt: Fiji (versjon 2.0.0-RC-65/1.65 b), ilastik (versjon 1.3.2 RC2), og blender (2,79), som alle er åpen kildekode og multi-plattform programmer og nedlastbare gratis. Fiji er en utgivelse av ImageJ, drevet av plugins for biologiske bildeanalyse. Den har en robust programvarearkitektur og foreslås som det er en felles plattform for livet forskere og inkluderer TrakEM2, en av de første og mest brukte plugins for bilde segmentering. Et problem som oppleves av mange brukere i det siste er overgangen fra Java 6 til Java 8, som skaper kompatibilitetsproblemer; Derfor foreslår vi avstå fra å oppdatere til Java 8, hvis mulig, for å tillate Fiji å fungere skikkelig. ilastik er en kraftfull programvare som gir en rekke rammeverk for Pixel klassifisering, hver og en dokumentert og forklart på deres hjemmeside. Den carving modul som brukes for semi-automatisert segmentering av EM stabler er praktisk som det sparer mye tid, slik at forskerne å redusere tiden brukt på manuelt arbeid fra måneder til dager for en erfaren bruker, som med et enkelt klikk en hel neurite kan være segmentert i sekunder. Den forbehandling trinnet er svært intens fra en hardware synspunkt, og svært store datasett, som SBEM stabelen presenteres her, som var 26 GB, krever særegne strategier for å passe inn i minnet, med tanke på at man skulle erverve store datasett fordi kan ikke kompromittere synsfelt og oppløsning. Det kan derfor hende at samplingsreduksjon ikke er en hensiktsmessig løsning i dette tilfellet. Den nyeste versjonen av programvaren kan gjøre forbehandling i et par timer med en kraftig Linux arbeidsstasjon, men segmentering ville ta minutter, og bla gjennom stabelen vil fortsatt være relativt treg. Vi bruker fortsatt denne metoden for en første, grov segmentering, og korrekturlese den ved hjelp TrakEM2. Endelig er blender en 3D-modellering programvare, med en kraftig 3D rendering motoren, som kan tilpasses med Python skript som kan bygges inn i hoved GUI som add-ons, slik som NeuroMorph og glykogen analyse. Fleksibiliteten av denne programvare kommer med det ulempen det, inne kontrasten å Fiji, for eksempel, det er ikke beregnet på det online visualisering av stor datasett; Derfor kan visualisering og navigering gjennom store nett (overstiger 1 GB) være treg og ikke effektiv. På grunn av dette, er det alltid tilrådelig å velge teknikker som reduserer mesh kompleksitet, men er forsiktig med å forstyrre den opprinnelige morfologi av strukturen av interesse. Det remesh funksjonen kommer inne hendig og er en lagt ned i ansiktstrekk av det NeuroMorph bakst import verktøyet. Et problem med denne funksjonen er at, avhengig av antall hjørner av det opprinnelige mesh, octree dybde verdi, som er relatert til den endelige oppløsningen, bør endres tilsvarende. Små gjenstander kan være remeshed med en liten octree dybde (f. eks 4), men den samme verdien kan forstyrre morfologi av større objekter, som trenger større verdier (6 i beste fall, til 8 eller 9 for en veldig stor mesh, for eksempel en full celle). Det er tilrådelig å gjøre denne prosessen gjentakende og teste de ulike octree dybder Hvis størrelsen på objektet er ikke klart.

Som nevnt tidligere, et aspekt som bør tas i betraktning er beregningsorientert kraft til å være dedikert til gjenoppbygging og analyse, knyttet til programvaren som brukes. Alle operasjonene vist i representative resultatene av dette manuskriptet ble innhentet ved hjelp av en Mac Pro, utstyrt med en AMD FirePro D500 grafikkort, 64 GB RAM, og en Intel Xeon E5 CPU med 8 kjerner. Fiji har en god programvarearkitektur for håndtering av store datasett. Derfor anbefales det å bruke en bærbar datamaskin med en god maskinvareytelse, for eksempel en MacBook Pro med en Intel i7-prosessor på 2,5 GHz og 16 GB RAM. ilastik programvare er mer krevende når det gjelder maskinvareressurser, spesielt under forbehandling trinn. Selv om reduksjon av bildes takken er et godt knep for å begrense maskinvare forespørslene fra programvaren, og lar brukeren behandle en stabel med en bærbar datamaskin (vanligvis hvis den er under 500 piksler i x,y,z), foreslår vi at du bruker en high-end datamaskinen til å kjøre denne programvaren jevnt. Vi bruker en arbeidsstasjon utstyrt med en Intel Xeon Gold 6150 CPU med 16 kjerner og 500 GB RAM.

Når det følger med en nøyaktig 3D-rekonstruksjon, kan forskerne forkaste de opprinnelige micrographs og arbeide direkte på 3D-modellene for å trekke ut nyttige morphometric data for å sammenligne celler av samme type, i tillegg til ulike typer celler, og dra nytte av VR for kvalitative og kvantitative vurderinger av morfologier. Spesielt har bruken av sistnevnte vist seg å være fordelaktig når det gjelder analyser av tette eller komplekse morfologier som presenterer visuell okklusjon (dvs. blokkering av visning av et objekt av interesse i 3D-rommet med en andre en plassert mellom observatøren og Fi første objekt), noe som gjør det vanskelig å representere og analysere dem i 3D. I eksempelet som ble presentert, tok en erfaren bruker ca 4 påfølgende timer for å observere datasettene og telle objektene. Tiden som brukes på VR-analyser kan variere ettersom aspekter som VR sykdom (som til en viss grad kan være relatert til bilsyke) kan ha en negativ innvirkning på brukeropplevelsen; i dette tilfellet kan brukeren foretrekke andre analyseverktøy og begrense tiden som er dedikert til VR.

Til slutt, alle disse trinnene kan brukes på andre mikroskopi og ikke-EM teknikker som genererer bilde stabler. EM genererer bilder som generelt er utfordrende å håndtere og segmentere, sammenlignet med for eksempel fluorescens mikroskopi, der noe kan sammenlignes med en binær maske (signal kontra en svart bakgrunn), som i prinsippet kan lett gjengis i 3D for videre behandling, må ofte håndteres.

Disclosures

Forfatterne har ingenting å avsløre.

Acknowledgments

Dette arbeidet ble støttet av King Abdullah University of Science and Technology (KAUST) konkurransedyktige Research Grants (CRG) Grant "KAUST-BBP Alliance for Integrative modellering av Brain Energy metabolisme" til P.J.M.

Materials

Name Company Catalog Number Comments
Fiji Open Source 2.0.0-rc-65/1.65b Open Source image processing editor
www.fiji.sc
iLastik Open Source  1.3.2 rc2 Image Segmentation tool
www.ilastik.org
Blender Blender Foundation 2.79 Open Source 3D Modeling software
www.blender.org
HTC Vive Headset HTC Vive / Vive Pro Virtual Reality (VR) Head monted headset
www.vive.com
Neuromorph Open Source --- Collection of Blender Addons for 3D Analysis
neuromorph.epfl.ch
Glycogen Analysis Open Source --- Blender addon for analysis of Glycogen
https://github.com/daniJb/glyco-analysis
GLAM Open Source --- C++ Code For generating GLAM Maps
https://github.com/magus74/GLAM

DOWNLOAD MATERIALS LIST

References

  1. Leighton, S. B. SEM images of block faces, cut by a miniature microtome within the SEM - a technical note. Scanning Electron Microscopy. , 73-76 (1981).
  2. Knott, G., Marchman, H., Wall, D., Lich, B. Serial section scanning electron microscopy of adult brain tissue using focused ion beam milling. Journal of Neuroscience. 28, 2959-2964 (2008).
  3. Denk, W., Horstmann, H. Serial block-face scanning electron microscopy to reconstruct three-dimensional tissue nanostructure. PLOS Biology. 2, e329 (2004).
  4. Coggan, J. S., et al. A Process for Digitizing and Simulating Biologically Realistic Oligocellular Networks Demonstrated for the Neuro-Glio-Vascular Ensemble. Frontiers in Neuroscience. 12, (2018).
  5. Tomassy, G. S., et al. Distinct Profiles of Myelin Distribution Along Single Axons of Pyramidal Neurons in the Neocortex. Science. 344, 319-324 (2014).
  6. Wanner, A. A., Genoud, C., Masudi, T., Siksou, L., Friedrich, R. W. Dense EM-based reconstruction of the interglomerular projectome in the zebrafish olfactory bulb. Nature Neuroscience. 19, 816-825 (2016).
  7. Kasthuri, N., et al. Saturated Reconstruction of a Volume of Neocortex. Cell. 162, 648-661 (2015).
  8. Calì, C., et al. The effects of aging on neuropil structure in mouse somatosensory cortex—A 3D electron microscopy analysis of layer 1. PLOS ONE. 13, e0198131 (2018).
  9. Visual Analysis of Glycogen Derived Lactate Absorption in Dense and Sparse Surface Reconstructions of Rodent Brain Structures. Calì, C., Agus, M., Gagnon, N., Hadwiger, M., Magistretti, P. J. Eurographics Italian Chapter Conference 2017 – Smart Tools and Apps in computer Graphics, , Catania, Italy. (2017).
  10. Calì, C., et al. Three-dimensional immersive virtual reality for studying cellular compartments in 3D models from EM preparations of neural tissues. Journal of Comparative Neurology. 524, 23-38 (2016).
  11. Fiala, J. C. Reconstruct: a free editor for serial section microscopy. Journal of Microscopy. 218, 52-61 (2005).
  12. Cardona, A., et al. TrakEM2 software for neural circuit reconstruction. PLOS ONE. 7, e38011 (2012).
  13. Januszewski, M., et al. High-precision automated reconstruction of neurons with flood-filling networks. Nature Methods. 1, (2018).
  14. Shahbazi, A., et al. Flexible Learning-Free Segmentation and Reconstruction of Neural Volumes. Scientific Reports. 8, 14247 (2018).
  15. Sommer, C., Straehle, C., Köthe, U., Hamprecht, F. A. Ilastik: Interactive learning and segmentation toolkit. 2011 IEEE International Symposium on Biomedical Imaging: From Nano to Macro, Chicago, IL, , (2011).
  16. Holst, G., Berg, S., Kare, K., Magistretti, P., Calì, C. Adding large EM stack support. 2016 4th Saudi International Conference on Information Technology (Big Data Analysis) (KACSTIT), Riyadh, Saudi Arabia, , (2016).
  17. Beyer, J., et al. ConnectomeExplorer: query-guided visual analysis of large volumetric neuroscience data. IEEE Transactions on Visualization and Computer Graphics. 19, 2868-2877 (2013).
  18. Beyer, J., et al. Culling for Extreme-Scale Segmentation Volumes: A Hybrid Deterministic and Probabilistic Approach. IEEE Transactions on Visualization and Computer. , (2018).
  19. Jorstad, A., et al. NeuroMorph: A Toolset for the Morphometric Analysis and Visualization of 3D Models Derived from Electron Microscopy Image Stacks. Neuroinformatics. 13, 83-92 (2015).
  20. Jorstad, A., Blanc, J., Knott, G. NeuroMorph: A Software Toolset for 3D Analysis of Neurite Morphology and Connectivity. Frontiers in Neuroanatomy. 12, 59 (2018).
  21. Calì, C. Astroglial anatomy in the times of connectomics. Journal of Translational Neuroscience. 2, 31-40 (2017).
  22. Mohammed, H., et al. Abstractocyte: A Visual Tool for Exploring Nanoscale Astroglial Cells. IEEE Transactions on Visualization and Computer Graphics. , (2017).
  23. Agus, M., et al. GLAM: Glycogen-derived Lactate Absorption Map for visual analysis of dense and sparse surface reconstructions of rodent brain structures on desktop systems and virtual environments. Computers & Graphics. 74, 85-98 (2018).
  24. École Polytechnique Fédérale de Lausanne. NeuroMorph Analysis and Visualization Toolset. , http://neuromorph.epfl.ch (2018).
  25. Boges, D. GitHub - daniJb/glycol-analysis: Glycogen_analysis.py is a python-blender API based script that performs analysis on a reconstructed module of glycogen data. , https://github.com/daniJb/glyco-analysis (2018).
  26. Agus, M. GitHub – magus74/GLAM: Glycogen Lactate Absorption Model. , https://github.com/magus74/GLAM (2019).
  27. Agus, M., et al. GLAM: Glycogen-derived Lactate Absorption Map for visual analysis of dense and sparse surface reconstructions of rodent brain structures on desktop systems and virtual environments. Dryad Digital Repository. , (2018).
  28. Calì, C., et al. Data from: The effects of aging on neuropil structure in mouse somatosensory cortex—A 3D electron microscopy analysis of layer 1. Dryad Digital Repository. , (2018).

Tags

Nevrovitenskap 3DEM segmentering 3D rekonstruksjon 3D-analyse virtuell virkelighet astrocytt
En metode for 3D rekonstruksjon og Virtual Reality analyse av gliacellene og neuronal Cells
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Calì, C., Kare, K., Agus, M.,More

Calì, C., Kare, K., Agus, M., Veloz Castillo, M. F., Boges, D., Hadwiger, M., Magistretti, P. A Method for 3D Reconstruction and Virtual Reality Analysis of Glial and Neuronal Cells. J. Vis. Exp. (151), e59444, doi:10.3791/59444 (2019).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter