RESEARCH
Peer reviewed scientific video journal
Video encyclopedia of advanced research methods
Visualizing science through experiment videos
EDUCATION
Video textbooks for undergraduate courses
Visual demonstrations of key scientific experiments
BUSINESS
Video textbooks for business education
OTHERS
Interactive video based quizzes for formative assessments
Products
RESEARCH
JoVE Journal
Peer reviewed scientific video journal
JoVE Encyclopedia of Experiments
Video encyclopedia of advanced research methods
EDUCATION
JoVE Core
Video textbooks for undergraduates
JoVE Science Education
Visual demonstrations of key scientific experiments
JoVE Lab Manual
Videos of experiments for undergraduate lab courses
BUSINESS
JoVE Business
Video textbooks for business education
Solutions
Language
ko_KR
Menu
Menu
Menu
Menu
Research Article
Please note that some of the translations on this page are AI generated. Click here for the English version.
Erratum Notice
Important: There has been an erratum issued for this article. View Erratum Notice
Retraction Notice
The article Assisted Selection of Biomarkers by Linear Discriminant Analysis Effect Size (LEfSe) in Microbiome Data (10.3791/61715) has been retracted by the journal upon the authors' request due to a conflict regarding the data and methodology. View Retraction Notice
이것은 하나의 단층 촬영의 일부를 훈련 입력으로 사용하여 극저온 전자 단층 촬영의 다중 클래스 분할을 위해 다중 슬라이스 U-Net을 훈련하는 방법입니다. 이 신경망을 다른 단층그램과 유추하는 방법과 서브토모그램 평균화 및 필라멘트 추적과 같은 추가 분석을 위해 분할을 추출하는 방법을 설명합니다.
극저온 전자 단층 촬영(Cryo-ET)을 통해 연구자들은 현재 가능한 가장 높은 해상도로 원래의 수화 상태의 세포를 이미지화할 수 있습니다. 그러나 이 기술에는 생성되는 데이터를 분석하는 데 시간이 많이 걸리고 어렵게 만드는 몇 가지 제한 사항이 있습니다. 단일 단층 촬영을 손으로 분할하는 데는 몇 시간에서 며칠이 걸릴 수 있지만 현미경은 하루에 50개 이상의 단층 촬영을 쉽게 생성할 수 있습니다. Cryo-ET를 위한 현재 딥러닝 분할 프로그램이 존재하지만 한 번에 하나의 구조를 분할하는 것으로 제한됩니다. 여기에서 다중 슬라이스 U-Net 컨볼루션 신경망은 극저온 단층 촬영 내에서 여러 구조를 동시에 자동으로 분할하도록 훈련되고 적용됩니다. 적절한 전처리를 통해 이러한 신경망은 각 단층 촬영에 대해 개별 신경망을 훈련시킬 필요 없이 많은 단층 촬영술에 대해 강력하게 추론할 수 있습니다. 이 워크플로우는 대부분의 경우 분할 시간을 30분 미만으로 단축하여 초저온 전자 단층 촬영을 분석할 수 있는 속도를 획기적으로 향상시킵니다. 또한, 분할은 세포 컨텍스트 내에서 필라멘트 추적의 정확도를 개선하고 서브토모그램 평균화를 위한 좌표를 신속하게 추출하는 데 사용할 수 있습니다.
지난 10년 동안 하드웨어 및 소프트웨어 개발로 인해 초저온 전자 현미경(Cryo-EM)의 "분해능 혁명"이 일어났습니다1,2. 더 빠르고 더 나은 검출기3, 데이터 수집을 자동화하는 소프트웨어4,5 및 위상판6과 같은 신호 부스팅 기술을 통해 대량의 고분해능 Cryo-EM 데이터를 수집하는 것은 비교적 간단합니다.
Cryo-ET는 천연의 수화 상태 7,8,9,10에서 세포 미세구조에 대한 전례 없는 통찰력을 제공합니다. 주요 한계는 시료 두께이지만, 단층 촬영을 위해 두꺼운 세포 및 조직 시료를 얇게 만드는 집속 이온 빔(FIB) 밀링과 같은 방법을 채택함에 따라 cryo-ET로 이미지화할 수 있는 것의 지평이 지속적으로 확장되고 있습니다. 최신 현미경은 하루에 50개 이상의 단층 사진을 생산할 수 있으며, 이 속도는 신속한 데이터 수집 계획의 개발로 인해 증가할 것으로 예상됩니다12,13. cryo-ET에 의해 생성된 방대한 양의 데이터를 분석하는 것은 이 이미징 방식에서 여전히 병목 현상으로 남아 있습니다.
단층 촬영 정보의 정량적 분석에는 먼저 주석을 달아야 합니다. 전통적으로 이를 위해서는 전문가의 손 세분화가 필요하며 이는 시간이 많이 걸립니다. 극저온 단층 촬영에 포함된 분자 복잡성에 따라 몇 시간에서 며칠까지 주의를 기울여야 할 수 있습니다. 인공 신경망은 짧은 시간 내에 대부분의 분할 작업을 수행하도록 훈련될 수 있기 때문에 이 문제에 대한 매력적인 솔루션입니다. 컨볼루션 신경망(CNN)은 특히 컴퓨터 비전 작업(computer vision task)14에 적합하며, 최근에는 초저온 전자 단층 촬영(15,16,17)의 분석에 적합하다.
기존 CNN에는 수천 개의 주석이 달린 훈련 샘플이 필요하며, 이는 생물학적 이미지 분석 작업에서는 종종 불가능합니다. 따라서, U-Net 아키텍처는 네트워크를 성공적으로 훈련시키기 위해 데이터 증강에 의존하고, 대규모 훈련 세트에 대한 의존성을 최소화하기 때문에 이 공간(18 )에서 탁월하다. 예를 들어, U-Net 아키텍처는 단일 단층 촬영(4개 또는 5개 조각)의 몇 조각만으로 학습할 수 있으며 재학습 없이 다른 단층 촬영에 강력하게 추론할 수 있습니다. 이 프로토콜은 Dragonfly 2022.119 내에서 전자 극저온 단층촬영을 분할하기 위해 U-Net 신경망 아키텍처를 훈련하기 위한 단계별 가이드를 제공합니다.
Dragonfly는 딥 러닝 모델에 의한 3D 이미지 분할 및 분석에 사용되는 상업적으로 개발 된 소프트웨어이며 학술용으로 자유롭게 사용할 수 있습니다 (일부 지리적 제한 적용). 비전문가도 의미론적 분할과 이미지 노이즈 제거를 위한 딥 러닝의 힘을 최대한 활용할 수 있도록 하는 고급 그래픽 인터페이스가 있습니다. 이 프로토콜은 인공 신경망을 훈련하기 위해 Dragonfly 내에서 초저온 전자 단층 촬영을 전처리하고 주석을 추가하는 방법을 보여주며, 이를 추론하여 대규모 데이터 세트를 빠르게 분할할 수 있습니다. 또한 필라멘트 추적 및 하위 단층 구조 평균화를 위한 좌표 추출과 같은 추가 분석을 위해 분할된 데이터를 사용하는 방법을 설명하고 간략하게 보여줍니다.
참고: Dragonfly 2022.1에는 고성능 워크스테이션이 필요합니다. 시스템 권장 사항은 이 프로토콜에 사용되는 워크스테이션의 하드웨어와 함께 재료 표 에 포함되어 있습니다. 이 프로토콜에 사용되는 모든 단층 촬영은 3.3에서 13.2 ang/pix의 픽셀 크기로 4배 비닝됩니다. 대표 결과에 사용된 샘플은 이 기관의 윤리 기준에 부합하는 동물 관리 지침을 따르는 회사( 재료 표 참조)에서 얻은 것입니다. 이 프로토콜에 사용된 단층 촬영과 훈련 입력으로 생성된 다중 ROI는 보충 파일 1 (https://datadryad.org/stash/dataset/doi:10.5061/dryad.rxwdbrvct 에서 찾을 수 있음)에 번들 데이터 세트로 포함되어 사용자가 원하는 경우 동일한 데이터를 따를 수 있습니다. Dragonfly는 또한 사용자가 훈련된 네트워크를 공유할 수 있는 Infinite Toolbox라는 오픈 액세스 데이터베이스를 호스팅합니다.
1. 설정
2. 이미지 가져오기
3. 전처리 (그림 1.1)
4. 학습 데이터 만들기(그림 1.2)4.
5. 반복 학습을 위해 세그멘테이션 마법사 사용(그림 1.3)
6. 네트워크를 적용합니다(그림 1.4).
7. 세분화 조작 및 정리
8. ROI에서 서브 단층 촬영 평균을 위한 좌표 생성
9. 유역 변환

그림 1: 워크플로. 1) 강도 척도를 보정하고 데이터 세트를 필터링하여 훈련 단층 촬영을 전처리합니다. 2) 사용자가 식별하고자 하는 모든 적절한 레이블이 있는 단층 촬영의 작은 부분을 손으로 분할하여 훈련 데이터를 만듭니다. 3) 필터링된 단층 촬영을 입력으로 사용하고 손 분할을 훈련 출력으로 사용하여 분할 마법사에서 5계층 다중 슬라이스 U-Net을 학습합니다. 4) 훈련된 신경망을 전체 단층 촬영에 적용하여 주석을 달 수 있으며, 분할된 각 클래스에서 3D 렌더링을 생성할 수 있습니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.
프로토콜에 따라 단일 단층 촬영(그림 2A)에서 5슬라이스 U-Net을 훈련하여 멤브레인, 미세소관, 액틴, 기준 마커 및 배경의 5가지 클래스를 식별했습니다. 신경망을 총 3회 반복적으로 훈련시킨 다음, 단층 촬영에 적용하여 완전히 분할하고 주석을 달았습니다(그림 2B, C). 7.1 및 7.2 단계를 사용하여 최소 정리가 수행되었습니다. 다음 3개의 관심 단층 촬영(그림 2D,G,J)은 전처리를 위해 소프트웨어에 로드되었습니다. 이미지를 가져오기 전에 단층 촬영 중 하나(그림 2J)는 약간 다른 배율로 다른 현미경에서 수집되었기 때문에 픽셀 크기를 17.22Å/px에서 13.3Å/px로 조정해야 했습니다. IMOD 프로그램 squeezevol은 다음 명령으로 크기를 조정하는 데 사용되었습니다.
'squeezevol -f 0.772 입력 파일.mrc 출력 파일.mrc'
이 명령에서 -f 는 픽셀 크기를 변경하는 요소(이 경우 13.3/17.22)를 나타냅니다. 임포트 후 3개의 추론 타겟을 모두 3.2 및 3.3 단계에 따라 전처리한 후 5슬라이스 U-Net을 적용했습니다. 최소한의 정리가 다시 수행되었습니다. 최종 세그먼트는 그림 2에 나와 있습니다.
각 단층 촬영의 미세소관 분할을 바이너리(단계 7.4) TIF 파일로 내보내고 MRC(IMOD tif2mrc 프로그램)로 변환한 다음 실린더 상관 관계 및 필라멘트 추적에 사용했습니다. 필라멘트의 이진 분할은 단층 촬영을 통한 추적보다 훨씬 더 강력한 필라멘트 추적을 생성합니다. 필라멘트 추적의 좌표 맵(그림 3)은 미세소관 방향을 결정하기 위해 단일 필라멘트를 따라 가장 가까운 이웃 측정(필라멘트 패킹) 및 나선형 서브 단층 촬영 평균화와 같은 추가 분석에 사용됩니다.
성공하지 못하거나 부적절하게 훈련된 네트워크는 쉽게 확인할 수 있습니다. 실패한 신경망은 어떤 구조도 전혀 분할할 수 없는 반면, 부적절하게 훈련된 신경망은 일반적으로 일부 구조를 올바르게 분할하고 상당한 수의 거짓 긍정(false positive)과 거짓 음성(false negative)을 갖습니다. 이러한 신경망은 성능을 향상시키기 위해 수정하고 반복적으로 훈련시킬 수 있습니다. 세그멘테이션 마법사는 모델이 학습된 후 모델의 주사위 유사성 계수 (SegWiz에서는 score 라고 함)를 자동으로 계산합니다. 이 통계량은 훈련 데이터와 U-Net 세분화 간의 유사성에 대한 추정치를 제공합니다. Dragonfly 2022.1에는 인터페이스 상단의 인공 지능 탭에서 액세스할 수 있는 모델의 성능을 평가하는 도구도 내장되어 있습니다(사용법은 설명서 참조).

그림 2: 추론. (A-C) 2019년 Titan Krios에서 수집한 DIV 5 해마 쥐 뉴런의 원본 훈련 단층 촬영. 이것은 IMOD에서 CTF 보정을 사용한 백투영 재구성입니다. (A) 노란색 상자는 학습 입력을 위해 손 분할이 수행된 영역을 나타냅니다. (B) 학습이 완료된 후 U-Net에서 2D 분할. (C) 막(파란색), 미세소관(녹색) 및 액틴(빨간색)을 보여주는 분할된 영역의 3D 렌더링. (D-F) 훈련 단층 촬영과 동일한 세션의 DIV 5 해마 쥐 뉴런. (E) 추가 교육 및 빠른 정리 없이 U-Net에서 2D 분할. 멤브레인 (파란색), 미세 소관 (녹색), 액틴 (빨간색), 기준점 (분홍색). (f) 분할된 영역의 3D 렌더링. (지-아이) 2019년 세션의 DIV 5 해마 쥐 뉴런. (H) 빠른 정리 및 (I) 3D 렌더링을 통한 U-Net의 2D 분할. (J-L) DIV 5 해마 쥐 뉴런, 2021년 다른 Titan Krios에서 다른 배율로 수집되었습니다. IMOD 프로그램 squeezevol에서 훈련 단층 촬영과 일치하도록 픽셀 크기가 변경되었습니다. (K) 빠른 정리를 통한 U-Net의 2D 분할, 적절한 전처리 및 (L) 분할의 3D 렌더링을 통해 데이터 세트 전반에 걸쳐 강력한 추론을 보여줍니다. 스케일 바 = 100nm. 약어: DIV = 시험관 내 일수; CTF = 대비 전달 함수. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

그림 3: 필라멘트 추적 개선 . (A) Titan Krios에서 수집된 DIV 4 쥐 해마 뉴런의 단층 촬영. (B) 액틴 필라멘트에 대한 실린더 상관 관계에서 생성된 상관 관계 맵. (C) 매개변수를 정의하기 위해 상관 맵에서 액틴 필라멘트의 강도를 사용하는 액틴의 필라멘트 추적. 추적은 막과 미세소관, 소음을 포착하는 동시에 액틴만 추적하려고 합니다. (D) 단층 촬영의 U-Net 분할. 막은 파란색으로, 미세소관은 빨간색으로, 리보솜은 주황색으로, triC는 보라색으로, 액틴은 녹색으로 강조 표시됩니다. (E) 필라멘트 추적을 위한 이진 마스크로 추출된 액틴 분할. (F) (B)의 동일한 매개변수를 가진 실린더 상관관계에서 생성된 상관관계 맵. (G) 단층 촬영에서 액틴 필라멘트의 필라멘트 추적이 크게 개선되었습니다. 약어: DIV = 시험관 내 일수. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.
보충 파일 1: 이 프로토콜에 사용된 단층 촬영과 훈련 입력으로 생성된 다중 ROI는 번들 데이터 세트(Training.ORSObject)로 포함됩니다. https://datadryad.org/stash/dataset/doi:10.5061/dryad.rxwdbrvct 참조하십시오.
이 프로토콜에 대한 오픈 액세스 라이선스는 Object Research Systems에서 지불했습니다.
이것은 하나의 단층 촬영의 일부를 훈련 입력으로 사용하여 극저온 전자 단층 촬영의 다중 클래스 분할을 위해 다중 슬라이스 U-Net을 훈련하는 방법입니다. 이 신경망을 다른 단층그램과 유추하는 방법과 서브토모그램 평균화 및 필라멘트 추적과 같은 추가 분석을 위해 분할을 추출하는 방법을 설명합니다.
이 연구는 Penn State College of Medicine과 생화학 및 분자 생물학과, 담배 정착 기금(TSF) 보조금 4100079742-EXT의 지원을 받았습니다. 이 프로젝트에 사용된 CryoEM 및 CryoET Core(RRID:SCR_021178) 서비스 및 기기는 펜실베니아 주립대학교 의과대학이 연구 및 대학원생 부학장실과 펜실베니아 보건부에서 담배 정착 기금(CURE)을 사용하여 부분적으로 자금을 지원했습니다. 내용은 전적으로 저자의 책임이며 반드시 대학 또는 의과 대학의 공식 견해를 나타내는 것은 아닙니다. 펜실베니아 보건부는 특히 분석, 해석 또는 결론에 대한 책임을 부인합니다.
| Dragonfly 2022.1 | 개체 연구 시스템 | https://www.theobjects.com/dragonfly/index.html | |
| E18 쥐 해리 해마 | 트랜스네틱스 조직 | KTSDEDHP | |
| https://tissue.transnetyx.com/faqs IMOD | 콜로라도 | 대학교 | https://bio3d.colorado.edu/imod/ |
| Intel® 제온® 골드 6124 CPU, 3.2GHz | ,인텔 | https://www.intel.com/content/www/us/en/products/sku/120493/intel-xeon-gold-6134-processor-24-75m-cache-3-20-ghz/specifications.html | |
| NVIDIA Quadro P4000 | ,NVIDIA | https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/productspage/quadro/quadro-desktop/quadro-pascal-p4000-data-sheet-a4-nvidia-704358-r2-web.pdf | |
| Windows 10 Enterprise 2016 | Microsoft | https://www.microsoft.com/en-us/evalcenter/evaluate-windows-10-enterprise | |
| 워크스테이션 최소 요구 사항 | https://theobjects.com/dragonfly/system-requirements.html |