Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Biology

Creazione automatica di grafici dello spazio visivo degli occhi composti di Housefly

Published: March 31, 2022 doi: 10.3791/63643

Summary

Il protocollo qui descrive la misurazione dell'organizzazione spaziale degli assi visivi degli occhi delle mosche domestiche, mappati da un dispositivo automatico, utilizzando il fenomeno pseudopupil e il meccanismo pupillare delle cellule fotorecettori.

Abstract

Questo documento descrive la misurazione automatica dell'organizzazione spaziale degli assi visivi degli occhi composti di insetti, che consistono in diverse migliaia di unità visive chiamate ommatidi. Ogni ommatidio campiona le informazioni ottiche da un piccolo angolo solido, con una sensibilità approssimativa distribuita gaussiana (mezza larghezza dell'ordine di 1°) centrata attorno a un asse visivo. Insieme, gli ommatidi raccolgono le informazioni visive da un campo visivo quasi panoramico. La distribuzione spaziale degli assi visivi determina quindi la risoluzione spaziale dell'occhio. La conoscenza dell'organizzazione ottica di un occhio composto e della sua acuità visiva è cruciale per gli studi quantitativi di elaborazione neurale dell'informazione visiva. Qui presentiamo una procedura automatizzata per mappare gli assi visivi di un occhio composto, utilizzando un fenomeno ottico intrinseco in vivo , lo pseudopupil e il meccanismo pupillare delle cellule fotorecettrici. Descriviamo la configurazione optomeccanica per la scansione degli occhi degli insetti e utilizziamo i risultati sperimentali ottenuti da una mosca domestica, Musca domestica, per illustrare le fasi della procedura di misurazione.

Introduction

La compattezza dei sistemi visivi degli insetti e l'agilità dei loro proprietari, dimostrando un'elaborazione delle informazioni visive altamente sviluppata, hanno incuriosito persone provenienti da background sia scientifici che non scientifici. Gli occhi composti di insetti sono stati riconosciuti come potenti dispositivi ottici che consentono capacità visive acute e versatili 1,2. Le mosche, ad esempio, sono ben note per le loro risposte rapide agli oggetti in movimento e le api sono famose per possedere la visione dei colori e la visione polarizzazione2.

Gli occhi composti degli artropodi sono costituiti da numerose unità anatomicamente simili, gli ommatidi, ognuno dei quali è coperto da una lente sfaccettata. Nei Ditteri (mosche), l'assemblaggio di lenti sfaccettate, conosciute collettivamente come cornea, spesso si avvicina a un emisfero. Ogni ommatidium campiona la luce incidente da un piccolo angolo solido con mezza larghezza dell'ordine di 1°. L'ommatidi dei due occhi insieme campiona approssimativamente l'angolo solido completo, ma gli assi visivi dell'ommatidi non sono distribuiti uniformemente. Alcune aree degli occhi hanno un'alta densità di assi visivi, che crea una regione di elevata acuità spaziale, colloquialmente chiamata fovea. La restante parte dell'occhio ha quindi una risoluzione spaziale più grossolana 3,4,5,6,7,8,9.

Un'analisi quantitativa dell'organizzazione ottica degli occhi composti è cruciale per studi dettagliati dell'elaborazione neurale delle informazioni visive. Gli studi sulle reti neurali del cervello di un insetto10 spesso richiedono la conoscenza della distribuzione spaziale degli assi ommatidiali. Inoltre, gli occhi composti hanno ispirato diverse innovazioni tecniche. Molte iniziative per produrre occhi artificiali bio-ispirati sono state costruite su studi quantitativi esistenti di occhi composti reali 11,12,13. Ad esempio, un sensore a semiconduttore con alta risoluzione spaziale è stato progettato sulla base del modello di occhi composti di insetti 11,14,15,16,17. Tuttavia, i dispositivi sviluppati finora non hanno implementato le caratteristiche effettive degli occhi di insetto esistenti. Rappresentazioni accurate degli occhi composti di insetti e della loro organizzazione spaziale richiederanno dati dettagliati e affidabili da occhi naturali, che non sono ampiamente disponibili.

La ragione principale della scarsità di dati è l'estrema noiosità delle procedure disponibili per tracciare le caratteristiche spaziali degli occhi. Ciò ha motivato i tentativi di stabilire una procedura di mappatura oculare più automatizzata. In un primo tentativo di analisi automatizzate degli occhi composti degli insetti, Douglass e Wehling18 hanno sviluppato una procedura di scansione per mappare le dimensioni delle faccette nella cornea e hanno dimostrato la sua fattibilità per alcune specie di mosche. Qui estendiamo il loro approccio sviluppando metodi non solo per scansionare le sfaccettature della cornea, ma anche per valutare gli assi visivi dell'ommatidi a cui appartengono le faccette. Presentiamo il caso degli occhi di mosca domestica per esemplificare le procedure coinvolte.

La configurazione sperimentale per la scansione degli occhi degli insetti è: in parte ottica, cioè un microscopio con fotocamera e ottica di illuminazione; in parte meccanico, cioè un sistema goniometrico per la rotazione dell'insetto indagato; e parzialmente computazionale, cioè l'uso di driver software per gli strumenti e i programmi per l'esecuzione di misurazioni e analisi. I metodi sviluppati comprendono una serie di procedure computazionali, dall'acquisizione di immagini, alla scelta dei canali della telecamera e all'impostazione delle soglie di elaborazione delle immagini al riconoscimento delle singole posizioni delle sfaccettature tramite punti luminosi di luce riflessa dalle loro superfici convesse. I metodi di trasformazione di Fourier sono stati cruciali nell'analisi delle immagini, sia per rilevare le singole sfaccettature che per analizzare i modelli di sfaccettatura.

Il documento è strutturato come segue. Per prima cosa introduciamo la configurazione sperimentale e il fenomeno pseudopupil, il marcatore ottico utilizzato per identificare gli assi visivi dei fotorecettori negli occhi viventi 19,20,21. Successivamente, vengono delineati gli algoritmi utilizzati nella procedura di scansione e nell'analisi delle immagini.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Il protocollo è conforme alle linee guida per la cura degli insetti dell'Università.

1. Preparazione di una mosca domestica, Musca domestica

  1. Raccogli la mosca dalla popolazione allevata in laboratorio. Posizionare la mosca nel supporto in ottone (Figura 1).
    1. Tagliare 6 mm dalla parte superiore del tubo di ritenuta (vedi Tabella dei materiali). La nuova parte superiore del tubo ha un diametro esterno di 4 mm e un diametro interno di 2,5 mm (Figura 1A). Posizionare la mosca viva all'interno del tubo, sigillare il tubo con cotone per evitare di danneggiare la mosca e spingere la mosca in modo tale che la testa sporga dal tubo e il suo corpo sia trattenuto (Figura 1B). Immobilizzare la testa con cera d'api in modo tale che gli occhi rimangano scoperti (Figura 1C-E).
    2. Tagliare nuovamente il tubo in modo che la lunghezza del tubo sia di 10 mm (Figura 1C). Posizionare il tubo di plastica con la mosca nel supporto in ottone, in modo tale che un occhio della mosca sia rivolto verso l'alto quando il supporto è appoggiato su un ripiano del tavolo (Figura 1D, E).
  2. Regolare l'orientamento del tubo in modo tale che con l'elevazione del goniometro a 0 ° (cioè lo stadio azimutale sia in posizione orizzontale), il fascio di illuminazione verticale del microscopio sia perpendicolare alla superficie dell'occhio in una regione centrale, tra ventrale e dorsale, e tra i bordi anteriore e posteriore dell'occhio, in modo che l'intero occhio possa essere scansionato entro l'intervallo di azimut e l'elevazione consentiti dall'impostazione.

2. Allineamento dell'asse azimutale rotante del goniometro con l'asse ottico del microscopio

  1. Montare un perno di allineamento sullo stadio di rotazione azimutale in modo che la posizione x-y della punta possa essere regolata in modo che coincida con l'asse azimutale sullo stadio motorizzato. Durante la visualizzazione con il microscopio, dotato di un obiettivo 5x, concentrarsi sulla punta utilizzando il joystick dell'asse z (Figura 2).
  2. Allineare la regolazione x-y dell'asse azimutale con l'asse ottico del microscopio e assicurarsi che gli assi rotanti di elevazione e azimut siano preallineati con il perno centrato, utilizzando i joystick degli assi x e y.
  3. Manipolare l'azimut e i joystick di elevazione per verificare se il perno è centrato rispetto a entrambi i gradi di libertà. Quando è ben centrata, la punta del perno rimane, approssimativamente, nella stessa posizione durante le rotazioni azimutali e di elevazione.

3. Allineamento dell'occhio di mosca con gli stadi motorizzati

  1. Con lo stadio di elevazione a 0°, montare la mosca e il suo supporto sullo stadio azimutale. Osserva l'occhio della mosca con il microscopio.
  2. Con il LED di illuminazione acceso, regolare la posizione orizzontale della mosca in modo che il centro dello pseudopupil sia allineato con il microscopio. Regolare la posizione verticale della mosca utilizzando la vite rotante del supporto (Figura 1D), in modo che lo pseudopupil profondo (DPP; Figura 3) 19,20,21 viene messo a fuoco a livello dell'asse di elevazione.
  3. Allineare il DPP rispetto agli assi azimut e di elevazione centrandolo nel campo visivo (vedere la Figura 2). Utilizzare i magneti incollati sul fondo del portamonete per fissarlo saldamente a una piastra di ferro montata sullo stadio azimutale, consentendo al contempo regolazioni manuali dello scorrimento.
    1. Passare la vista alla fotocamera digitale montata al microscopio. Eseguire l'inizializzazione del software del sistema GRACE, che include l'inizializzazione dei controller del motore e del controller LED Arduino (Figura 4). Pertanto, apri MATLAB R2020a o versione successiva. Esegui lo script MATLAB Initialize_All_Systems (File supplementare 1).
  4. Confermare se lo pseudopupil della mosca (Figura 3B,C) è al centro dell'immagine proiettata sullo schermo del computer.

4. Messa a fuoco automatica e autocentrazione

  1. Portare l'attenzione a livello dello pseudopupil corneale (CPP; Figura 3B) 19,20,21 manualmente utilizzando il joystick dell'asse Z.
  2. Esegui l'algoritmo di messa a fuoco automatica (File supplementare 1, script AF) per ottenere un'immagine nitida a livello di cornea. Controllare riportando la messa a fuoco al livello DPP regolando lo stadio motorizzato dell'asse Z. Memorizzare la distanza tra il DPP e il CPP (in fasi del motore).
  3. Ottimizza la centratura pseudopupil eseguendo l'algoritmo di autocentering (File supplementare 1, script AC). Riportare l'attenzione al livello CPP.
  4. Eseguire nuovamente l'algoritmo di messa a fuoco automatica. Azzerare gli stadi motorizzati nelle loro posizioni correnti (X,Y,Z,E,A) = (0,0,0,0,0), dove E è elevazione e A è azimut.
  5. Esegui l'algoritmo di scansione (File supplementare 1, script Scan_Begin), che campiona le immagini oculari lungo le traiettorie in passi di 5 °, mentre esegui gli algoritmi di autocentrazione e messa a fuoco automatica.
  6. Al termine del campionamento, spegnere il controller LED e i controller del motore.
  7. Elaborare le immagini applicando gli algoritmi di elaborazione delle immagini (file supplementare 1, script ImProcFacets).

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Animali e stimolazione ottica
Gli esperimenti vengono eseguiti su mosche domestiche (Musca domestica) ottenute da una coltura mantenuta dal Dipartimento di Genetica Evoluzionistica dell'Università di Groningen. Prima delle misurazioni, una mosca viene immobilizzata incollandola con una cera a basso punto di fusione in un tubo ben aderente. La mosca viene successivamente montata sul palco di un goniometro motorizzato. Il centro dei due stadi rotanti coincide con il punto focale di una configurazione microscopica24. Il fascio di luce epi-illuminazione è fornito da una sorgente luminosa, che focalizza la luce su un diaframma che viene ripreso all'occhio della mosca tramite un mezzo specchio. Attiva, quindi, il meccanismo pupillare di un insieme ristretto di cellule fotorecettrici (Figura 3). Gli assi ottici dell'ommatidi che ospitano questi fotorecettori vengono valutati ruotando la mosca a piccoli passi e scattando fotografie dopo ogni passo con una fotocamera digitale a colori collegata a un microscopio (Figura 2). Poiché i granuli di pigmento pupillare riflettono prevalentemente nella gamma di lunghezze d'onda lunghe, il canale rosso della fotocamera digitale viene utilizzato per discriminare lo pseudopupil dai riflessi della lente sfaccettata. Questi ultimi riflessi sono meglio isolati dallo pseudopupil usando il canale blu della fotocamera.

Algoritmi di messa a fuoco automatica e autocentrazione
I principali algoritmi aggiuntivi utilizzati durante la scansione dell'occhio di un insetto sono l'autofocus e l'autocentrizzazione (File supplementare 1, script AF e AC). L'obiettivo dell'autofocus è quello di portare il livello corneale al fuoco della fotocamera, al fine di rilevare i riflessi delle faccette che sono necessari per l'identificazione dei singoli ommatidi (Figura 3B). La procedura per rilevare il livello corneale consiste nel modificare la posizione verticale (Z) della mosca a passi applicando la trasformata di Fourier veloce (FFT) all'immagine scattata ad ogni livello per determinare il contenuto della frequenza spaziale. Il criterio per una messa a fuoco ottimale è il livello con la massima potenza sommata al di sopra di un cutoff a bassa frequenza.

Gli ingressi per la messa a fuoco automatica sono le posizioni Z e lo streaming video dalla fotocamera. Le uscite sono l'integrale del contenuto ad alta frequenza dell'immagine SF e il livello di messa a fuoco Z dove SF è massimo. Nella fase iniziale, la posizione Z dell'immagine della fotocamera viene regolata leggermente al di sotto delle lenti delle faccette corneali e viene impostata la regione di interesse per determinare il contenuto di frequenza dell'immagine. Il ciclo for avvia l'acquisizione dell'immagine e calcola la somma della SF a trasformata di Fourier filtrata passa-alto. Spostando quindi il motore dell'asse z verso l'alto a un livello di immagine sopra la cornea, si trova il livello con le frequenze più alte, cioè dove SF è massimale, che è considerato il livello corneale. Il motore dell'asse z viene quindi regolato a quel livello e viene scattata un'immagine.

Quando ci si concentra dalla cornea verso il livello del centro di curvatura dell'occhio, i riflessi delle faccette corneali svaniscono e i riflessi pseudopupil si fondono in un tipico schema a sette punti, che è una caratteristica per l'organizzazione dei fotorecettori all'interno dell'ommatidi della mosca (Figura 3C; si noti che il modello è distinto solo nelle aree oculari approssimativamente sferiche). Il modello al centro del livello di curvatura dell'occhio è chiamato pseudopupil profondo (DPP)19,21.

Spostare la mosca posizionata sul palco con i motori X e Y in modo che il centro del punto luce coincida con il centro dell'immagine della fotocamera è chiamato autocentro. Questa procedura allinea la sfaccettatura dell'ommatidium il cui asse visivo è al centro del DPP con il fascio di illuminazione e l'asse ottico del microscopio e della telecamera. L'immagine è gaussiana filtrata e binarizzata, quindi il centro dello pseudopupil viene determinato utilizzando la funzione MATLAB regionprops . Gli ingressi sono le posizioni dei motori X e Y e lo streaming video dalla telecamera; l'output è la distanza tra i centri dell'immagine e lo pseudopupil, che viene poi tradotto in uno spostamento di fase.

Correlazione delle immagini
L'occhio viene scansionato scattando e memorizzando fotografie a vari valori dell'elevazione del goniometro θ e dell'azimut φ dopo le procedure di autofocus e autocentrazione. La correlazione bidimensionale viene utilizzata per determinare gli spostamenti x-y tra immagini successive. Per correlare le immagini ottenute in diverse posizioni angolari, è essenziale rendersi conto che questo generalmente si traduce in una rotazione dell'immagine corrente rispetto all'immagine precedente. Ad esempio, supponiamo che il centro di un'immagine iniziale corrisponda al punto C di una sfera (Figura 5) e che si verifichi un cambiamento nell'azimut in modo che il piano OAB venga ruotato su un piccolo angolo Δφ, diventando piano OA'B. Il centro dell'immagine cambia quindi dal punto C al punto C' (Figura 5). Se il piano dell'immagine della telecamera è perpendicolare al vettore OC, la rotazione del piano OAB a OA'B provoca la rotazione dell'immagine su un angolo β = Δφ cosθ, come β = CC'⁄BC, con CC' = CDΔφ e cosθ = CD⁄BC (Figura 5). Ciò significa che nella parte superiore della sfera (θ = 0°), β = Δφ e all'equatore (θ = 90°), β = 0°. Quando Δφ = 0°, cioè quando viene modificata solo l'elevazione θ, le immagini non vengono ruotate l'una rispetto all'altra, quindi β = 0°.

Durante la procedura di scansione, la procedura di autocentrazione centra l'ommatidium il cui asse visivo è allineato con l'asse ottico del sistema di misura. La rotazione dell'azimut provoca una rotazione di un angolo β e una traslazione del modello di sfaccettatura. Per determinare quest'ultimo spostamento, due immagini successive sono correlate (dopo aver prima ruotato la prima immagine dell'angolo di rotazione β), come spiegato nella Figura 6.

Nell'algoritmo di spostamento dell'immagine (File supplementare 1, script ImProcFacets), le singole sfaccettature sono identificate dai centroidi dei loro riflessi in ogni immagine. Gli input per l'algoritmo sono l'elevazione e l'angolo azimutale, l'insieme di immagini da valutare, il canale dell'immagine e la regione di interesse. L'algoritmo produce un set di centroidi e un'immagine finale che contiene tutte le immagini correlate scattate durante la procedura di scansione.

Il sistema goniometrico
Per ottenere l'allineamento con l'illuminazione, l'occhio della mosca deve essere fotografato con le lenti delle faccette corneali a fuoco, e lo pseudopupil deve essere recentemente ripreso frequentemente (qui, dopo ogni 5 ° di rotazione). Questo processo automatico è realizzato con il sistema GRACE (Goniometric Research Apparatus for Compound Eyes), mostrato schematicamente in Figura 4. Si compone di tre sottosistemi principali: gli stadi inferiore e superiore con la rispettiva elettronica come l'hardware elettromeccanico, il firmware incorporato nei controller fisici e il PC utilizzato per far funzionare il software che implementa gli algoritmi. L'hardware è costituito dagli stadi motorizzati e ottici, dalla fotocamera digitale, da un microcontrollore per la programmazione delle intensità dei LED e da una sorgente luminosa a LED bianca. Le routine del firmware sono fornite con i controller del motore, il controller LED e nella fotocamera digitale. Il software è costituito da algoritmi per il controllo delle posizioni e delle velocità del motore, la regolazione del LED e l'acquisizione e l'analisi delle immagini. Gli algoritmi discussi successivamente rappresentano le principali pietre miliari che consentono al sistema GRACE di scansionare gli occhi degli insetti.

Occhi di mosca e pseudopupili
Quando un occhio di mosca domestica è illuminato, la luce incidente attiva il meccanismo pupillare delle cellule dei fotorecettori, un sistema di granuli di pigmento mobili di colore giallo all'interno del corpo cellulare. Il sistema controlla il flusso luminoso che innesca il processo di fototrasduzione dei fotorecettori, e quindi ha essenzialmente la stessa funzione della pupilla nell'occhio umano19,20. L'attivazione del meccanismo della pupilla provoca una riflessione localmente migliorata nella zona degli occhi rivolta verso l'apertura dell'obiettivo del microscopio (Figura 3). La posizione della zona degli occhi brillantemente riflettente, lo pseudopupil19,20,21, cambia con la rotazione dell'occhio perché la luce incidente attiva quindi il meccanismo della pupilla in un diverso insieme di cellule fotorecettrici (vedi Figura 6). Lo pseudopupil agisce quindi come un marcatore dell'asse visivo degli ommatidi che sono allineati con il microscopio. Ciò consente la mappatura della distribuzione spaziale degli assi visivi dell'occhio 4,20,21,22,23.

Riempimento delle sfaccettature mancanti
Non tutte le sfaccettature sono identificate dalla procedura centroide, ad esempio, a causa di una bassa riflettanza locale causata da piccole irregolarità superficiali o granelli di polvere. Quest'ultimo può anche causare centroidi errati (Figura 7A). Questo problema viene risolto in primo luogo lavando gli occhi sotto un rubinetto dell'acqua e in secondo luogo applicando una procedura di riempimento (script ImProcFacets). Pertanto, i centroidi in un'area vengono prima determinati (Figura 7A) e quindi viene calcolato l'FFT (Figura 7B). Il primo anello di armoniche (stelle gialle in Figura 7B) definisce tre orientamenti, indicati dalle linee blu, rossa e verde (Figura 7B). La trasformazione inversa delle armoniche lungo i tre orientamenti produce le bande grigie nella Figura 7C-E. Adattando un polinomio di secondo ordine alle bande grigie si ottengono linee che collegano i centroidi delle sfaccettature lungo i tre assi del reticolo. I punti di attraversamento delle linee reticolari, quindi, corrispondono ai veri centri di sfaccettatura. Poiché l'esempio della Figura 7 è un caso estremo, dimostra che la procedura è robusta. Nella maggior parte delle aree, le sfaccettature mancanti e i centroidi errati sono rari.

Scansione di un occhio di mosca
La Figura 8 mostra una banda di ommatidi scansionata attraverso l'occhio eseguendo una serie di cambiamenti azimutali graduali con Δφ = 5°. La scansione dal lato frontale dell'occhio (Figura 8A, destra) al lato laterale (Figura 8A, a sinistra) è avvenuta in 24 passaggi. I centroidi dei modelli di sfaccettatura in gran parte sovrapposti sono stati successivamente ruotati da β = Δφcosθ. Quindi, dopo aver spostato i centroidi di ogni immagine e riempito le sfaccettature mancanti (con lo script ImProcFacets), i centroidi colocalizzati sono stati mediati. La Figura 8A mostra le immagini combinate, insieme ai centri immagine e ai centroidi delle sfaccettature. La Figura 8B mostra l'assemblaggio delle sfaccettature come diagramma di Voronoi.

Figure 1
Figura 1: Montare la mosca nel supporto in ottone. (A) Una punta con una mosca domestica da indagare. (B) La punta tagliata con la mosca spinta delicatamente verso l'estremità usando un pezzo di cotone e una bacchetta. (C) La punta con la mosca ulteriormente tagliata ad una lunghezza totale di 10 mm. (D) Il supporto in ottone con la mosca da posizionare sul palco del goniometro; la freccia punta alla vite di regolazione dell'altezza. (E) Foto ravvicinata della mosca con la testa immobilizzata da un pezzo di cera fondente a bassa temperatura (#) sulla punta (*). L'epiilluminazione ha attivato il meccanismo pupillare dei fotorecettori dell'occhio, come rivelato dallo pseudopupil giallo. Fare clic qui per visualizzare una versione più grande di questa figura.

Figure 2
Figura 2: GRACE, l'apparato di ricerca goniometrica per occhi composti. L'insetto indagato (una mosca) è montato allo stadio motorizzato costituito da tre stadi di traslazione (X, Y, Z) e due stadi di rotazione (elevazione e azimut). Una lente focalizza la luce da un LED bianco su un diaframma, focalizzato tramite un mezzo specchio all'occhio della mosca. L'occhio viene fotografato con una fotocamera collegata a un microscopio. Fare clic qui per visualizzare una versione più grande di questa figura.

Figure 3
Figura 3: Ottica degli occhi di mosca. (A) Diagramma di tre ommatidi di un occhio di mosca, ciascuno coperto da una lente sfaccettata biconvessa, che focalizza la luce incidente su un insieme di cellule fotorecettrici (gialle), circondate da cellule pigmentate primarie (marroni) e secondarie (rosse). L'illuminazione intensa dei fotorecettori adattati al buio (DA) provoca la migrazione dei granuli di pigmento giallo (indicati da punti neri), che esistono all'interno delle cellule dei fotorecettori. Accumulati verso la punta dei fotorecettori, vicino agli organelli sensibili alla luce, i rabdomeri, assorbono e retrodivano la luce nello stato adattato alla luce (LA). (B) Immagine a livello della superficie oculare, che mostra i riflessi delle faccette (punti luminosi) e la riflessione del granulo pigmentato nello stato attivato (pseudopupil corneale, CPP). (C) Immagine scattata a livello del centro di curvatura dell'occhio (lo pseudopupil profondo, DPP), che riflette la disposizione delle cellule dei fotorecettori in uno schema trapezoidale, con le loro estremità distali posizionate a circa il piano focale delle lenti sfaccettate. Un'immagine virtuale sovrapposta delle punte dei fotorecettori, quindi, esiste nel piano del centro della curvatura dell'occhio. La barra della scala 100 μm si applica ai pannelli B e C. Fare clic qui per visualizzare una versione più grande di questa figura.

Figure 4
Figura 4: Diagramma schematico del sistema GRACE. Il software per PC controlla il firmware, che guida l'hardware elettromeccanico. La fotocamera digitale scatta, tramite uno stadio ottico, immagini dell'occhio del campione. La sorgente luminosa a LED illumina il campione e i motori dello stadio motorizzato azionano le traslazioni X, Y e Z, nonché le rotazioni azimutale (A) e di elevazione (E). Fare clic qui per visualizzare una versione più grande di questa figura.

Figure 5
Figura 5: Diagramma per derivare la rotazione dell'immagine durante la scansione dell'occhio volante. Se il centro di un'immagine iniziale corrisponde al punto C di una sfera e si verifica un cambiamento nell'azimut, il piano OAB viene ruotato su un piccolo angolo Δφ, diventando piano OA'B. Il centro dell'immagine cambia quindi dal punto C al punto C'. La rotazione del piano OAB a OA'B provoca la rotazione dell'immagine su un angolo β = Δφ cosθ (vedere testo, sezione Correlazione delle immagini). Fare clic qui per visualizzare una versione più grande di questa figura.

Figure 6
Figura 6: La procedura di elaborazione dell'immagine per determinare l'angolo interommatidiale. (A) Immagine scattata durante una scansione attraverso l'occhio, con centroidi sfaccettati contrassegnati da cerchi verdi e quadrati rossi e un punto verde al centro dell'immagine. (B) Immagine successiva dopo una rotazione azimutale di 5°, con centroidi sfaccettati contrassegnati da quadrati rossi e un punto rosso al centro dell'immagine. (C) Correlogramma dell'area all'interno del quadrato verde di A correlato con l'immagine B. Il vettore dal centro di C (punto verde) al valore massimo del correlogramma rappresenta lo spostamento relativo delle immagini A e B. Usando quel vettore, il quadrato spostato di A e il suo centro sono disegnati in B e i centroidi delle sfaccettature (quadrati rossi) di B sono aggiunti in A. La barra della scala 100 μm si applica ai pannelli A-C. Fare clic qui per visualizzare una versione più grande di questa figura.

Figure 7
Figura 7: Derivazione di centroidi di sfaccettatura mancanti applicando trasformazioni di Fourier. (A) Un'immagine RGB locale con centroidi di sfaccettatura (punti rossi). Le punte di freccia bianche indicano le sfaccettature mancanti e la punta di freccia rossa indica un centroide errato. (B) FFT dei centroidi di A con il primo anello di armoniche contrassegnato da stelle gialle. (C-E) FFT inversa dei centroidi lungo le tre direzioni indicate dalle linee colorate in B, producendo le bande grigiastre. Le linee blu (C), rossa (D) e verde (E) sono polinomi quadratici che si adattano alle bande grigie, e i centroidi (cerchi rossi) sono quelli che sono stati ottenuti prima delle trasformazioni di Fourier. F) Le linee montate di C-E combinate, insieme ai centroidi di A. I centroidi delle sfaccettature mancanti sono quindi derivati dai punti di attraversamento. La barra di scala 100 μm si applica ai pannelli A, C-F. Fare clic qui per visualizzare una versione più grande di questa figura.

Figure 8
Figura 8: L'occhio destro di una mosca domestica scansionato da un lato all'altro. (A) Immagini combinate e sovrapposte di una serie di immagini in cui l'azimut è stato modificato gradualmente di 5°, insieme ai centri dell'immagine (croci verdi) e ai centroidi delle faccette (cerchi rossi). (B) Diagramma di Voronoi dei centroidi delle faccette, con i centri dell'immagine come in A. La barra di scala 100 μm si applica ai pannelli A e B. Fare clic qui per visualizzare una versione più grande di questa figura.

File supplementare 1: Fare clic qui per scaricare questo file.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

La distribuzione spaziale degli assi visivi degli occhi delle mosche domestiche può essere tracciata utilizzando il fenomeno pseudopupil degli occhi composti e i cambiamenti di riflessione causati dal meccanismo della pupilla dipendente dalla luce. Pertanto, una mosca studiata è montata in un sistema goniometrico, che consente l'ispezione del modello di sfaccettatura locale con una configurazione del microscopio dotata di una fotocamera digitale, il tutto sotto il controllo del computer. L'analisi delle immagini produce mappe oculari. Una difficoltà essenziale incontrata è che senza un attento posizionamento dell'occhio all'inizio delle misurazioni, le posizioni visualizzate sia dell'occhio che dello pseudopupil possono cambiare considerevolmente anche con piccole rotazioni del dispositivo goniometrico. Questi cambiamenti sono ridotti al minimo posizionando il centro dell'occhio al centro di rotazione goniometrica, dove si osserva lo pseudopupil profondo. Correlando le immagini misurate successivamente, è possibile tracciare il modello di sfaccettatura. È importante sottolineare che l'angolo di rotazione deve essere regolato su un valore piuttosto piccolo perché nelle aree in cui il modello di sfaccettatura è molto regolare, la procedura di correlazione è soggetta a risultati errati.

Qui, abbiamo presentato una mappa parziale degli occhi (Figura 8), che dimostra la fattibilità di una mappatura altamente automatizzata dell'acuità visiva negli occhi degli insetti. Gli angoli interommatidiali di circa 2,0°-2,5°, evidenti dal confronto delle spaziature delle sfaccettature con gli spostamenti di 5° tra centri di immagine successivi, corrispondono bene ai dati precedentemente derivati, in maniera molto più laboriosa, dalla stessa specie (Musca domestica)25. Mappe oculari complete dello spazio visivo delle mosche domestiche e di altri insetti saranno pubblicate altrove.

Il metodo qui presentato consente di mappare gli assi visivi di un occhio completo, in vivo, in poche ore, che sarà estremamente difficile da ottenere con altri approcci. Il metodo di creazione di grafici automatizzati è illustrato qui per il caso della mosca domestica, ma può essere semplicemente esteso agli occhi composti di altri insetti, come le farfalle. Tuttavia, invece del riflesso pupillare, la lucentezza oculare a farfalla funge quindi da marcatore dell'asse visivo21,24. Un metodo alternativo è la microtomografia a raggi X26 recentemente sviluppata. Questo prezioso approccio produce mappe anatomiche dettagliate, ma è vulnerabile agli errori ottici, in particolare quando gli assi visivi dell'ommatidi sono inclinati sulla superficie dell'occhio21, o se l'elaborazione dei tessuti distorce la geometria dell'occhio abbastanza da compromettere le misurazioni. La visualizzazione dello pseudopupil è più o meno semplice negli occhi di mosca che hanno un meccanismo pupillare lucido. Questo è meno facile negli occhi composti con un meccanismo di pupilla scarsamente riflettente, come, ad esempio, nelle api21. Tuttavia, per molte altre specie di insetti, come le mosche soldato o le api, è possibile utilizzare la fluorescenza dei pigmenti visivi nei rabdom omatidiali. L'applicazione di fluorofori che creano una forte fluorescenza del rabdom offre un'altra opportunità per stimare l'organizzazione spaziale dello spazio visivo dell'occhio27.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Gli autori non hanno conflitti di interesse da segnalare.

Acknowledgments

Questo studio è stato sostenuto finanziariamente dall'Air Force Office of Scientific Research/European Office of Aerospace Research and Development AFOSR/EOARD (grant FA9550-15-1-0068, to D.G.S.). Ringraziamo il Dr. Primož Pirih per molte discussioni utili e Kehan Satu, Hein Leertouwer e Oscar Rincón Cardeño per l'assistenza.

Materials

Name Company Catalog Number Comments
Digital Camera PointGrey BFLY-U3-23S6C-C Acquision of amplified images and digital communication with PC
High power star LED Velleman LH3WW Light source for observation and imaging the compound eye
Holder for the investigated fly University of Groningen Different designs were manufactured by the university workshop
Linear motor ELERO ELERO Junior 1, version C Actuates the upper microscope up and down. (Load 300N, Stroke speed 15mm/s, nominal current 1.2A)
Low temperature melting wax various The low-temperature melting point wax serves to immobilize the fly and fix it to the holder
Microscope Zeiss Any alternative microscope brand will do; the preferred objective is a 5x
Motor and LED Controller University of Groningen Z-o1 Designed and built by the University of Groningen and based on Arduino and Adafruit technologies.
Motorized Stage Standa (Vilnius, Lithuania) 8MT175-50XYZ-8MR191-28 A 6 axis motorized stage modified to have 5 degrees of freedom.
Optical components LINUS Several diagrams and lenses forming an epi-illumination system (see Stavenga, Journal of Experimental Biology 205, 1077-1085, 2002)
PC running MATLAB University of Groningen The PC is able to process the images of the PointGrey camera, control the LED intensity, and send control commants to the motor cotrollers of the system
Power Supply (36V, 3.34A) Standa (Vilnius, Lithuania) PUP120-17 Dedicated power supply for the STANDA motor controllers
Soldering iron various Used for melting the wax
Stepper and DC Motor Controller Standa (Vilnius, Lithuania) 8SMC4-USB-B9-B9 Dedicated controllers for the STANDA motorized stage capable of communicating with MATLAB
Finntip-61 Finnpipette Ky, Helsinki FINNTIP-61, 200-1000μL PIPETTE TIPS FOR FINNPIPETTES, 400/BOX. It is used to restrain the fly
Carving Pen Shaping/Thread Burning Tool Max Wax The tip of the carving pen is designed to transfer wax to the head of fly
MATLAB Mathworks, Natick, MA, USA main program plus Image Acquisition, Image Analysis, and Instrument Control toolboxes. Programming language used to implement the algorithms

DOWNLOAD MATERIALS LIST

References

  1. Land, M. F., Nilsson, D. Animal Eyes. , Oxford University Press. (2012).
  2. Cronin, T. W., Johnsen, S., Marshall, N. J., Warrant, E. J. Visual Ecology. , Princeton University Press. (2014).
  3. Horridge, G. A. The separation of visual axes in apposition compound eyes. Philosophical Transactions of the Royal Society of London. Series B. 285 (1003), 1-59 (1978).
  4. Land, M. F., Eckert, H. Maps of the acute zones of fly eyes. Journal of Comparative Physiology. A. 156, 525-538 (1985).
  5. Warrant, E. J. The design of compound eyes and the illumination of natural habitats. Ecology of Sensing. Barth, F. G., Schmid, A. , Springer. Berlin. 187-213 (2001).
  6. Warrant, E. J., Kelber, A., Kristensen, N. P. Eyes and vision. In. Handbook of Zoology, Vol. IV, Part 36, Lepidoptera, Moths and Butterflies, Vol 2: Morphology, Physiology and Development. Kristensen, N. P. , Walter de Gruyter. Berlin New York. 325-359 (2003).
  7. Petrowitz, R., Dahmen, H., Egelhaaf, M., Krapp, H. G. Arrangement of optical axes and spatial resolution in the compound eye of the female blowfly Calliphora. Journal of Comparative Physiology. A. 186 (7-8), 737-746 (2000).
  8. Smolka, J., Hemmi, J. M. Topography of vision and behaviour. The Journal of Experimental Biology. 212, Pt 21 3522-3532 (2009).
  9. Krapp, H. G., Gabbiani, F. Spatial distribution of inputs and local receptive field properties of a wide-field, looming sensitive neuron. Journal of Neurophysiology. 93 (4), 2240-2253 (2005).
  10. Strausfeld, N. J. Arthropod Brains: Evolution, Functional Elegance, and Historical Significance. , Belknap Press of Harvard University Press. (2012).
  11. Jeong, K. H., Kim, J., Lee, L. P. Biologically inspired artificial compound eyes. Science. 312 (5773), 557-561 (2006).
  12. Davis, J., Barrett, S., Wright, C., Wilcox, M. A bio-inspired apposition compound eye machine vision sensor system. Bioinspiration & Biomimetics. 4 (4), 046002 (2009).
  13. Lee, G. J., Choi, C., Kim, D., Song, Y. M. Bioinspired artificial eyes: Optic components, digital cameras, and visual prostheses. Advanced Functional Materials. 28 (24), 1870168 (2018).
  14. Zhang, K., et al. Origami silicon optoelectronics for hemispherical electronic eye systems. Nature Communications. 8, 1782 (2017).
  15. Wang, M., et al. Subtle control on hierarchic reflow for the simple and massive fabrication of biomimetic compound eye arrays in polymers for imaging at a large field of view. Journal of Materials Chemistry. C. 4, 108-112 (2016).
  16. Floreano, D., et al. Miniature curved artificial compound eyes. Proceedings of the National Academy of Sciences of the United States of America. 110, 9267-9272 (2013).
  17. Song, Y. M., et al. Digital cameras with designs inspired by the arthropod eye. Nature. 497 (7447), 95-99 (2013).
  18. Douglass, J. K., Wehling, M. F. Rapid mapping of compound eye visual sampling parameters with FACETS, a highly automated wide-field goniometer. Journal of Comparative Physiology A. 202 (12), 839-851 (2016).
  19. Franceschini, N. Sampling of the visual environment by the compound eye of the fly: fundamentals and applications. Photoreceptor Optics. Snyder, A. W., Menzel, R. , Springer. Berlin, Heidelberg, New York. 98-125 (1975).
  20. Franceschini, N., Kirschfeld, K. The automatic control of the light flux in the compound eye of Diptera. Spectral, statistical, and dynamical properties of the mechanism. Biological Cybernetics. 21, 181-203 (1976).
  21. Stavenga, D. G. Pseudopupils of compound eyes. Handbook of Sensory Physiology, Vol VII/6A. Autrum, H. , Springer. Berlin-Heidelberg-New York. 357-439 (1979).
  22. Stavenga, D. G., Kruizinga, R., Leertouwer, H. L. Dioptrics of the facet lenses of male blowflies Calliphora and Chrysomia. Journal of Comparative Physiology A. 166, 365-371 (1990).
  23. Straw, A. D., Warrant, E. J., O'Carroll, D. C. A "bright zone" in male hoverfly (Eristalis tenax) eyes and associated faster motion detection and increased contrast sensitivity. The Journal of Experimental Biology. 209, 4339-4354 (2006).
  24. Stavenga, D. G. Reflections on colourful ommatidia of butterfly eyes. The Journal of Experimental Biology. 205, 1077-1085 (2002).
  25. Beersma, D. G. M., Stavenga, D. G., Kuiper, J. W. Organization of visual axes in the compound eye of the fly Musca domestica L. and behavioural consequences. Journal of Comparative Physiology. 102, 305-320 (1975).
  26. Taylor, G. J., et al. Bumblebee visual allometry results in locally improved resolution and globally improved sensitivity. eLife. 8, 40613 (2019).
  27. Rigosi, E., Warrant, E. J., O'Carroll, D. C. A new, fluorescence-based method for visualizing the pseudopupil and assessing optical acuity in the dark compound eyes of honeybees and other insects. Scientific Reports. 11, 21267 (2021).

Tags

Biologia Numero 181
Creazione automatica di grafici dello spazio visivo degli occhi composti di Housefly
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Muñoz Arias, M., Douglass, J.More

Muñoz Arias, M., Douglass, J. K., Wehling, M. F., Stavenga, D. G. Automated Charting of the Visual Space of Housefly Compound Eyes. J. Vis. Exp. (181), e63643, doi:10.3791/63643 (2022).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter