Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Biology

Automatisiertes Charting des visuellen Raums von Stubenfliegen-Facettenaugen

Published: March 31, 2022 doi: 10.3791/63643

Summary

Das Protokoll beschreibt hier die Messung der räumlichen Organisation der visuellen Achsen von Stubenfliegenaugen, abgebildet durch ein automatisches Gerät, unter Verwendung des Pseudopupillenphänomens und des Pupillenmechanismus der Photorezeptorzellen.

Abstract

Dieses Papier beschreibt die automatische Messung der räumlichen Organisation der Sehachsen von Insektenfacettenaugen, die aus mehreren tausend visuellen Einheiten bestehen, die Ommatidien genannt werden. Jedes Ommatidium tastet die optische Information aus einem kleinen Raumwinkel ab, mit einer ungefähren Gauß-verteilten Empfindlichkeit (halbe Breite in der Größenordnung von 1°), zentriert um eine visuelle Achse. Zusammen sammeln die Ommatidien die visuellen Informationen aus einem fast panoramischen Sichtfeld. Die räumliche Verteilung der Sehachsen bestimmt somit die räumliche Auflösung des Auges. Die Kenntnis der optischen Organisation eines Facettenauges und seiner Sehschärfe ist entscheidend für quantitative Untersuchungen der neuronalen Verarbeitung der visuellen Information. Hier stellen wir ein automatisiertes Verfahren zur Abbildung der visuellen Achsen eines Facettenauges vor, wobei ein intrinsisches, in vivo optisches Phänomen, die Pseudopupille und der Pupillenmechanismus der Photorezeptorzellen verwendet werden. Wir skizzieren den optomechanischen Aufbau zum Scannen von Insektenaugen und verwenden experimentelle Ergebnisse einer Stubenfliege, Musca domestica, um die Schritte im Messverfahren zu veranschaulichen.

Introduction

Die Kompaktheit visueller Insektensysteme und die Agilität ihrer Besitzer, die eine hochentwickelte visuelle Informationsverarbeitung demonstrieren, haben Menschen mit wissenschaftlichem und nicht-wissenschaftlichem Hintergrund fasziniert. Insektenfacettenaugen wurden als leistungsstarke optische Geräte anerkannt, die akute und vielseitige Sehfähigkeitenermöglichen 1,2. Fliegen zum Beispiel sind bekannt für ihre schnellen Reaktionen auf sich bewegende Objekte, und Bienen sind berühmt für ihre Farb- und Polarisationsvision2.

Die Facettenaugen von Arthropoden bestehen aus zahlreichen anatomisch ähnlichen Einheiten, den Ommatidien, von denen jede von einer Facettenlinse bedeckt ist. Bei Diptera (Fliegen) nähert sich die Anordnung von Facettenlinsen, die zusammen als Hornhaut bekannt sind, oft einer Hemisphäre an. Jedes Ommatidium tastet einfallendes Licht aus einem kleinen Raumwinkel mit halber Breite in der Größenordnung von 1° ab. Die Ommatidien der beiden Augen zusammen tasten ungefähr den vollen Raumwinkel ab, aber die visuellen Achsen der Ommatidien sind nicht gleichmäßig verteilt. Bestimmte Augenpartien haben eine hohe Dichte an Sehachsen, wodurch eine Region von hoher räumlicher Schärfe entsteht, die umgangssprachlich als Fovea bezeichnet wird. Der verbleibende Teil des Auges hat dann eine gröbere räumliche Auflösungvon 3,4,5,6,7,8,9.

Eine quantitative Analyse der optischen Organisation der Facettenaugen ist entscheidend für detaillierte Untersuchungen der neuronalen Verarbeitung visueller Informationen. Untersuchungen der neuronalen Netzwerke des Gehirns eines Insekts10 erfordern oft Kenntnisse über die räumliche Verteilung der ommatidialen Achsen. Darüber hinaus haben Facettenaugen mehrere technische Innovationen inspiriert. Viele Initiativen zur Herstellung von bio-inspirierten künstlichen Augen wurden auf bestehenden quantitativen Studien von echten Facettenaugenaufgebaut 11,12,13. Zum Beispiel wurde ein halbleiterbasierter Sensor mit hoher räumlicher Auflösung basierend auf dem Modell der Insektenfacettenaugen 11,14,15,16,17 entwickelt. Die bisher entwickelten Geräte haben jedoch nicht die tatsächlichen Eigenschaften bestehender Insektenaugen umgesetzt. Genaue Darstellungen von Insektenfacettenaugen und ihrer räumlichen Organisation erfordern detaillierte und zuverlässige Daten von natürlichen Augen, die nicht umfassend verfügbar sind.

Der Hauptgrund für den Mangel an Daten ist die extreme Langeweile der verfügbaren Verfahren zur Darstellung der räumlichen Eigenschaften der Augen. Dies hat zu Versuchen geführt, ein stärker automatisiertes Eye-Mapping-Verfahren zu etablieren. In einem ersten Versuch automatisierter Analysen von Insektenfacettenaugen entwickelten Douglass undWehling 18 ein Scanverfahren zur Abbildung von Facettengrößen in der Hornhaut und demonstrierten dessen Machbarkeit für einige wenige Fliegenarten. Hier erweitern wir ihren Ansatz, indem wir Methoden entwickeln, um nicht nur die Facetten der Hornhaut zu scannen, sondern auch die visuellen Achsen der Ommatidien zu beurteilen, zu denen die Facetten gehören. Wir stellen den Fall der Stubenfliegenaugen vor, um die damit verbundenen Verfahren zu veranschaulichen.

Der Versuchsaufbau für scannende Insektenaugen ist: teilweise optisch, d.h. ein Mikroskop mit Kamera und Beleuchtungsoptik; teilweise mechanisch, d.h. ein Goniometersystem zum Drehen des untersuchten Insekts; und teilweise rechnerisch, d.h. die Verwendung von Softwaretreibern für die Instrumente und Programme zur Durchführung von Messungen und Analysen. Die entwickelten Methoden umfassen eine Reihe von Rechenverfahren, von der Aufnahme von Bildern, der Auswahl von Kamerakanälen und der Festlegung von Bildverarbeitungsschwellenwerten bis hin zur Erkennung einzelner Facettenpositionen über helle Lichtflecken, die von ihren konvexen Oberflächen reflektiert werden. Fourier-Transformationsmethoden waren in der Bildanalyse entscheidend, sowohl für die Erkennung einzelner Facetten als auch für die Analyse der Facettenmuster.

Das Papier ist wie folgt aufgebaut. Wir stellen zunächst den Versuchsaufbau und das Pseudopupillenphänomen vor - den optischen Marker, der verwendet wird, um die visuellen Achsen der Photorezeptoren in lebenden Augen zu identifizieren 19,20,21. Anschließend werden die Algorithmen skizziert, die im Scanvorgang und in der Bildanalyse verwendet werden.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Das Protokoll entspricht den Insektenpflegerichtlinien der Universität.

1. Zubereitung einer Stubenfliege, Musca domestica

  1. Sammle die Fliege von der im Labor aufgezogenen Population. Legen Sie die Fliege in den Messinghalter (Abbildung 1).
    1. Schneiden Sie 6 mm aus dem oberen Teil des Rückhalterohrs (siehe Materialtabelle). Der neue obere Teil des Rohres hat einen Außendurchmesser von 4 mm und einen Innendurchmesser von 2,5 mm (Abbildung 1A). Legen Sie die lebende Fliege in das Rohr, versiegeln Sie das Rohr mit Baumwolle, um eine Beschädigung der Fliege zu verhindern, und drücken Sie die Fliege so, dass der Kopf aus dem Rohr herausragt und ihr Körper zurückgehalten wird (Abbildung 1B). Immobilisieren Sie den Kopf mit Bienenwachs, so dass die Augen unbedeckt bleiben (Abbildung 1C-E).
    2. Schneiden Sie das Rohr erneut so ab, dass die Rohrlänge 10 mm beträgt (Abbildung 1C). Legen Sie das Kunststoffrohr mit der Fliege in den Messinghalter, so dass ein Auge der Fliege nach oben zeigt, wenn der Halter auf einer Tischplatte ruht (Abbildung 1D, E).
  2. Stellen Sie die Ausrichtung der Röhre so ein, dass bei einer Goniometerhöhe bei 0° (d. h. der Azimuttisch befindet sich in einer horizontalen Position) der vertikale Beleuchtungsstrahl des Mikroskops senkrecht zur Augenoberfläche in einem zentralen Bereich, zwischen ventral und dorsal, und zwischen vorderen und hinteren Rändern des Auges steht, so dass das ganze Auge innerhalb des durch das Setup erlaubten Azimut- und Höhenbereichs gescannt werden kann.

2. Ausrichtung der rotierenden Azimutachse des Goniometers auf die optische Achse des Mikroskops

  1. Montieren Sie einen Ausrichtungsstift auf der Azimut-Rotationsstufe, so dass die x-y-Position der Spitze so eingestellt werden kann, dass sie mit der Azimutachse auf der motorisierten Stufe übereinstimmt. Konzentrieren Sie sich beim Betrachten mit dem Mikroskop, das mit einem 5-fachen Objektiv ausgestattet ist, mit dem Joystick der z-Achse auf die Spitze (Abbildung 2).
  2. Richten Sie die x-y-Einstellung der Azimutachse mit der optischen Achse des Mikroskops aus und stellen Sie sicher, dass die Höhen- und Azimut-Drehachsen mit den x- und y-Achsen-Joysticks mit dem zentrierten Pin vorausgerichtet sind.
  3. Manipulieren Sie die Azimut- und Höhen-Joysticks, um zu überprüfen, ob der Pin in Bezug auf beide Freiheitsgrade zentriert ist. Wenn die Stiftspitze gut zentriert ist, bleibt sie während der Azimut- und Höhenrotationen ungefähr in der gleichen Position.

3. Ausrichtung des Fliegenauges mit den motorisierten Stufen

  1. Wenn die Höhenstufe bei 0° ist, montieren Sie die Fliege und ihre Halterung auf der Azimutstufe. Beobachten Sie das Auge der Fliege mit dem Mikroskop.
  2. Stellen Sie bei eingeschalteter Beleuchtungs-LED die horizontale Position der Fliege so ein, dass die Mitte der Pseudopupille mit dem Mikroskop ausgerichtet ist. Passen Sie die vertikale Position der Fliege mit der rotierenden Schraube des Halters an (Abbildung 1D), so dass die tiefe Pseudopupille (DPP; Abbildung 3) 19,20,21 wird auf der Ebene der Höhenachse in den Fokus gerückt.
  3. Richten Sie den DPP in Bezug auf die Azimut- und Höhenachse aus, indem Sie ihn im Sichtfeld zentrieren (siehe Abbildung 2). Verwenden Sie die Magnete, die auf die Unterseite des Fliegenhalters geklebt sind, um ihn fest auf einer auf der Azimutstufe montierten Eisenplatte zu befestigen, während manuelle Schiebeeinstellungen möglich sind.
    1. Schalten Sie die Ansicht auf die am Mikroskop montierte Digitalkamera um. Führen Sie die Softwareinitialisierung des GRACE-Systems aus, einschließlich der Initialisierung der Motorsteuerungen und des Arduino-LED-Controllers (Abbildung 4). Öffnen Sie daher MATLAB R2020a oder eine höhere Version. Führen Sie das MATLAB-Skript Initialize_All_Systems (Supplementary File 1) aus.
  4. Vergewissern Sie sich, ob sich die Pseudopupille der Fliege (Abbildung 3B,C) in der Mitte des projizierten Bildes auf dem Computerbildschirm befindet.

4. Autofokus und Autozentrierung

  1. Bringen Sie den Fokus auf die Ebene der Hornhaut-Pseudopupille (CPP; Abbildung 3B) 19,20,21 manuell mit dem Joystick der Z-Achse.
  2. Führen Sie den Autofokus-Algorithmus (Supplementary File 1, Skript AF) aus, um ein scharfes Bild auf Hornhautebene zu erhalten. Überprüfen Sie, indem Sie den Fokus auf die DPP-Ebene zurücksetzen, indem Sie die motorisierte Z-Achsenstufe einstellen. Speichern Sie den Abstand zwischen DPP und CPP (in Motorschritten).
  3. Feinabstimmung der Pseudopupillenzentrierung durch Ausführen des Autozentrieralgorithmus (Zusatzdatei 1, Skript AC). Bringen Sie den Fokus zurück auf die CPP-Ebene.
  4. Führen Sie den Autofokusalgorithmus erneut aus. Nullen Sie die motorisierten Stufen an ihren aktuellen Positionen (X,Y,Z,E,A) = (0,0,0,0,0), wobei E die Höhe und A das Azimut ist.
  5. Führen Sie den Scan-Algorithmus (Supplementary File 1, Skript Scan_Begin) aus, der Augenbilder entlang von Trajektorien in 5°-Schritten abtastet, während er die Autozentrierungs- und Autofokusalgorithmen ausführt.
  6. Schalten Sie am Ende der Probenahme den LED-Controller und die Motorsteuerungen aus.
  7. Verarbeiten Sie die Bilder unter Anwendung der Bildverarbeitungsalgorithmen (Supplementary File 1, Skript ImProcFacets).

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Tiere und optische Stimulation
Die Experimente werden an Stubenfliegen (Musca domestica) durchgeführt, die aus einer Kultur stammen, die von der Abteilung für Evolutionäre Genetik der Universität Groningen unterhalten wird. Vor den Messungen wird eine Fliege immobilisiert, indem sie mit einem Low-Melting-Point-Wachs in ein gut passendes Rohr geklebt wird. Die Fliege wird anschließend auf der Bühne eines motorisierten Goniometers montiert. Die Mitte der beiden Drehtische fällt mit dem Brennpunkt eines mikroskopischen Aufbauszusammen 24. Der Lichtstrahl der Epi-Beleuchtung wird von einer Lichtquelle geliefert, die das Licht auf eine Membran fokussiert, die über einen Halbspiegel am Auge der Fliege abgebildet ist. Es aktiviert somit den Pupillenmechanismus eines begrenzten Satzes von Photorezeptorzellen (Abbildung 3). Die optischen Achsen der Ommatidien, die diese Photorezeptoren beherbergen, werden bewertet, indem die Fliege in kleinen Schritten gedreht und nach jedem Schritt mit einer an einem Mikroskop befestigten Farbdigitalkamera fotografiert wird (Abbildung 2). Da das Pupillenpigmentgranulat überwiegend im langwelligen Längenbereich reflektiert wird, wird der rote Kanal der Digitalkamera genutzt, um die Pseudopupille von den Facettenlinsenreflexionen zu unterscheiden. Letztere Reflexionen lassen sich am besten mit dem blauen Kanal der Kamera von der Pseudopupille isolieren.

Autofokus und Autozentrieralgorithmen
Die wichtigsten zusätzlichen Algorithmen, die beim Scannen eines Insektenauges verwendet werden, sind der Autofokus und die Autozentrierung (Supplementary File 1, Skripte AF und AC). Ziel des Autofokus ist es, die Hornhautebene in den Fokus der Kamera zu rücken, um die Facettenreflexionen zu erkennen, die für die Identifizierung einzelner Ommatidien notwendig sind (Abbildung 3B). Das Verfahren zur Erkennung der Hornhautebene besteht darin, die vertikale (Z) Position der Fliege in Schritten zu ändern, indem die schnelle Fourier-Transformation (FFT) auf das auf jeder Ebene aufgenommene Bild angewendet wird, um den räumlichen Frequenzgehalt zu bestimmen. Das Kriterium für einen optimalen Fokus ist der Pegel mit der größten summierten Leistung oberhalb eines niederfrequenten Grenzwerts.

Die Eingänge für den Autofokus sind die Z-Positionen und das Streamen von Videos von der Kamera. Die Ausgänge sind das Integral aus dem hochfrequenten Inhalt des Bild-SF und der Fokussierstufe Z, wobei SF maximal ist. Im ersten Schritt wird die Z-Position des Kamerabildes leicht unterhalb der Hornhautfacettenlinsen eingestellt und der Interessenbereich zur Bestimmung des Frequenzgehalts des Bildes eingestellt. Die for-Schleife startet die Bilderfassung und berechnet die Summe der hochpassgefilterten Fourier-Transformations-SF. Indem dann der z-Achsenmotor nach oben auf eine Bildebene oberhalb der Hornhaut versetzt wird, wird der Pegel mit den höchsten Frequenzen gefunden, d.h. wo SF maximal ist, was als Hornhautpegel angenommen wird. Der z-Achsenmotor wird dann auf dieses Niveau eingestellt und ein Bild aufgenommen.

Wenn man sich von der Hornhaut auf die Höhe des Krümmungszentrums des Auges konzentriert, verblassen die Reflexionen der Hornhautfacetten, und die Pseudopupillenreflexionen verschmelzen zu einem typischen Sieben-Punkt-Muster, das ein Merkmal für die Organisation der Photorezeptoren innerhalb der Fliegenommatidien ist (Abbildung 3C; beachten Sie, dass das Muster nur in annähernd sphärischen Augenbereichen ausgeprägt ist). Das Muster in der Mitte des Krümmungsniveaus des Auges wird als tiefe Pseudopupille (DPP) 19,21 bezeichnet.

Das Verschieben der auf der Bühne positionierten Fliege mit den X- und Y-Motoren so, dass die Mitte des Lichtflecks mit der Mitte des Kamerabildes zusammenfällt, wird als Autozentrierung bezeichnet. Dieses Verfahren richtet die Facette des Ommatidiums, dessen visuelle Achse in der Mitte des DPP liegt, mit dem Beleuchtungsstrahl und der optischen Achse des Mikroskops und der Kamera aus. Das Bild wird Gaußsch gefiltert und binarisiert, und dann wird das Zentrum der Pseudopupille mit der MATLAB-Funktion regionprops bestimmt. Die Eingänge sind die Positionen der X- und Y-Motoren und das Streaming-Video von der Kamera; Die Ausgabe ist der Abstand zwischen den Bildzentren und der Pseudopupille, der dann in eine Bühnenverschiebung übersetzt wird.

Korrelierende Bilder
Das Auge wird gescannt, indem nach den Autofokus- und Autozentrierverfahren Fotos mit verschiedenen Werten der Goniometerhöhe θ und des Azimuts φ aufgenommen und gespeichert werden. Die zweidimensionale Korrelation wird verwendet, um die x-y-Verschiebungen zwischen aufeinanderfolgenden Bildern zu bestimmen. Um die an verschiedenen Winkelpositionen erhaltenen Bilder zu korrelieren, ist es wichtig zu erkennen, dass dies im Allgemeinen zu einer Rotation des aktuellen Bildes in Bezug auf das vorherige Bild führt. Nehmen wir zum Beispiel an, dass der Mittelpunkt eines Anfangsbildes dem Punkt C einer Kugel entspricht (Abbildung 5) und dass eine Änderung des Azimuts auftritt, so dass die Ebene OAB über einen kleinen Winkel Δφ gedreht wird und zu einer Ebene OA'B wird. Die Mitte des Bildes ändert sich dann von Punkt C zu Punkt C' (Abbildung 5). Wenn die Kamerabildebene senkrecht zum Vektor OC steht, verursacht die Drehung der Ebene OAB zu OA'B eine Rotation des Bildes über einen Winkel β = Δφ cosθ, als β = CC'⁄BC, mit CC' = CDΔφ und cosθ = CD⁄BC (Abbildung 5). Dies bedeutet, dass an der Spitze der Kugel (θ = 0°), β = Δφ, und am Äquator (θ = 90°), β = 0°. Wenn Δφ = 0°, also wenn nur die Höhe θ geändert wird, werden die Bilder nicht zueinander gedreht, also β = 0°.

Während des Scanvorgangs zentriert das Autozentrierverfahren das Ommatidium, dessen visuelle Achse mit der optischen Achse des Messsystems ausgerichtet ist. Die Rotation des Azimuts bewirkt eine Rotation um einen Winkel β und eine Verschiebung des Facettenmusters. Um die letztere Verschiebung zu bestimmen, werden zwei aufeinanderfolgende Bilder korreliert (nach dem ersten Drehen des ersten Bildes um den Drehwinkel β), wie in Abbildung 6 erläutert.

Im Bildverschiebungsalgorithmus (Supplementary File 1, Skript ImProcFacets) werden die einzelnen Facetten durch die Schwerpunkte ihrer Reflexionen in jedem Bild identifiziert. Die Eingaben in den Algorithmus sind die Höhe und der Azimutwinkel, der Satz der zu bewertenden Bilder, der Bildkanal und die Region von Interesse. Der Algorithmus erzeugt eine Reihe von Schwerpunkten und ein endgültiges Bild, das alle korrelierten Bilder enthält, die während des Scanvorgangs aufgenommen wurden.

Das goniometrische System
Um eine Ausrichtung an der Beleuchtung zu erreichen, muss das Auge der Fliege mit den Hornhautfacettenlinsen im Fokus fotografiert werden, und die Pseudopupille muss häufig (hier nach jeder 5° Drehung) zurückgesetzt werden. Dieser automatische Prozess wird mit dem GRACE-System (Goniometric Research Apparatus for Compound Eyes) realisiert, das in Abbildung 4 schematisch dargestellt ist. Es besteht aus drei Hauptsubsystemen: den unteren und oberen Stufen mit ihrer jeweiligen Elektronik als elektromechanische Hardware, der in die physischen Controller eingebetteten Firmware und dem PC, der zum Betrieb der Software verwendet wird, die die Algorithmen implementiert. Die Hardware besteht aus den motorisierten und optischen Stages, der Digitalkamera, einem Mikrocontroller zur Programmierung von LED-Intensitäten und einer weißen LED-Lichtquelle. Die Routinen der Firmware werden mit den Motorcontrollern, dem LED-Controller und in der Digitalkamera bereitgestellt. Die Software besteht aus den Algorithmen zur Steuerung von Motorpositionen und -geschwindigkeiten, zur Einstellung der LED sowie zur Erfassung und Analyse von Bildern. Die im Folgenden besprochenen Algorithmen stellen die wichtigsten Meilensteine dar, die es dem GRACE-System ermöglichen, Insektenaugen zu scannen.

Fliegenaugen und Pseudopupillen
Wenn ein Stubenfliegenauge beleuchtet wird, aktiviert das einfallende Licht den Pupillenmechanismus der Photorezeptorzellen, ein System von mobilen, gelb gefärbten Pigmentgranula im Zellkörper. Das System steuert den Lichtstrom, der den Phototransduktionsprozess der Photorezeptoren auslöst, und hat damit im Wesentlichen die gleiche Funktion wie die Pupille im menschlichen Auge19,20. Die Aktivierung des Pupillenmechanismus bewirkt eine lokal verstärkte Reflexion in der Augenpartie, die der Blende des Objektivs des Mikroskops zugewandt ist (Abbildung 3). Die Position der hell reflektierenden Augenpartie, der Pseudopupille 19,20,21, ändert sich bei Rotation des Auges, da das einfallende Licht dann den Pupillenmechanismus in einem anderen Satz von Photorezeptorzellen aktiviert (siehe Abbildung 6). Die Pseudopupille fungiert somit als Markierung der visuellen Achse der Ommatidien, die mit dem Mikroskop ausgerichtet sind. Dies ermöglicht die Abbildung der räumlichen Verteilung der Sehachsen des Auges 4,20,21,22,23.

Fehlende Facetten ausfüllen
Nicht alle Facetten werden durch das Schwerpunktverfahren identifiziert, zum Beispiel aufgrund eines geringen lokalen Reflexionsgrads, der durch geringfügige Oberflächenunregelmäßigkeiten oder Staubkörner verursacht wird. Letzteres kann auch zu fehlerhaften Schwerpunkten führen (Abbildung 7A). Dieses Problem wird zum einen durch das Waschen der Augen unter einem Wasserhahn und zum anderen durch die Anwendung eines Filling-In-Verfahrens (Skript ImProcFacets) gelöst. Daher werden zuerst die Schwerpunkte in einem Gebiet bestimmt (Abbildung 7A) und dann die FFT berechnet (Abbildung 7B). Der erste Ring von Oberschwingungen (gelbe Sterne in Abbildung 7B) definiert drei Orientierungen, die durch die blaue, rote und grüne Linie gekennzeichnet sind (Abbildung 7B). Die inverse Transformation der Oberschwingungen entlang der drei Orientierungen ergibt die grauen Bänder in Abbildung 7C-E. Die Anpassung eines Polynoms zweiter Ordnung an die grauen Bänder ergibt Linien, die die Facettenschwerpunkte entlang der drei Gitterachsen verbinden. Die Kreuzungspunkte der Gitterlinien entsprechen somit den wahren Facettenzentren. Da das Beispiel von Abbildung 7 ein Extremfall ist, zeigt es, dass das Verfahren robust ist. In den meisten Bereichen sind fehlende Facetten und fehlerhafte Schwerpunkte selten.

Scannen eines Fliegenauges
Abbildung 8 zeigt ein Band von Ommatidien, das über das Auge gescannt wird, indem eine Reihe von schrittweisen azimutalen Veränderungen mit Δφ = 5° durchgeführt wird. Das Scannen von der Stirnseite des Auges (Abbildung 8A, rechts) zur seitlichen Seite (Abbildung 8A, links) erfolgte in 24 Schritten. Die Schwerpunkte der weitgehend überlappenden Facettenmuster wurden anschließend um β = Δφcosθ gedreht. Dann, nachdem die Schwerpunkte jedes Bildes verschoben und die fehlenden Facetten (mit dem Skript ImProcFacets) ausgefüllt wurden, wurden die kolokalisierten Schwerpunkte gemittelt. Abbildung 8A zeigt die kombinierten Bilder zusammen mit den Bildzentren und Facettenschwerpunkten. Abbildung 8B zeigt den Aufbau von Facetten als Voronoi-Diagramm.

Figure 1
Abbildung 1: Montage der Fliege in den Messinghalter. (A) Eine Spitze mit einer Stubenfliege, die untersucht werden soll. (B) Die geschnittene Spitze mit der Fliege sanft zum Ende geschoben mit einem Stück Baumwolle und einem Essstäbchen. (C) Die Spitze mit der Fliege weiter geschnitten auf eine Gesamtlänge von 10 mm. (D) Der Messinghalter mit der Fliege, die auf der Goniometerstufe platziert werden soll; Der Pfeil zeigt auf die Höhenverstellschraube. (E) Nahaufnahme der Fliege mit dem Kopf, der durch ein Stück Schmelzwachs bei niedriger Temperatur (#) an der Spitze (*) immobilisiert ist. Die Epi-Beleuchtung hat den Pupillenmechanismus der Photorezeptoren des Auges aktiviert, wie die gelbe Pseudopupille zeigt. Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

Figure 2
Abbildung 2: GRACE, der goniometrische Forschungsapparat für Facettenaugen. Das untersuchte Insekt (eine Fliege) ist auf der motorisierten Stufe montiert, die aus drei Translationsstufen (X, Y, Z) und zwei Rotationsstufen (Elevation und Azimut) besteht. Eine Linse fokussiert das Licht einer weißen LED auf eine Membran, fokussiert über einen Halbspiegel auf das Auge der Fliege. Das Auge wird mit einer Kamera fotografiert, die an einem Mikroskop befestigt ist. Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

Figure 3
Abbildung 3: Optik der Fliegenaugen . (A) Diagramm von drei Ommatidien eines Fliegenauges, die jeweils von einer bikonvexen Facettenlinse bedeckt sind, die das einfallende Licht auf eine Reihe von Photorezeptorzellen (gelb) fokussiert, die von primären (braunen) und sekundären (roten) Pigmentzellen umgeben sind. Intensive Beleuchtung von dunkel angepassten (DA) Photorezeptoren verursacht die Migration von gelben Pigmentgranula (angezeigt durch schwarze Punkte), die in den Photorezeptorzellen vorhanden sind. Sie sammeln sich zur Spitze der Photorezeptoren in der Nähe der lichtempfindlichen Organellen, der Rhabdomere, an und absorbieren und streuen Licht im lichtangepassten (LA) Zustand zurück. (B) Bild auf Höhe der Augenoberfläche, das die Facettenreflexionen (helle Punkte) sowie die Pigmentgranulatreflexion im aktivierten Zustand (Hornhautpseudopupille, CPP) zeigt. (C) Bild, das auf der Ebene des Zentrums der Augenkrümmung (der tiefen Pseudopupille, DPP) aufgenommen wurde und die Anordnung der Photorezeptorzellen in einem trapezförmigen Muster widerspiegelt, wobei ihre distalen Enden etwa auf der Fokusebene der Facettenlinsen positioniert sind. Ein überlagertes virtuelles Bild der Photorezeptorspitzen existiert somit in der Ebene des Zentrums der Augenkrümmung. Der Maßstabsbalken 100 μm gilt für die Paneele B und C. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 4
Abbildung 4: Schematische Darstellung des GRACE-Systems. Die PC-Software steuert die Firmware, die die elektromechanische Hardware antreibt. Die Digitalkamera nimmt über einen optischen Tisch Bilder des Auges der Probe auf. Die LED-Lichtquelle beleuchtet die Probe, und die Motoren der motorisierten Stufe betätigen die X-, Y- und Z-Translationen sowie die Azimut- (A) und Elevationsrotationen (E). Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

Figure 5
Abbildung 5: Diagramm zur Ableitung der Bilddrehung beim Scannen des Fliegenauges. Wenn der Mittelpunkt eines Anfangsbildes dem Punkt C einer Kugel entspricht und eine Änderung des Azimuts auftritt, wird das ebene OAB über einen kleinen Winkel Δφ gedreht und wird zur Ebene OA'B. Die Mitte des Bildes ändert sich dann von Punkt C zu Punkt C'. Die Drehung der Ebene OAB zu OA'B bewirkt eine Drehung des Bildes über einen Winkel β = Δφ cosθ (siehe Text, Abschnitt Korrelieren von Bildern). Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

Figure 6
Abbildung 6: Das Bildverarbeitungsverfahren zur Bestimmung des interommatidialen Winkels . (A) Bild, das während eines Scans über das Auge aufgenommen wurde, mit Facettenschwerpunkten, die durch grüne Kreise und rote Quadrate markiert sind, und einem grünen Punkt in der Bildmitte. (B) Nachfolgendes Bild nach einer azimutalen Drehung von 5°, mit Facettenschwerpunkten, die durch rote Quadrate und einen roten Punkt in der Bildmitte markiert sind. (C) Korrelogram der Fläche innerhalb des grünen Quadrats von A, korreliert mit Bild B. Der Vektor von der Mitte von C (grüner Punkt) zum Maximalwert des Korrelograms stellt die relative Verschiebung der Bilder A und B dar. Mit diesem Vektor werden das verschobene Quadrat von A und sein Zentrum in B gezeichnet und die Facettenschwerpunkte (rote Quadrate) von B in A addiert. Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

Figure 7
Abbildung 7: Ableiten fehlender Facettenschwerpunkte durch Anwendung von Fourier-Transformationen. (A) Ein lokales RGB-Bild mit Facettenschwerpunkten (rote Punkte). Weiße Pfeilspitzen weisen auf fehlende Facetten hin, und die rote Pfeilspitze zeigt auf einen fehlerhaften Schwerpunkt. (B) FFT der Schwerpunkte von A mit dem ersten Ring von Oberschwingungen, die durch gelbe Sterne markiert sind. (C-E) Inverse FFT der Schwerpunkte entlang der drei Richtungen, die durch die farbigen Linien in B angezeigt werden, ergeben die grauen Bänder. Die blauen (C), roten (D) und grünen (E) Linien sind quadratische Polynomanpassungen an die grauen Bänder, und die Schwerpunkte (rote Kreise) sind diejenigen, die vor den Fourier-Transformationen erhalten wurden. f) Die eingebauten Leitungen von C-E zusammen mit den Schwerpunkten von A. Die fehlenden Facettenschwerpunkte werden dann von den Kreuzungspunkten abgeleitet. Der Skalenbalken 100 μm gilt für die Paneele A, C-F. Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

Figure 8
Abbildung 8: Das rechte Auge einer Stubenfliege, die von einer Seite zur anderen gescannt wurde. (A) Kombinierte, überlappende Bilder einer Bildserie, bei der der Azimut schrittweise um 5° verändert wurde, zusammen mit den Bildzentren (grüne Kreuze) und den Facettenzentren (rote Kreise). (B) Voronoi-Diagramm der Facettenschwerpunkte mit den Bildzentren wie in A. Für die Paneele A und B gilt der Maßstabsbalken 100 μm. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Ergänzungsdatei 1: Bitte klicken Sie hier, um diese Datei herunterzuladen.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Die räumliche Verteilung der Sehachsen von Stubenfliegenaugen kann mit Hilfe des Pseudopupillenphänomens der Facettenaugen und der Reflexionsänderungen, die durch den lichtabhängigen Pupillenmechanismus verursacht werden, kartiert werden. Daher ist eine untersuchte Fliege in einem goniometrischen System montiert, das die Inspektion des lokalen Facettenmusters mit einem Mikroskop-Setup ermöglicht, das mit einer Digitalkamera ausgestattet ist, alles unter Computersteuerung. Die Bildanalyse liefert Eyemaps. Eine wesentliche Schwierigkeit besteht darin, dass sich ohne sorgfältige Positionierung des Auges zu Beginn der Messungen die betrachteten Positionen sowohl des Auges als auch der Pseudopupille selbst bei kleinen Drehungen des goniometrischen Geräts erheblich ändern können. Diese Veränderungen werden minimiert, indem das Augenzentrum am goniometrischen Rotationszentrum positioniert wird, wo die tiefe Pseudopupille beobachtet wird. Durch die Korrelation der anschließend gemessenen Bilder kann das Facettenmuster verfolgt werden. Wichtig ist, dass der Drehwinkel auf einen eher kleinen Wert eingestellt werden muss, da in Bereichen, in denen das Facettenmuster sehr regelmäßig ist, das Korrelationsverfahren anfällig für fehlerhafte Ergebnisse ist.

Hier haben wir eine partielle Augenkarte (Abbildung 8) vorgestellt, die die Machbarkeit einer hochautomatisierten Kartierung der Sehschärfe bei Insektenaugen demonstriert. Die interommatidialen Winkel von etwa 2,0°-2,5°, die sich aus dem Vergleich der Facettenabstände mit den 5°-Verschiebungen zwischen aufeinanderfolgenden Bildzentren zeigen, entsprechen gut Daten, die zuvor viel aufwendiger von derselben Art (Musca domestica)25 abgeleitet wurden. Vollständige Augenkarten des Sehraums von Stubenfliegen und anderen Insekten werden an anderer Stelle veröffentlicht.

Die hier vorgestellte Methode ermöglicht es, die visuellen Achsen eines kompletten Auges in vivo innerhalb weniger Stunden abzubilden, was mit anderen Ansätzen äußerst schwierig zu erreichen sein wird. Die automatisierte Charting-Methode wird hier für den Fall der Stubenfliege veranschaulicht, kann aber einfach auf die Facettenaugen anderer Insekten, wie Schmetterlinge, ausgedehnt werden. Anstelle der Pupillenreflexion dient der Schmetterlingsaugenschein dann jedoch als visueller Achsenmarker21,24. Eine alternative Methode ist die kürzlich entwickelte Röntgenmikrotomographie26. Dieser wertvolle Ansatz liefert detaillierte anatomische Karten, ist aber anfällig für optische Fehler, insbesondere wenn die visuellen Achsen der Ommatidien zur Augenoberflächegeneigt sind 21 oder wenn die Gewebeverarbeitung die Augengeometrie so stark verzerrt, dass die Messungen beeinträchtigt werden. Die Visualisierung der Pseudopupille ist bei Fliegenaugen, die einen glänzenden Pupillenmechanismus haben, mehr oder weniger einfach. Weniger einfach ist dies bei Facettenaugen mit einem schlecht reflektierenden Pupillenmechanismus, wie zum Beispiel bei Bienen21. Für viele andere Insektenarten, wie Soldatenfliegen oder Bienen, kann jedoch die Fluoreszenz der visuellen Pigmente in den ommatidialen Rhabdomen genutzt werden. Die Anwendung von Fluorophoren, die eine starke Rhabdomfluoreszenz erzeugen, bietet eine weitere Möglichkeit, die räumliche Organisation des Sehraums des Auges abzuschätzen27.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Die Autoren haben keine Interessenkonflikte zu melden.

Acknowledgments

Diese Studie wurde vom Air Force Office of Scientific Research/European Office of Aerospace Research and Development AFOSR/EOARD finanziell unterstützt (Zuschuss FA9550-15-1-0068, an D.G.S.). Wir danken Dr. Primož Pirih für viele hilfreiche Gespräche und Kehan Satu, Hein Leertouwer und Oscar Rincón Cardeño für die Unterstützung.

Materials

Name Company Catalog Number Comments
Digital Camera PointGrey BFLY-U3-23S6C-C Acquision of amplified images and digital communication with PC
High power star LED Velleman LH3WW Light source for observation and imaging the compound eye
Holder for the investigated fly University of Groningen Different designs were manufactured by the university workshop
Linear motor ELERO ELERO Junior 1, version C Actuates the upper microscope up and down. (Load 300N, Stroke speed 15mm/s, nominal current 1.2A)
Low temperature melting wax various The low-temperature melting point wax serves to immobilize the fly and fix it to the holder
Microscope Zeiss Any alternative microscope brand will do; the preferred objective is a 5x
Motor and LED Controller University of Groningen Z-o1 Designed and built by the University of Groningen and based on Arduino and Adafruit technologies.
Motorized Stage Standa (Vilnius, Lithuania) 8MT175-50XYZ-8MR191-28 A 6 axis motorized stage modified to have 5 degrees of freedom.
Optical components LINUS Several diagrams and lenses forming an epi-illumination system (see Stavenga, Journal of Experimental Biology 205, 1077-1085, 2002)
PC running MATLAB University of Groningen The PC is able to process the images of the PointGrey camera, control the LED intensity, and send control commants to the motor cotrollers of the system
Power Supply (36V, 3.34A) Standa (Vilnius, Lithuania) PUP120-17 Dedicated power supply for the STANDA motor controllers
Soldering iron various Used for melting the wax
Stepper and DC Motor Controller Standa (Vilnius, Lithuania) 8SMC4-USB-B9-B9 Dedicated controllers for the STANDA motorized stage capable of communicating with MATLAB
Finntip-61 Finnpipette Ky, Helsinki FINNTIP-61, 200-1000μL PIPETTE TIPS FOR FINNPIPETTES, 400/BOX. It is used to restrain the fly
Carving Pen Shaping/Thread Burning Tool Max Wax The tip of the carving pen is designed to transfer wax to the head of fly
MATLAB Mathworks, Natick, MA, USA main program plus Image Acquisition, Image Analysis, and Instrument Control toolboxes. Programming language used to implement the algorithms

DOWNLOAD MATERIALS LIST

References

  1. Land, M. F., Nilsson, D. Animal Eyes. , Oxford University Press. (2012).
  2. Cronin, T. W., Johnsen, S., Marshall, N. J., Warrant, E. J. Visual Ecology. , Princeton University Press. (2014).
  3. Horridge, G. A. The separation of visual axes in apposition compound eyes. Philosophical Transactions of the Royal Society of London. Series B. 285 (1003), 1-59 (1978).
  4. Land, M. F., Eckert, H. Maps of the acute zones of fly eyes. Journal of Comparative Physiology. A. 156, 525-538 (1985).
  5. Warrant, E. J. The design of compound eyes and the illumination of natural habitats. Ecology of Sensing. Barth, F. G., Schmid, A. , Springer. Berlin. 187-213 (2001).
  6. Warrant, E. J., Kelber, A., Kristensen, N. P. Eyes and vision. In. Handbook of Zoology, Vol. IV, Part 36, Lepidoptera, Moths and Butterflies, Vol 2: Morphology, Physiology and Development. Kristensen, N. P. , Walter de Gruyter. Berlin New York. 325-359 (2003).
  7. Petrowitz, R., Dahmen, H., Egelhaaf, M., Krapp, H. G. Arrangement of optical axes and spatial resolution in the compound eye of the female blowfly Calliphora. Journal of Comparative Physiology. A. 186 (7-8), 737-746 (2000).
  8. Smolka, J., Hemmi, J. M. Topography of vision and behaviour. The Journal of Experimental Biology. 212, Pt 21 3522-3532 (2009).
  9. Krapp, H. G., Gabbiani, F. Spatial distribution of inputs and local receptive field properties of a wide-field, looming sensitive neuron. Journal of Neurophysiology. 93 (4), 2240-2253 (2005).
  10. Strausfeld, N. J. Arthropod Brains: Evolution, Functional Elegance, and Historical Significance. , Belknap Press of Harvard University Press. (2012).
  11. Jeong, K. H., Kim, J., Lee, L. P. Biologically inspired artificial compound eyes. Science. 312 (5773), 557-561 (2006).
  12. Davis, J., Barrett, S., Wright, C., Wilcox, M. A bio-inspired apposition compound eye machine vision sensor system. Bioinspiration & Biomimetics. 4 (4), 046002 (2009).
  13. Lee, G. J., Choi, C., Kim, D., Song, Y. M. Bioinspired artificial eyes: Optic components, digital cameras, and visual prostheses. Advanced Functional Materials. 28 (24), 1870168 (2018).
  14. Zhang, K., et al. Origami silicon optoelectronics for hemispherical electronic eye systems. Nature Communications. 8, 1782 (2017).
  15. Wang, M., et al. Subtle control on hierarchic reflow for the simple and massive fabrication of biomimetic compound eye arrays in polymers for imaging at a large field of view. Journal of Materials Chemistry. C. 4, 108-112 (2016).
  16. Floreano, D., et al. Miniature curved artificial compound eyes. Proceedings of the National Academy of Sciences of the United States of America. 110, 9267-9272 (2013).
  17. Song, Y. M., et al. Digital cameras with designs inspired by the arthropod eye. Nature. 497 (7447), 95-99 (2013).
  18. Douglass, J. K., Wehling, M. F. Rapid mapping of compound eye visual sampling parameters with FACETS, a highly automated wide-field goniometer. Journal of Comparative Physiology A. 202 (12), 839-851 (2016).
  19. Franceschini, N. Sampling of the visual environment by the compound eye of the fly: fundamentals and applications. Photoreceptor Optics. Snyder, A. W., Menzel, R. , Springer. Berlin, Heidelberg, New York. 98-125 (1975).
  20. Franceschini, N., Kirschfeld, K. The automatic control of the light flux in the compound eye of Diptera. Spectral, statistical, and dynamical properties of the mechanism. Biological Cybernetics. 21, 181-203 (1976).
  21. Stavenga, D. G. Pseudopupils of compound eyes. Handbook of Sensory Physiology, Vol VII/6A. Autrum, H. , Springer. Berlin-Heidelberg-New York. 357-439 (1979).
  22. Stavenga, D. G., Kruizinga, R., Leertouwer, H. L. Dioptrics of the facet lenses of male blowflies Calliphora and Chrysomia. Journal of Comparative Physiology A. 166, 365-371 (1990).
  23. Straw, A. D., Warrant, E. J., O'Carroll, D. C. A "bright zone" in male hoverfly (Eristalis tenax) eyes and associated faster motion detection and increased contrast sensitivity. The Journal of Experimental Biology. 209, 4339-4354 (2006).
  24. Stavenga, D. G. Reflections on colourful ommatidia of butterfly eyes. The Journal of Experimental Biology. 205, 1077-1085 (2002).
  25. Beersma, D. G. M., Stavenga, D. G., Kuiper, J. W. Organization of visual axes in the compound eye of the fly Musca domestica L. and behavioural consequences. Journal of Comparative Physiology. 102, 305-320 (1975).
  26. Taylor, G. J., et al. Bumblebee visual allometry results in locally improved resolution and globally improved sensitivity. eLife. 8, 40613 (2019).
  27. Rigosi, E., Warrant, E. J., O'Carroll, D. C. A new, fluorescence-based method for visualizing the pseudopupil and assessing optical acuity in the dark compound eyes of honeybees and other insects. Scientific Reports. 11, 21267 (2021).

Tags

Biologie Ausgabe 181
Automatisiertes Charting des visuellen Raums von Stubenfliegen-Facettenaugen
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Muñoz Arias, M., Douglass, J.More

Muñoz Arias, M., Douglass, J. K., Wehling, M. F., Stavenga, D. G. Automated Charting of the Visual Space of Housefly Compound Eyes. J. Vis. Exp. (181), e63643, doi:10.3791/63643 (2022).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter