Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Biology

Geautomatiseerde in kaart brengen van de visuele ruimte van housefly compound eyes

Published: March 31, 2022 doi: 10.3791/63643

Summary

Het protocol beschrijft hier de meting van de ruimtelijke organisatie van de visuele assen van huisvliegogen, in kaart gebracht door een automatisch apparaat, met behulp van het pseudopupil-fenomeen en het pupilmechanisme van de fotoreceptorcellen.

Abstract

Dit artikel beschrijft de automatische meting van de ruimtelijke organisatie van de visuele assen van insecten samengestelde ogen, die bestaan uit enkele duizenden visuele eenheden genaamd ommatidia. Elk ommatidium bemonstert de optische informatie vanuit een kleine vaste hoek, met een geschatte Gaussisch verdeelde gevoeligheid (halve breedte in de orde van 1°) gecentreerd rond een visuele as. Samen verzamelen de ommatidia de visuele informatie uit een bijna panoramisch gezichtsveld. De ruimtelijke verdeling van de visuele assen bepaalt dus de ruimtelijke resolutie van het oog. Kennis van de optische organisatie van een samengesteld oog en zijn gezichtsscherpte is cruciaal voor kwantitatieve studies van neurale verwerking van de visuele informatie. Hier presenteren we een geautomatiseerde procedure voor het in kaart brengen van de visuele assen van een samengesteld oog, met behulp van een intrinsiek, in vivo optisch fenomeen, de pseudopupil en het pupilmechanisme van de fotoreceptorcellen. We schetsen de optomechanische opstelling voor het scannen van insectenogen en gebruiken experimentele resultaten verkregen van een huisvlieg, Musca domestica, om de stappen in de meetprocedure te illustreren.

Introduction

De compactheid van visuele systemen van insecten en de behendigheid van hun eigenaren, die een sterk ontwikkelde visuele informatieverwerking demonstreren, hebben mensen met zowel wetenschappelijke als niet-wetenschappelijke achtergronden geïntrigeerd. Insectenogen zijn erkend als krachtige optische apparaten die acute en veelzijdige visuele capaciteiten mogelijk maken 1,2. Vliegen staan bijvoorbeeld bekend om hun snelle reacties op bewegende objecten, en bijen staan bekend om het bezitten van kleurzicht en polarisatievisie2.

De samengestelde ogen van geleedpotigen bestaan uit talrijke anatomisch vergelijkbare eenheden, de ommatidia, die elk worden afgedekt door een facetlens. Bij Diptera (vliegen) benadert de assemblage van facetlenzen, gezamenlijk bekend als het hoornvlies, vaak een halfrond. Elk ommatidiummonster valt licht in vanuit een kleine vaste hoek met halve breedte in de orde van 1°. De ommatidia van de twee ogen samen bemonsteren ongeveer de volledige vaste hoek, maar de visuele assen van de ommatidia zijn niet gelijkmatig verdeeld. Bepaalde ooggebieden hebben een hoge dichtheid van visuele assen, waardoor een gebied met een hoge ruimtelijke scherpte ontstaat, in de volksmond een fovea genoemd. Het resterende deel van het oog heeft dan een grovere ruimtelijke resolutie 3,4,5,6,7,8,9.

Een kwantitatieve analyse van de optische organisatie van de samengestelde ogen is cruciaal voor gedetailleerde studies van de neurale verwerking van visuele informatie. Studies van de neurale netwerken van de hersenen van een insect10 vereisen vaak kennis van de ruimtelijke verdeling van de ommatidiale assen. Bovendien hebben samengestelde ogen verschillende technische innovaties geïnspireerd. Veel initiatieven om bio-geïnspireerde kunstogen te produceren zijn gebaseerd op bestaande kwantitatieve studies van echte samengestelde ogen 11,12,13. Een op halfgeleiders gebaseerde sensor met een hoge ruimtelijke resolutie is bijvoorbeeld ontworpen op basis van het model van insecten samengestelde ogen 11,14,15,16,17. De tot nu toe ontwikkelde apparaten hebben echter niet de werkelijke kenmerken van bestaande insectenogen geïmplementeerd. Nauwkeurige representaties van insecten samengestelde ogen en hun ruimtelijke organisatie vereisen gedetailleerde en betrouwbare gegevens van natuurlijke ogen, die niet uitgebreid beschikbaar zijn.

De belangrijkste reden voor het gebrek aan gegevens is de extreme saaiheid van de beschikbare procedures voor het in kaart brengen van de ruimtelijke kenmerken van de ogen. Dit heeft geleid tot pogingen om een meer geautomatiseerde eye mapping-procedure op te zetten. In een eerste poging tot geautomatiseerde analyses van insecten samengestelde ogen, ontwikkelden Douglass en Wehling18 een scanprocedure voor het in kaart brengen van facetmaten in het hoornvlies en toonden de haalbaarheid ervan aan voor een paar vliegensoorten. Hier breiden we hun aanpak uit door methoden te ontwikkelen om niet alleen de facetten van het hoornvlies te scannen, maar ook de visuele assen van de ommatidia waartoe de facetten behoren te beoordelen. We presenteren het geval van huisvliegenogen om de betrokken procedures te illustreren.

De experimentele opstelling voor het scannen van insectenogen is: gedeeltelijk optisch, d.w.z. een microscoop met camera en verlichtingsoptiek; gedeeltelijk mechanisch, d.w.z. een goniometersysteem voor het roteren van het onderzochte insect; en gedeeltelijk computationeel, d.w.z. gebruik van softwarestuurprogramma's voor de instrumenten en programma's voor het uitvoeren van metingen en analyses. De ontwikkelde methoden omvatten een reeks computationele procedures, van het vastleggen van beelden, het kiezen van camerakanalen en het instellen van beeldverwerkingsdrempels tot het herkennen van individuele facetlocaties via heldere lichtvlekken die worden gereflecteerd door hun bolle oppervlakken. Fouriertransformatiemethoden waren cruciaal in de beeldanalyse, zowel voor het detecteren van individuele facetten als voor het analyseren van de facetpatronen.

Het artikel is als volgt opgebouwd. We introduceren eerst de experimentele opstelling en het pseudopupil-fenomeen - de optische marker die wordt gebruikt om de visuele assen van de fotoreceptoren in levende ogen te identificeren 19,20,21. Vervolgens worden de algoritmen beschreven die worden gebruikt in de scanprocedure en beeldanalyse.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Het protocol is in overeenstemming met de richtlijnen voor insectenverzorging van de universiteit.

1. Bereiding van een huisvlieg, Musca domestica

  1. Verzamel de vlieg van de in het laboratorium gekweekte populatie. Plaats de vlieg in de messing houder (figuur 1).
    1. Snijd 6 mm uit het bovenste deel van de fixatiebuis (zie Materiaaltabel). Het nieuwe bovenste deel van de buis heeft een uitwendige diameter van 4 mm en een inwendige diameter van 2,5 mm (figuur 1A). Plaats de levende vlieg in de buis, sluit de buis af met katoen om beschadiging van de vlieg te voorkomen en duw de vlieg zodanig dat de kop uit de buis steekt en het lichaam wordt vastgehouden (figuur 1B). Immobiliseer de kop met bijenwas zodat de ogen onbedekt blijven (figuur 1C-E).
    2. Knip de buis opnieuw zodanig dat de buislengte 10 mm is (figuur 1C). Plaats de plastic buis met de vlieg in de messing houder, zodat één oog van de vlieg naar boven wijst wanneer de houder op een tafelblad rust (figuur 1D, E).
  2. Pas de oriëntatie van de buis zodanig aan dat met de goniometerhoogte op 0 ° (d.w.z. de azimuttrap bevindt zich in een horizontale positie), de verticale verlichtingsstraal van de microscoop loodrecht staat op het oogoppervlak in een centraal gebied, tussen ventraal en dorsaal, en tussen voorste en achterste randen van het oog, zodat het hele oog kan worden gescand binnen het bereik van azimut en hoogte toegestaan door de opstelling.

2. Uitlijning van de roterende azimutas van de goniometer met de optische as van de microscoop

  1. Monteer een uitlijningspen op de azimutrotatietrap, zodat de x-y-positie van de tip kan worden aangepast om samen te vallen met de azimutas op het gemotoriseerde podium. Terwijl u met de microscoop kijkt, uitgerust met een 5x-objectief, stelt u scherp op de punt met behulp van de z-as joystick (figuur 2).
  2. Lijn de x-y-aanpassing van de azimut-as uit met de optische as van de microscoop en zorg ervoor dat de hoogte- en azimut-roterende assen vooraf zijn uitgelijnd met de gecentreerde pin, met behulp van de x- en y-as joysticks.
  3. Manipuleer de azimut- en hoogtejoysticks om te controleren of de pin gecentreerd is met betrekking tot beide vrijheidsgraden. Wanneer goed gecentreerd, blijft de penpunt ongeveer in dezelfde positie tijdens azimut- en elevatierotaties.

3. Uitlijning van het vliegenoog met de gemotoriseerde stadia

  1. Met het hoogtestadium op 0° monteer je de vlieg en zijn houder op de azimuttrap. Observeer het oog van de vlieg met de microscoop.
  2. Met de verlichtings-LED aan, past u de horizontale positie van de vlieg aan, zodat het midden van de pseudopupil wordt uitgelijnd met de microscoop. Pas de verticale positie van de vlieg aan met behulp van de roterende schroef van de houder (figuur 1D), zodat de diepe pseudopupil (DPP; Figuur 3) 19,20,21 wordt ter hoogte van de hoogteas in beeld gebracht.
  3. Lijn de DPP uit ten opzichte van de azimut- en hoogteassen door deze in het gezichtsveld te centreren (zie figuur 2). Gebruik de magneten die aan de onderkant van de vliegenhouder zijn gelijmd om deze stevig vast te maken op een ijzeren plaat die op de azimuttrap is gemonteerd, terwijl handmatige glijaanpassingen mogelijk zijn.
    1. Schakel de weergave over naar de digitale camera die op de microscoop is gemonteerd. Voer de software-initialisatie van het GRACE-systeem uit, waaronder het initialiseren van de motorcontrollers en de Arduino LED-controller (figuur 4). Open daarom MATLAB R2020a of hogere versie. Voer het MATLAB-script uit Initialize_All_Systems (aanvullend bestand 1).
  4. Controleer of de pseudopupil van de vlieg (figuur 3B,C) zich in het midden van het geprojecteerde beeld op het computerscherm bevindt.

4. Autofocus en autocentering

  1. Breng de focus naar het niveau van de cornea pseudopupil (CPP; Figuur 3B) 19,20,21 handmatig met behulp van de z-as joystick.
  2. Voer het autofocusalgoritme (Aanvullend bestand 1, script AF) uit om een scherp beeld op hoornvliesniveau te verkrijgen. Controleer dit door de focus terug te brengen naar het DPP-niveau door de gemotoriseerde z-astrap aan te passen. Bewaar de afstand tussen de DPP en CPP (in motorstappen).
  3. Verfijn de pseudopupil centering door het autocentering algoritme (Supplementary File 1, script AC) uit te voeren. Breng de focus terug naar het CPP-niveau.
  4. Voer het autofocusalgoritme opnieuw uit. Nul de gemotoriseerde stadia op hun huidige posities (X,Y,Z,E,A) = (0,0,0,0,0), waarbij E hoogte is en A azimut.
  5. Voer het scanalgoritme (aanvullend bestand 1, script Scan_Begin) uit, dat oogbeelden langs trajecten in stappen van 5° samplet, terwijl de algoritmen voor autocentering en autofocus worden uitgevoerd.
  6. Schakel aan het einde van de bemonstering de LED-controller en de motorcontrollers uit.
  7. Verwerk de afbeeldingen door de beeldverwerkingsalgoritmen toe te passen (aanvullend bestand 1, script ImProcFacets).

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Dieren en optische stimulatie
Experimenten worden uitgevoerd op huisvliegen (Musca domestica) verkregen uit een cultuur die wordt onderhouden door de afdeling Evolutionaire Genetica van de Rijksuniversiteit Groningen. Vóór de metingen wordt een vlieg geïmmobiliseerd door hem met een laagsmeltpuntwas in een goed passende buis te lijmen. De vlieg wordt vervolgens gemonteerd op het podium van een gemotoriseerde goniometer. Het midden van de twee roterende trappen valt samen met het brandpunt van een microscopische opstelling24. De epi-verlichtingslichtbundel wordt geleverd door een lichtbron, die het licht richt op een diafragma dat via een halve spiegel op het oog van de vlieg wordt afgebeeld. Het activeert dus het pupilmechanisme van een beperkte set fotoreceptorcellen (figuur 3). De optische assen van de ommatidia die deze fotoreceptoren herbergen, worden beoordeeld door de vlieg in kleine stapjes te draaien en na elke stap foto's te maken met een digitale kleurencamera die aan een microscoop is bevestigd (figuur 2). Omdat de pupilpigmentkorrels voornamelijk reflecteren in het lange golflengtebereik, wordt het rode kanaal van de digitale camera gebruikt om de pseudopupil te onderscheiden van de facetlensreflecties. De laatste reflecties kunnen het beste worden geïsoleerd van de pseudopupil met behulp van het blauwe kanaal van de camera.

Autofocus- en autocentering-algoritmen
De belangrijkste aanvullende algoritmen die worden gebruikt tijdens het scannen van het oog van een insect zijn de autofocus en autocentering (aanvullend bestand 1, scripts AF en AC). Het doel van autofocus is om het hoornvliesniveau naar de focus van de camera te brengen, om de facetreflecties te detecteren die nodig zijn voor de identificatie van individuele ommatidia (figuur 3B). De procedure voor het detecteren van het hoornvliesniveau is om de verticale (Z) positie van de vlieg in stappen te veranderen door de snelle Fouriertransformatie (FFT) toe te passen op het beeld dat op elk niveau wordt genomen om de ruimtelijke frequentie-inhoud te bepalen. Het criterium voor optimale scherpstelling is het niveau met het grootste opgetelde vermogen boven een laagfrequente afsnijding.

De ingangen voor autofocus zijn de Z-posities en streaming video van de camera. De uitgangen zijn het integraal onderdeel van de hoogfrequente inhoud van het beeld SF en het scherpstelniveau Z waar SF maximaal is. In de eerste stap wordt de Z-positie van het camerabeeld aangepast tot iets onder de cornea facetlenzen en wordt het interessegebied ingesteld om de frequentie-inhoud van het beeld te bepalen. De for-lus start de beeldopname en berekent de som van de hoogdoorlaat gefilterde Fourier-transformatie SF. Door vervolgens de z-asmotor omhoog te stappen naar een beeldniveau boven het hoornvlies, wordt het niveau met de hoogste frequenties gevonden, d.w.z. waar SF maximaal is, wat wordt beschouwd als het hoornvliesniveau. De z-asmotor wordt vervolgens op dat niveau aangepast en er wordt een beeld gemaakt.

Bij het scherpstellen van het hoornvlies naar het niveau van het krommingscentrum van het oog, vervagen de reflecties van het corneafacet en smelten de pseudopupilreflecties samen tot een typisch patroon met zeven stippen, wat een kenmerk is voor de organisatie van de fotoreceptoren in de vlieg ommatidia (Figuur 3C; merk op dat het patroon alleen verschilt in ongeveer bolvormige ooggebieden). Het patroon in het krommingsniveau van het oog wordt de diepe pseudopupil (DPP)19,21 genoemd.

Het verschuiven van de vlieg die in het stadium is geplaatst met de X- en Y-motoren, zodat het midden van de lichtvlek samenvalt met het midden van het camerabeeld, wordt autocentering genoemd. Deze procedure lijnt het facet van het ommatidium waarvan de visuele as zich in het midden van de DPP bevindt uit met de verlichtingsbundel en de optische as van de microscoop en de camera. Het beeld is Gaussisch gefilterd en binarized, en vervolgens wordt het midden van de pseudopupil bepaald met behulp van de regioprops MATLAB functie. De ingangen zijn de posities van de X- en Y-motoren en de streaming video van de camera; de uitvoer is de afstand tussen de centra van het beeld en pseudopupil, die vervolgens wordt vertaald in een faseverschuiving.

Afbeeldingen correleren
Het oog wordt gescand door foto's te maken en op te slaan op verschillende waarden van de goniometerhoogte θ en azimut φ na de autofocus- en autocenteringprocedures. Tweedimensionale correlatie wordt gebruikt om de x-y-verschuivingen tussen opeenvolgende afbeeldingen te bepalen. Om de beelden verkregen op verschillende hoekposities te correleren, is het essentieel om te beseffen dat dit over het algemeen resulteert in een rotatie van het huidige beeld ten opzichte van het vorige beeld. Laten we bijvoorbeeld aannemen dat het middelpunt van een beginbeeld overeenkomt met punt C van een bol (figuur 5) en dat er een verandering in azimut optreedt, zodat vlak OAB over een kleine hoek Δφ wordt gedraaid en vlak OA'B wordt. Het midden van de afbeelding verandert dan van punt C naar punt C' (figuur 5). Als het camerabeeldvlak loodrecht staat op de vector OC, veroorzaakt rotatie van vlak OAB naar OA'B rotatie van het beeld over een hoek β = Δφ cosθ, zoals β = CC'⁄BC, met CC' = CDΔφ en cosθ = CD⁄BC (figuur 5). Dit betekent dat aan de bovenkant van de bol (θ = 0°), β = Δφ, en op de evenaar (θ = 90°), β = 0°. Wanneer Δφ = 0°, dat wil zeggen wanneer alleen de hoogte θ wordt gewijzigd, worden de beelden niet ten opzichte van elkaar gedraaid, dus β = 0°.

Tijdens de scanprocedure centreert de autocenteringprocedure het ommatidium waarvan de visuele as is uitgelijnd met de optische as van het meetsysteem. Rotatie van het azimut veroorzaakt een rotatie door een hoek β en een vertaling van het facetpatroon. Om de laatste verschuiving te bepalen, worden twee opeenvolgende beelden gecorreleerd (na eerst het eerste beeld te hebben gedraaid door de rotatiehoek β), zoals uitgelegd in figuur 6.

In het image shift algoritme (Supplementary File 1, script ImProcFacets) worden de individuele facetten geïdentificeerd door de centroïden van hun reflecties in elke afbeelding. De ingangen van het algoritme zijn de hoogte- en azimuthoek, de set afbeeldingen die moeten worden beoordeeld, het beeldkanaal en het interessegebied. Het algoritme produceert een set centroïden en een uiteindelijke afbeelding die alle gecorreleerde beelden bevat die tijdens de scanprocedure zijn gemaakt.

Het goniometrische systeem
Om uitlijning met de verlichting te bereiken, moet het oog van de vlieg worden gefotografeerd met de cornea facetlenzen in focus, en de pseudopupil moet regelmatig worden vernieuwd (hier na elke 5 ° rotatie). Dit automatische proces wordt gerealiseerd met het GRACE-systeem (Goniometric Research Apparatus for Compound Eyes), schematisch weergegeven in figuur 4. Het bestaat uit drie hoofdsubsystemen: de onderste en bovenste trap met hun respectieve elektronica als de elektromechanische hardware, de firmware ingebed in de fysieke controllers en de pc die wordt gebruikt om de software te bedienen die de algoritmen implementeert. De hardware bestaat uit de gemotoriseerde en optische stadia, de digitale camera, een microcontroller voor het programmeren van LED-intensiteiten en een witte LED-lichtbron. De routines van de firmware zijn voorzien van de motorcontrollers, de LED-controller en in de digitale camera. De software bestaat uit de algoritmen voor het regelen van motorposities en snelheden, het aanpassen van de LED en het verkrijgen en analyseren van beelden. De hierna besproken algoritmen vertegenwoordigen de belangrijkste mijlpalen die het GRACE-systeem in staat stellen om insectenogen te scannen.

Vliegenogen en pseudopupils
Wanneer een huisvliegenoog wordt verlicht, activeert het invallende licht het pupilmechanisme van de fotoreceptorcellen, een systeem van mobiele, geelgekleurde pigmentkorrels in het cellichaam. Het systeem regelt de lichtstroom die het fototransductieproces van de fotoreceptoren activeert en heeft dus in wezen dezelfde functie als de pupil in het menselijk oog19,20. De activering van het pupilmechanisme veroorzaakt een lokaal verbeterde reflectie in het ooggebied dat naar het diafragma van het objectief van de microscoop is gericht (figuur 3). De positie van het helder reflecterende ooggebied, de pseudopupil 19,20,21, verandert bij het draaien van het oog omdat het invallende licht vervolgens het pupilmechanisme activeert in een andere set fotoreceptorcellen (zie figuur 6). De pseudopupil fungeert dus als een marker van de visuele as van de ommatidia die zijn uitgelijnd met de microscoop. Hierdoor kan de ruimtelijke verdeling van de visuele assen van het oog 4,20,21,22,23 in kaart worden gebracht.

Ontbrekende facetten invullen
Niet alle facetten worden geïdentificeerd door de centroïde procedure, bijvoorbeeld als gevolg van een lage lokale reflectie veroorzaakt door kleine oppervlakte-onregelmatigheden of stofdeeltjes. Dit laatste kan ook leiden tot foutieve centroïden (figuur 7A). Dit probleem wordt eerst opgelost door de ogen te wassen onder een waterkraan en ten tweede door een invulprocedure toe te passen (script ImProcFacets). Daarom worden eerst de centroïden in een gebied bepaald (figuur 7A) en vervolgens wordt de FFT berekend (figuur 7B). De eerste ring van harmonischen (gele sterren in figuur 7B) definieert drie oriëntaties, aangegeven door de blauwe, rode en groene lijnen (figuur 7B). Omgekeerde transformatie van de harmonischen langs de drie oriëntaties levert de grijze banden in figuur 7C-E op. Het aanbrengen van een tweede-orde polynoom op de grijze banden levert lijnen op die de facet centroïden langs de drie roosterassen verbinden. De kruisingspunten van de roosterlijnen komen dus overeen met de ware facetcentra. Omdat het voorbeeld van figuur 7 een extreem geval is, toont het aan dat de procedure robuust is. In de meeste gebieden zijn ontbrekende facetten en foutieve centroïden zeldzaam.

Een vliegenoog scannen
Figuur 8 toont een band van ommatidia gescand over het oog door het uitvoeren van een reeks stapsgewijze azimutale veranderingen met Δφ = 5°. Het scannen van de voorkant van het oog (figuur 8A, rechts) naar de zijkant (figuur 8A, links) vond plaats in 24 stappen. De centroïden van de grotendeels overlappende facetpatronen werden vervolgens gedraaid door β = Δφcosθ. Vervolgens, na het verschuiven van de centroïden van elke afbeelding en het invullen van de ontbrekende facetten (met script ImProcFacets), werden de gecolokaliseerde centroïden gemiddeld. Figuur 8A toont de gecombineerde beelden, samen met de beeldcentra en facet centroïden. Figuur 8B toont de assemblage van facetten als een Voronoi-diagram.

Figure 1
Figuur 1: Montage van de vlieg in de messing houder. (A) Een tip met een huisvlieg die moet worden onderzocht. (B) De gesneden punt met de vlieg zachtjes naar het uiteinde geduwd met behulp van een stuk katoen en een eetstokje. (C) De punt met de vlieg verder gesneden tot een totale lengte van 10 mm. (D) De messing houder met de vlieg die op het goniometerstadium moet worden geplaatst; de pijl wijst naar de hoogteverstellingsschroef. (E) Close-up foto van de vlieg met de kop geïmmobiliseerd door een stuk lage temperatuur smeltende was (#) naar de punt (*). Epi-verlichting heeft het pupilmechanisme van de fotoreceptoren van het oog geactiveerd, zoals onthuld door de gele pseudopupil. Klik hier om een grotere versie van deze figuur te bekijken.

Figure 2
Figuur 2: GRACE, het goniometrische onderzoeksapparaat voor samengestelde ogen. Het onderzochte insect (een vlieg) is gemonteerd in het gemotoriseerde stadium bestaande uit drie translatiestadia (X, Y, Z) en twee rotatiefasen (elevatie en azimut). Een lens stelt licht van een witte LED op een diafragma, scherpgesteld via een halve spiegel op het oog van de vlieg. Het oog wordt gefotografeerd met een camera die aan een microscoop is bevestigd. Klik hier om een grotere versie van deze figuur te bekijken.

Figure 3
Figuur 3: Optica van vliegenogen. (A) Diagram van drie ommatidia van een vliegenoog, elk afgedekt door een biconvexe facetlens, die invallend licht richt op een reeks fotoreceptorcellen (geel), omgeven door primaire (bruine) en secundaire (rode) pigmentcellen. Intense verlichting van donker-aangepaste (DA) fotoreceptoren veroorzaakt migratie van gele pigmentkorrels (aangegeven door zwarte stippen), die in de fotoreceptorcellen voorkomen. Opgehoopt naar de punt van de fotoreceptoren, in de buurt van de lichtgevoelige organellen, de rabiaten, absorberen en backscatter licht in de aan licht aangepaste (LA) toestand. (B) Afbeelding ter hoogte van het oogoppervlak, met de facetreflecties (heldere stippen) en de pigmentkorrelreflectie in de geactiveerde toestand (de cornea pseudopupil, CPP). (C) Afbeelding genomen ter hoogte van het centrum van de oogkromming (de diepe pseudopupil, DPP), die de rangschikking van de fotoreceptorcellen in een trapeziumvormig patroon weerspiegelt, met hun distale uiteinden gepositioneerd op ongeveer het brandpuntsvlak van de facetlenzen. Een gesuperponeerd virtueel beeld van de fotoreceptorpunten bestaat dus in het vlak van het centrum van de oogkromming. Schaalbalk 100 μm is van toepassing op panelen B en C. Klik hier om een grotere versie van deze figuur te bekijken.

Figure 4
Figuur 4: Schematisch diagram van het GRACE-systeem. De pc-software bestuurt de firmware, die de elektromechanische hardware aandrijft. De digitale camera maakt via een optisch podium beelden van het oog van het specimen. De LED-lichtbron verlicht het monster en de motoren van het gemotoriseerde podium bedienen de X-, Y- en Z-translaties, evenals de azimut (A) en elevatie (E) rotaties. Klik hier om een grotere versie van deze figuur te bekijken.

Figure 5
Figuur 5: Diagram voor het afleiden van de beeldrotatie bij het scannen van het vliegenoog. Als het middelpunt van een beginbeeld overeenkomt met punt C van een bol en er een verandering in azimut optreedt, wordt vlak OAB over een kleine hoek Δφ gedraaid en wordt het vlak OA'B. Het midden van de afbeelding verandert dan van punt C in punt C'. Rotatie van vlak OAB naar OA'B veroorzaakt rotatie van het beeld over een hoek β = Δφ cosθ (zie tekst, sectie Correleren van afbeeldingen). Klik hier om een grotere versie van deze figuur te bekijken.

Figure 6
Figuur 6: De beeldverwerkingsprocedure voor het bepalen van de interommatidiahoek. (A) Afbeelding genomen tijdens een scan over het oog, met facet centroïden gemarkeerd door groene cirkels en rode vierkanten, en een groene stip in het afbeeldingscentrum. (B) Volgende afbeelding na een azimutale rotatie van 5°, met facet centroïden gemarkeerd door rode vierkanten en een rode stip in het midden van de afbeelding. (C) Correlogram van het gebied binnen het groene vierkant van A gecorreleerd met afbeelding B. De vector van het centrum van C (groene stip) naar de maximale waarde van het correlogram vertegenwoordigt de relatieve verschuiving van afbeeldingen A en B. Met behulp van die vector worden het verschoven vierkant van A en het midden in B getekend en worden de facet centroïden (rode vierkanten) van B toegevoegd in A. Schaalbalk 100 μm is van toepassing op panelen A-C. Klik hier om een grotere versie van deze figuur te bekijken.

Figure 7
Figuur 7: Ontbrekende facet centroïden afleiden door Fouriertransformaties toe te passen. (A) Een lokale RGB-afbeelding met facet centroïden (rode stippen). Witte pijlpunten duiden op ontbrekende facetten en de rode pijlpunt wijst op een foutief centroïde. (B) FFT van de centroïden van A met de eerste ring van harmonischen gemarkeerd door gele sterren. (C-E) Omgekeerde FFT van de centroïden langs de drie richtingen aangegeven door de gekleurde lijnen in B, wat de grijsachtige banden oplevert. De blauwe (C), rode (D) en groene (E) lijnen zijn kwadratische polynomiale passen bij de grijze banden, en de centroïden (rode cirkels) zijn die welke werden verkregen vóór de Fouriertransformaties. F) De montagelijnen van C-E gecombineerd, samen met de centroïden van A. De ontbrekende facet centroïden worden dan afgeleid van de grensovergangen. Schaalbalk 100 μm is van toepassing op panelen A, C-F. Klik hier om een grotere versie van deze figuur te bekijken.

Figure 8
Figuur 8: Het rechteroog van een huisvlieg gescand van de ene naar de andere kant. (A) Gecombineerde, overlappende beelden van een beeldreeks waarin het azimut stapsgewijs met 5° werd veranderd, samen met de beeldcentra (groene kruizen) en de facet centroïden (rode cirkels). (B) Voronoi diagram van de facet centroïden, met de beeldcentra zoals in A. Schaalbalk 100 μm is van toepassing op panelen A en B. Klik hier om een grotere versie van deze figuur te bekijken.

Aanvullend bestand 1: Klik hier om dit bestand te downloaden.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

De ruimtelijke verdeling van de visuele assen van huisvliegogen kan in kaart worden gebracht met behulp van het pseudopupil-fenomeen van samengestelde ogen en de reflectieveranderingen veroorzaakt door het lichtafhankelijke pupilmechanisme. Daarom wordt een onderzochte vlieg gemonteerd in een goniometrisch systeem, dat inspectie van het lokale facetpatroon mogelijk maakt met een microscoopopstelling uitgerust met een digitale camera, allemaal onder computerbesturing. Beeldanalyse levert oogkaarten op. Een essentieel probleem dat wordt ondervonden, is dat zonder zorgvuldige positionering van het oog aan het begin van de metingen, de bekeken posities van zowel het oog als de pseudopupil aanzienlijk kunnen veranderen, zelfs met kleine rotaties van het goniometrische apparaat. Deze veranderingen worden geminimaliseerd door het oogcentrum te positioneren in het goniometrische rotatiecentrum, waar de diepe pseudopupil wordt waargenomen. Door de vervolgens gemeten beelden te correleren, kan het facetpatroon worden gevolgd. Belangrijk is dat de rotatiehoek moet worden aangepast aan een vrij kleine waarde, omdat in gebieden waar het facetpatroon zeer regelmatig is, de correlatieprocedure gevoelig is voor foutieve resultaten.

Hier hebben we een gedeeltelijke oogkaart gepresenteerd (figuur 8), die de haalbaarheid aantoont van sterk geautomatiseerde kartering van de gezichtsscherpte in insectenogen. De interommatidiale hoeken van ongeveer 2,0°-2,5°, die blijken uit het vergelijken van de facetafstanden met de 5° verschuivingen tussen opeenvolgende beeldcentra, komen goed overeen met gegevens die eerder, op een veel bewerkelijker manier, werden afgeleid van dezelfde soort (Musca domestica)25. Volledige oogkaarten van de visuele ruimte van huisvliegen en andere insecten zullen elders worden gepubliceerd.

De hier gepresenteerde methode maakt het mogelijk om de visuele assen van een compleet oog in vivo binnen slechts een paar uur in kaart te brengen, wat uiterst moeilijk te bereiken zal zijn met andere benaderingen. De geautomatiseerde kaartmethode wordt hier geïllustreerd voor het geval van de huisvlieg, maar kan eenvoudig worden uitgebreid naar de samengestelde ogen van andere insecten, zoals vlinders. In plaats van de pupilreflectie dient de vlinderogenhine dan echter als visuele asmarkering21,24. Een alternatieve methode is de recent ontwikkelde röntgenmicrotomografie26. Deze waardevolle benadering levert gedetailleerde anatomische kaarten op, maar is kwetsbaar voor optische fouten, met name wanneer de visuele assen van de ommatidia scheef staan ten opzichte van het oogoppervlak21, of als weefselverwerking de ooggeometrie voldoende vervormt om metingen in gevaar te brengen. De visualisatie van de pseudopupil is min of meer eenvoudig in vliegenogen die een glanzend pupilmechanisme hebben. Dit is minder gemakkelijk in samengestelde ogen met een slecht reflecterend pupilmechanisme, zoals bijvoorbeeld bij bijen21. Toch kan voor veel andere insectensoorten, zoals soldatenvliegen of bijen, de fluorescentie van de visuele pigmenten in de ommatidiële rhabdoms worden gebruikt. De toepassing van fluoroforen die een sterke rabdomfluorescentie creëren, biedt een andere mogelijkheid om de ruimtelijke organisatie van de visuele ruimte van het oog te schatten27.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

De auteurs hebben geen belangenconflicten te melden.

Acknowledgments

Deze studie werd financieel ondersteund door het Air Force Office of Scientific Research/European Office of Aerospace Research and Development AFOSR/EOARD (subsidie FA9550-15-1-0068, aan D.G.S.). We danken Dr. Primož Pirih voor vele nuttige discussies en Kehan Satu, Hein Leertouwer en Oscar Rincón Cardeño voor hulp.

Materials

Name Company Catalog Number Comments
Digital Camera PointGrey BFLY-U3-23S6C-C Acquision of amplified images and digital communication with PC
High power star LED Velleman LH3WW Light source for observation and imaging the compound eye
Holder for the investigated fly University of Groningen Different designs were manufactured by the university workshop
Linear motor ELERO ELERO Junior 1, version C Actuates the upper microscope up and down. (Load 300N, Stroke speed 15mm/s, nominal current 1.2A)
Low temperature melting wax various The low-temperature melting point wax serves to immobilize the fly and fix it to the holder
Microscope Zeiss Any alternative microscope brand will do; the preferred objective is a 5x
Motor and LED Controller University of Groningen Z-o1 Designed and built by the University of Groningen and based on Arduino and Adafruit technologies.
Motorized Stage Standa (Vilnius, Lithuania) 8MT175-50XYZ-8MR191-28 A 6 axis motorized stage modified to have 5 degrees of freedom.
Optical components LINUS Several diagrams and lenses forming an epi-illumination system (see Stavenga, Journal of Experimental Biology 205, 1077-1085, 2002)
PC running MATLAB University of Groningen The PC is able to process the images of the PointGrey camera, control the LED intensity, and send control commants to the motor cotrollers of the system
Power Supply (36V, 3.34A) Standa (Vilnius, Lithuania) PUP120-17 Dedicated power supply for the STANDA motor controllers
Soldering iron various Used for melting the wax
Stepper and DC Motor Controller Standa (Vilnius, Lithuania) 8SMC4-USB-B9-B9 Dedicated controllers for the STANDA motorized stage capable of communicating with MATLAB
Finntip-61 Finnpipette Ky, Helsinki FINNTIP-61, 200-1000μL PIPETTE TIPS FOR FINNPIPETTES, 400/BOX. It is used to restrain the fly
Carving Pen Shaping/Thread Burning Tool Max Wax The tip of the carving pen is designed to transfer wax to the head of fly
MATLAB Mathworks, Natick, MA, USA main program plus Image Acquisition, Image Analysis, and Instrument Control toolboxes. Programming language used to implement the algorithms

DOWNLOAD MATERIALS LIST

References

  1. Land, M. F., Nilsson, D. Animal Eyes. , Oxford University Press. (2012).
  2. Cronin, T. W., Johnsen, S., Marshall, N. J., Warrant, E. J. Visual Ecology. , Princeton University Press. (2014).
  3. Horridge, G. A. The separation of visual axes in apposition compound eyes. Philosophical Transactions of the Royal Society of London. Series B. 285 (1003), 1-59 (1978).
  4. Land, M. F., Eckert, H. Maps of the acute zones of fly eyes. Journal of Comparative Physiology. A. 156, 525-538 (1985).
  5. Warrant, E. J. The design of compound eyes and the illumination of natural habitats. Ecology of Sensing. Barth, F. G., Schmid, A. , Springer. Berlin. 187-213 (2001).
  6. Warrant, E. J., Kelber, A., Kristensen, N. P. Eyes and vision. In. Handbook of Zoology, Vol. IV, Part 36, Lepidoptera, Moths and Butterflies, Vol 2: Morphology, Physiology and Development. Kristensen, N. P. , Walter de Gruyter. Berlin New York. 325-359 (2003).
  7. Petrowitz, R., Dahmen, H., Egelhaaf, M., Krapp, H. G. Arrangement of optical axes and spatial resolution in the compound eye of the female blowfly Calliphora. Journal of Comparative Physiology. A. 186 (7-8), 737-746 (2000).
  8. Smolka, J., Hemmi, J. M. Topography of vision and behaviour. The Journal of Experimental Biology. 212, Pt 21 3522-3532 (2009).
  9. Krapp, H. G., Gabbiani, F. Spatial distribution of inputs and local receptive field properties of a wide-field, looming sensitive neuron. Journal of Neurophysiology. 93 (4), 2240-2253 (2005).
  10. Strausfeld, N. J. Arthropod Brains: Evolution, Functional Elegance, and Historical Significance. , Belknap Press of Harvard University Press. (2012).
  11. Jeong, K. H., Kim, J., Lee, L. P. Biologically inspired artificial compound eyes. Science. 312 (5773), 557-561 (2006).
  12. Davis, J., Barrett, S., Wright, C., Wilcox, M. A bio-inspired apposition compound eye machine vision sensor system. Bioinspiration & Biomimetics. 4 (4), 046002 (2009).
  13. Lee, G. J., Choi, C., Kim, D., Song, Y. M. Bioinspired artificial eyes: Optic components, digital cameras, and visual prostheses. Advanced Functional Materials. 28 (24), 1870168 (2018).
  14. Zhang, K., et al. Origami silicon optoelectronics for hemispherical electronic eye systems. Nature Communications. 8, 1782 (2017).
  15. Wang, M., et al. Subtle control on hierarchic reflow for the simple and massive fabrication of biomimetic compound eye arrays in polymers for imaging at a large field of view. Journal of Materials Chemistry. C. 4, 108-112 (2016).
  16. Floreano, D., et al. Miniature curved artificial compound eyes. Proceedings of the National Academy of Sciences of the United States of America. 110, 9267-9272 (2013).
  17. Song, Y. M., et al. Digital cameras with designs inspired by the arthropod eye. Nature. 497 (7447), 95-99 (2013).
  18. Douglass, J. K., Wehling, M. F. Rapid mapping of compound eye visual sampling parameters with FACETS, a highly automated wide-field goniometer. Journal of Comparative Physiology A. 202 (12), 839-851 (2016).
  19. Franceschini, N. Sampling of the visual environment by the compound eye of the fly: fundamentals and applications. Photoreceptor Optics. Snyder, A. W., Menzel, R. , Springer. Berlin, Heidelberg, New York. 98-125 (1975).
  20. Franceschini, N., Kirschfeld, K. The automatic control of the light flux in the compound eye of Diptera. Spectral, statistical, and dynamical properties of the mechanism. Biological Cybernetics. 21, 181-203 (1976).
  21. Stavenga, D. G. Pseudopupils of compound eyes. Handbook of Sensory Physiology, Vol VII/6A. Autrum, H. , Springer. Berlin-Heidelberg-New York. 357-439 (1979).
  22. Stavenga, D. G., Kruizinga, R., Leertouwer, H. L. Dioptrics of the facet lenses of male blowflies Calliphora and Chrysomia. Journal of Comparative Physiology A. 166, 365-371 (1990).
  23. Straw, A. D., Warrant, E. J., O'Carroll, D. C. A "bright zone" in male hoverfly (Eristalis tenax) eyes and associated faster motion detection and increased contrast sensitivity. The Journal of Experimental Biology. 209, 4339-4354 (2006).
  24. Stavenga, D. G. Reflections on colourful ommatidia of butterfly eyes. The Journal of Experimental Biology. 205, 1077-1085 (2002).
  25. Beersma, D. G. M., Stavenga, D. G., Kuiper, J. W. Organization of visual axes in the compound eye of the fly Musca domestica L. and behavioural consequences. Journal of Comparative Physiology. 102, 305-320 (1975).
  26. Taylor, G. J., et al. Bumblebee visual allometry results in locally improved resolution and globally improved sensitivity. eLife. 8, 40613 (2019).
  27. Rigosi, E., Warrant, E. J., O'Carroll, D. C. A new, fluorescence-based method for visualizing the pseudopupil and assessing optical acuity in the dark compound eyes of honeybees and other insects. Scientific Reports. 11, 21267 (2021).

Tags

Biologie Nummer 181
Geautomatiseerde in kaart brengen van de visuele ruimte van housefly compound eyes
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Muñoz Arias, M., Douglass, J.More

Muñoz Arias, M., Douglass, J. K., Wehling, M. F., Stavenga, D. G. Automated Charting of the Visual Space of Housefly Compound Eyes. J. Vis. Exp. (181), e63643, doi:10.3791/63643 (2022).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter