Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Biology

Cartographie automatisée de l’espace visuel des yeux composés de mouches domestiques

Published: March 31, 2022 doi: 10.3791/63643

Summary

Le protocole décrit ici la mesure de l’organisation spatiale des axes visuels des yeux des mouches domestiques, cartographiés par un dispositif automatique, en utilisant le phénomène pseudopieux et le mécanisme pupillaire des cellules photoréceptrices.

Abstract

Cet article décrit la mesure automatique de l’organisation spatiale des axes visuels des yeux composés d’insectes, qui se composent de plusieurs milliers d’unités visuelles appelées ommatidies. Chaque ommatidium échantillonne l’information optique à partir d’un petit angle solide, avec une sensibilité approximative distribuée par Gauss (demi-largeur de l’ordre de 1°) centrée autour d’un axe visuel. Ensemble, les ommatidies recueillent les informations visuelles à partir d’un champ de vision presque panoramique. La distribution spatiale des axes visuels détermine ainsi la résolution spatiale de l’œil. La connaissance de l’organisation optique d’un œil composé et de son acuité visuelle est cruciale pour les études quantitatives du traitement neuronal de l’information visuelle. Nous présentons ici une procédure automatisée pour cartographier les axes visuels d’un œil composé, en utilisant un phénomène optique intrinsèque in vivo , le pseudopôle, et le mécanisme pupillaire des cellules photoréceptrices. Nous décrivons la configuration optomécanique pour scanner les yeux des insectes et utilisons les résultats expérimentaux obtenus à partir d’une mouche domestique, Musca domestica, pour illustrer les étapes de la procédure de mesure.

Introduction

La compacité des systèmes visuels d’insectes et l’agilité de leurs propriétaires, démontrant un traitement de l’information visuelle très développé, ont intrigué des personnes de milieux scientifiques et non scientifiques. Les yeux composés d’insectes ont été reconnus comme de puissants dispositifs optiques permettant des capacités visuelles aiguës et polyvalentes 1,2. Les mouches, par exemple, sont bien connues pour leurs réponses rapides aux objets en mouvement, et les abeilles sont célèbres pour posséder une vision des couleurs et une vision de polarisation2.

Les yeux composés des arthropodes se composent de nombreuses unités anatomiquement similaires, les ommatidies, dont chacune est coiffée d’une lentille à facettes. Chez les diptères (mouches), l’assemblage de lentilles à facettes, connues collectivement sous le nom de cornée, se rapproche souvent d’un hémisphère. Chaque ommatidium échantillonne la lumière incidente à partir d’un petit angle solide avec une demi-largeur de l’ordre de 1°. Les ommatidies des deux yeux ensemble échantillonnent approximativement l’angle solide complet, mais les axes visuels des ommatidies ne sont pas répartis uniformément. Certaines zones oculaires ont une forte densité d’axes visuels, ce qui crée une région de haute acuité spatiale, familièrement appelée fovéa. La partie restante de l’œil a alors une résolution spatiale plus grossière 3,4,5,6,7,8,9.

Une analyse quantitative de l’organisation optique des yeux composés est cruciale pour des études détaillées du traitement neuronal de l’information visuelle. L’étude des réseaux neuronaux du cerveau d’un insecte10 nécessite souvent une connaissance de la distribution spatiale des axes ommatidiens. De plus, les yeux composés ont inspiré plusieurs innovations techniques. De nombreuses initiatives visant à produire des yeux artificiels bio-inspirés ont été construites sur des études quantitatives existantes d’yeux composés réels 11,12,13. Par exemple, un capteur à base de semi-conducteurs avec une résolution spatiale élevée a été conçu sur la base du modèle d’yeux composés d’insectes 11,14,15,16,17. Cependant, les dispositifs développés jusqu’à présent n’ont pas mis en œuvre les caractéristiques réelles des yeux d’insectes existants. Des représentations précises des yeux composés d’insectes et de leur organisation spatiale nécessiteront des données détaillées et fiables provenant des yeux naturels, qui ne sont pas largement disponibles.

La principale raison de la rareté des données est l’extrême pénibilité des procédures disponibles pour cartographier les caractéristiques spatiales des yeux. Cela a motivé les tentatives d’établir une procédure de cartographie oculaire plus automatisée. Lors d’une première tentative d’analyse automatisée des yeux composés d’insectes, Douglass et Wehling18 ont mis au point une procédure de balayage pour cartographier la taille des facettes dans la cornée et ont démontré sa faisabilité pour quelques espèces de mouches. Ici, nous étendons leur approche en développant des méthodes non seulement pour scanner les facettes de la cornée, mais aussi pour évaluer les axes visuels des ommatidies auxquelles appartiennent les facettes. Nous présentons le cas des yeux de mouche domestique pour illustrer les procédures impliquées.

La configuration expérimentale pour scanner les yeux des insectes est: partiellement optique, c’est-à-dire un microscope avec caméra et optique d’éclairage; partiellement mécanique, c’est-à-dire un système de goniomètre pour faire tourner l’insecte étudié; et partiellement informatique, c’est-à-dire l’utilisation de pilotes logiciels pour les instruments et les programmes d’exécution des mesures et des analyses. Les méthodes développées englobent une gamme de procédures de calcul, allant de la capture d’images, au choix des canaux de caméra et à la définition de seuils de traitement d’image à la reconnaissance des emplacements de facettes individuelles via des points lumineux de lumière réfléchis par leurs surfaces convexes. Les méthodes de transformation de Fourier étaient cruciales dans l’analyse d’images, à la fois pour détecter des facettes individuelles et pour analyser les modèles de facettes.

Le document est structuré comme suit. Nous introduisons d’abord la configuration expérimentale et le phénomène des pseudopieux - le marqueur optique utilisé pour identifier les axes visuels des photorécepteurs dans les yeux vivants 19,20,21. Par la suite, les algorithmes utilisés dans la procédure de numérisation et l’analyse d’images sont décrits.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Le protocole est conforme aux lignes directrices de l’Université en matière de soins aux insectes.

1. Préparation d’une mouche domestique, Musca domestica

  1. Recueillez la mouche dans la population élevée en laboratoire. Placez la mouche dans le porte-laiton (Figure 1).
    1. Couper à 6 mm de la partie supérieure du tube de retenue (voir Tableau des matériaux). La nouvelle partie supérieure du tube a un diamètre extérieur de 4 mm et un diamètre intérieur de 2,5 mm (Figure 1A). Placez la mouche vivante à l’intérieur du tube, scellez le tube avec du coton pour éviter d’endommager la mouche et poussez la mouche de telle sorte que la tête dépasse du tube et que son corps soit retenu (Figure 1B). Immobiliser la tête avec de la cire d’abeille de manière à ce que les yeux restent à découvert (Figure 1C-E).
    2. Coupez à nouveau le tube de telle sorte que la longueur du tube soit de 10 mm (Figure 1C). Placez le tube en plastique avec la mouche dans le support en laiton, de sorte qu’un œil de la mouche pointe vers le haut lorsque le support repose sur une table (Figure 1D, E).
  2. Ajustez l’orientation du tube de telle sorte qu’avec l’élévation du goniomètre à 0° (c’est-à-dire que l’étage azimutal est en position horizontale), le faisceau d’éclairage vertical du microscope soit perpendiculaire à la surface de l’œil dans une région centrale, entre le ventral et le dorsal, et entre les bords antérieur et postérieur de l’œil, de sorte que l’œil entier puisse être scanné dans la plage d’azimut et d’élévation autorisée par la configuration.

2. Alignement de l’axe azimutal rotatif du goniomètre avec l’axe optique du microscope

  1. Montez une broche d’alignement sur l’étage de rotation azimutal afin que la position x-y de la pointe puisse être ajustée pour coïncider avec l’axe azimutal sur l’étage motorisé. Lors de la visualisation avec le microscope, équipé d’un objectif 5x, concentrez-vous sur la pointe à l’aide du joystick de l’axe Z (Figure 2).
  2. Alignez le réglage x-y de l’axe azimutal avec l’axe optique du microscope et assurez-vous que les axes rotatifs d’élévation et d’azimut sont pré-alignés avec la broche centrée, à l’aide des joysticks des axes x et y.
  3. Manipulez les joysticks d’azimut et d’élévation pour vérifier si la broche est centrée par rapport aux deux degrés de liberté. Lorsqu’elle est bien centrée, la pointe de la broche reste approximativement dans la même position pendant les rotations d’azimut et d’élévation.

3. Alignement de l’œil de mouche avec les étages motorisés

  1. Avec l’étage d’élévation à 0°, montez la mouche et son support sur l’étage azimutal. Observez l’œil de la mouche avec le microscope.
  2. Avec la LED d’éclairage activée, ajustez la position horizontale de la mouche de sorte que le centre du pseudopieux soit aligné avec le microscope. Ajuster la position verticale de la mouche à l’aide de la vis rotative du support (Figure 1D), de sorte que le pseudopieux profond (DPP; Graphique 3) 19,20,21 est mis au point au niveau de l’axe d’élévation.
  3. Alignez le DPP par rapport aux axes d’azimut et d’élévation en le centrant dans le champ de vision (voir Figure 2). Utilisez les aimants collés au bas du porte-mouches pour l’apposer fermement sur une plaque de fer montée sur l’étage azimutal, tout en permettant des réglages manuels de glissement.
    1. Basculez la vue sur l’appareil photo numérique monté au microscope. Exécutez l’initialisation logicielle du système GRACE, qui inclut l’initialisation des contrôleurs de moteur et du contrôleur LED Arduino (Figure 4). Par conséquent, ouvrez MATLAB R2020a ou une version ultérieure. Exécutez le script MATLAB Initialize_All_Systems (fichier supplémentaire 1).
  4. Vérifiez si le pseudopêle de la mouche (Figure 3B,C) est au centre de l’image projetée sur l’écran de l’ordinateur.

4. Mise au point automatique et autocentrage

  1. Mettre l’accent sur le niveau du pseudopôle cornéen (CPP; Figure 3B) 19,20,21 manuellement à l’aide du joystick de l’axe z.
  2. Exécutez l’algorithme de mise au point automatique (fichier supplémentaire 1, script AF) pour obtenir une image nette au niveau de la cornée. Vérifiez en ramenant la mise au point au niveau DPP en ajustant l’étage motorisé de l’axe Z. Stockez la distance entre le DPP et le CPP (par étapes du moteur).
  3. Affinez le centrage du pseudopôle en exécutant l’algorithme de centrage automatique (fichier supplémentaire 1, script AC). Ramenez l’accent sur le RPC.
  4. Réexécutez l’algorithme de mise au point automatique. Mettez à zéro les étages motorisés à leur position actuelle (X,Y,Z,E,A) = (0,0,0,0,0), où E est élévation et A est azimut.
  5. Exécutez l’algorithme de numérisation (fichier supplémentaire 1, script Scan_Begin), qui échantillonne les images oculaires le long des trajectoires par étapes de 5°, tout en exécutant les algorithmes d’autocentrage et de mise au point automatique.
  6. À la fin de l’échantillonnage, éteignez le contrôleur LED et les contrôleurs de moteur.
  7. Traitez les images en appliquant les algorithmes de traitement d’image (fichier supplémentaire 1, script ImProcFacets).

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Animaux et stimulation optique
Les expériences sont réalisées sur des mouches domestiques (Musca domestica) obtenues à partir d’une culture maintenue par le Département de génétique évolutive de l’Université de Groningue. Avant les mesures, une mouche est immobilisée en la collant avec une cire à faible point de fusion dans un tube bien ajusté. La mouche est ensuite montée sur la scène d’un goniomètre motorisé. Le centre des deux étages rotatifs coïncide avec le point focal d’une configuration microscopique24. Le faisceau lumineux d’épi-éclairage est alimenté par une source lumineuse, qui concentre la lumière sur un diaphragme qui est imagé à l’œil de la mouche via un demi-miroir. Il active ainsi le mécanisme pupillaire d’un ensemble restreint de cellules photoréceptrices (Figure 3). Les axes optiques des ommatidies qui abritent ces photorécepteurs sont évalués en faisant pivoter la mouche par petits pas et en prenant des photos après chaque étape avec un appareil photo numérique couleur attaché à un microscope (Figure 2). Étant donné que les granules de pigment pupillaire réfléchissent principalement dans la gamme des longues longueurs d’onde, le canal rouge de l’appareil photo numérique est utilisé pour distinguer le pseudopôle des reflets de la lentille à facettes. Ces derniers reflets sont mieux isolés du pseudopêle à l’aide du canal bleu de la caméra.

Algorithmes de mise au point automatique et de centrage automatique
Les principaux algorithmes supplémentaires utilisés lors de la numérisation de l’œil d’un insecte sont l’autofocus et l’autocentrage (fichier supplémentaire 1, scripts AF et AC). L’objectif de l’autofocus est de mettre le niveau cornéen au centre de la caméra, afin de détecter les reflets de facettes nécessaires à l’identification des ommatidies individuelles (Figure 3B). La procédure de détection du niveau cornéen consiste à modifier la position verticale (Z) de la mouche par étapes en appliquant la transformée de Fourier rapide (FFT) à l’image prise à chaque niveau pour déterminer le contenu de la fréquence spatiale. Le critère de mise au point optimale est le niveau avec la plus grande puissance totale au-dessus d’une coupure basse fréquence.

Les entrées pour la mise au point automatique sont les positions Z et la vidéo en streaming de l’appareil photo. Les sorties font partie intégrante du contenu haute fréquence de l’image SF et du niveau de mise au point Z où SF est maximal. Dans la première étape, la position Z de l’image de l’appareil photo est ajustée légèrement en dessous des lentilles à facettes cornéennes, et la région d’intérêt pour déterminer le contenu en fréquence de l’image est définie. La boucle for démarre la capture d’image et calcule la somme de la SF de la transformée de Fourier filtrée passe-haut. En faisant ensuite monter le moteur de l’axe Z vers un niveau d’image au-dessus de la cornée, on trouve le niveau avec les fréquences les plus élevées, c’est-à-dire où SF est maximal, ce qui est considéré comme le niveau cornéen. Le moteur de l’axe Z est ensuite ajusté à ce niveau et une image est prise.

Lors de la mise au point vers le bas de la cornée vers le niveau du centre de courbure de l’œil, les reflets de la facette cornéenne s’estompent et les réflexions du pseudoppile fusionnent en un motif typique à sept points, ce qui est une caractéristique de l’organisation des photorécepteurs au sein de l’ommatidie de la mouche (Figure 3C; notez que le motif n’est distinct que dans les zones oculaires approximativement sphériques). Le motif au centre de la courbure de l’œil est appelé pseudopil profond (DPP)19,21.

Le déplacement de la mouche positionnée sur la scène avec les moteurs X et Y de sorte que le centre du point lumineux coïncide avec le centre de l’image de la caméra est appelé autocentrage. Cette procédure aligne la facette de l’ommatidium dont l’axe visuel est au centre du DPP avec le faisceau d’éclairage et l’axe optique du microscope et de la caméra. L’image est filtrée et binarisée gaussienne, puis le centre du pseudopêle est déterminé à l’aide de la fonction MATLAB regionprops . Les entrées sont les positions des moteurs X et Y et la vidéo en streaming de la caméra; la sortie est la distance entre les centres d’image et de pseudopieux, qui est ensuite traduite en un décalage d’étape.

Corrélation des images
L’œil est scanné en prenant et en stockant des photographies à différentes valeurs de l’élévation du goniomètre θ et de l’azimut φ après les procédures de mise au point automatique et d’autocentrage. La corrélation bidimensionnelle est utilisée pour déterminer les décalages x-y entre les images successives. Pour corréler les images obtenues à différentes positions angulaires, il est essentiel de réaliser que cela se traduit généralement par une rotation de l’image actuelle par rapport à l’image précédente. Par exemple, supposons que le centre d’une image initiale correspond au point C d’une sphère (Figure 5) et qu’un changement d’azimut se produit de sorte que le carnet d’adresses en mode hors connexion plane est tourné sur un petit angle Δφ, devenant le plan OA’B. Le centre de l’image passe ensuite du point C au point C'(Figure 5). Si le plan d’image de la caméra est perpendiculaire au vecteur OC, la rotation du plan OAB vers OA’B provoque la rotation de l’image sur un angle β = Δφ cosθ, comme β = CC'⁄BC, avec CC' = CDΔφ et cosθ = CD⁄BC (Figure 5). Cela signifie qu’au sommet de la sphère (θ = 0°), β = Δφ, et à l’équateur (θ = 90°), β = 0°. Lorsque Δφ = 0°, c’est-à-dire lorsque seule l’élévation θ est modifiée, les images ne sont pas tournées les unes par rapport aux autres, donc β = 0°.

Pendant la procédure de numérisation, la procédure d’autocentrage centre l’ommatidium dont l’axe visuel est aligné avec l’axe optique du système de mesure. La rotation de l’azimut provoque une rotation par un angle β et une translation du motif de facette. Pour déterminer ce dernier décalage, deux images successives sont corrélées (après avoir d’abord fait pivoter la première image par l’angle de rotation β), comme expliqué à la figure 6.

Dans l’algorithme de décalage d’image (fichier supplémentaire 1, script ImProcFacets), les facettes individuelles sont identifiées par les centroïdes de leurs réflexions dans chaque image. Les entrées de l’algorithme sont l’élévation et l’angle d’azimut, l’ensemble des images à évaluer, le canal d’image et la région d’intérêt. L’algorithme produit un ensemble de centroïdes et une image finale qui contient toutes les images corrélées prises au cours de la procédure de numérisation.

Le système goniométrique
Afin d’obtenir un alignement avec l’éclairage, l’œil de la mouche doit être photographié avec les lentilles à facette cornéenne au point, et le pseudoppile doit être recentré fréquemment (ici, après chaque 5° de rotation). Ce processus automatique est réalisé avec le système GRACE (Goniometric Research Apparatus for Compound Eyes), représenté schématiquement sur la figure 4. Il se compose de trois sous-systèmes principaux: les étages inférieur et supérieur avec leur électronique respective comme matériel électromécanique, le micrologiciel intégré dans les contrôleurs physiques et le PC utilisé pour faire fonctionner le logiciel qui implémente les algorithmes. Le matériel se compose des étages motorisés et optiques, de la caméra numérique, d’un microcontrôleur pour la programmation des intensités LED et d’une source de lumière LED blanche. Les routines du micrologiciel sont fournies avec les contrôleurs de moteur, le contrôleur LED et dans l’appareil photo numérique. Le logiciel se compose d’algorithmes permettant de contrôler les positions et les vitesses du moteur, d’ajuster la LED et d’acquérir et d’analyser des images. Les algorithmes discutés ci-dessous représentent les principales étapes qui permettent au système GRACE de scanner les yeux des insectes.

Yeux de mouche et pseudopieux
Lorsqu’un œil de mouche domestique est éclairé, la lumière incidente active le mécanisme de pupille des cellules photoréceptrices, un système de granules pigmentaires mobiles de couleur jaune à l’intérieur du corps cellulaire. Le système contrôle le flux lumineux qui déclenche le processus de phototransduction des photorécepteurs, et a donc essentiellement la même fonction que la pupille dans l’œil humain19,20. L’activation du mécanisme de la pupille provoque une réflexion localement améliorée dans la région des yeux face à l’ouverture de l’objectif du microscope (Figure 3). La position de la zone oculaire réfléchissante, le pseudoppile 19,20,21, change lors de la rotation de l’œil parce que la lumière incidente active alors le mécanisme de la pupille dans un ensemble différent de cellules photoréceptrices (voir la figure 6). Le pseudopupile agit ainsi comme un marqueur de l’axe visuel des ommatidies qui sont alignées avec le microscope. Cela permet de cartographier la distribution spatiale des axes visuels de l’œil 4,20,21,22,23.

Remplir les facettes manquantes
Toutes les facettes ne sont pas identifiées par la procédure centroïde, par exemple, en raison d’une faible réflectance locale causée par des irrégularités de surface mineures ou des taches de poussière. Ce dernier peut également entraîner des centroïdes erronés (Figure 7A). Ce problème est résolu d’abord en se lavant les yeux sous un robinet d’eau et ensuite en appliquant une procédure de remplissage (script ImProcFacets). Par conséquent, les centroïdes d’une zone sont d’abord déterminés (figure 7A), puis la FFT est calculée (figure 7B). Le premier anneau d’harmoniques (étoiles jaunes sur la figure 7B) définit trois orientations, indiquées par les lignes bleues, rouges et vertes (figure 7B). La transformation inverse des harmoniques le long des trois orientations donne les bandes grises de la figure 7C-E. L’ajustement d’un polynôme de second ordre aux bandes grises donne des lignes reliant les centroïdes à facettes le long des trois axes du réseau. Les points de croisement des lignes de treillis correspondent donc aux véritables centres de facettes. Comme l’exemple de la figure 7 est un cas extrême, il démontre que la procédure est robuste. Dans la plupart des régions, les facettes manquantes et les centroïdes erronés sont rares.

Scanner un œil de mouche
La figure 8 montre une bande d’ommatidies scannées à travers l’œil en effectuant une série de changements azimutaux par étapes avec Δφ = 5°. Le balayage du côté frontal de l’œil (Figure 8A, à droite) vers le côté latéral (Figure 8A, gauche) s’est produit en 24 étapes. Les centroïdes des motifs de facettes qui se chevauchent largement ont ensuite été tournés par β = Δφcosθ. Ensuite, après avoir déplacé les centroïdes de chaque image et rempli les facettes manquantes (avec le script ImProcFacets), les centroïdes colocalisés ont été moyennés. La figure 8A montre les images combinées, ainsi que les centres d’image et les centroïdes à facettes. La figure 8B montre l’assemblage des facettes sous la forme d’un diagramme de Voronoi.

Figure 1
Figure 1 : Montage de la mouche dans le support en laiton. (A) Une pointe avec une mouche domestique à étudier. (B) La pointe coupée avec la mouche doucement poussée jusqu’à l’extrémité à l’aide d’un morceau de coton et d’une baguette. (C) La pointe avec la mouche coupée jusqu’à une longueur totale de 10 mm. (D) Le support en laiton avec la mouche à placer sur l’étage du goniomètre; la flèche pointe vers la vis de réglage en hauteur. (E) Photo en gros plan de la mouche avec la tête immobilisée par un morceau de cire fondante à basse température (#) à la pointe (*). L’épi-illumination a activé le mécanisme pupillaire des photorécepteurs de l’œil, comme l’a révélé le pseudopôle jaune. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 2
Figure 2 : GRACE, l’appareil de recherche goniométrique pour les yeux composés. L’insecte étudié (une mouche) est monté à l’étage motorisé composé de trois étages de translation (X, Y, Z) et de deux étages de rotation (élévation et azimut). Une lentille focalise la lumière d’une LED blanche sur un diaphragme, focalisée via un demi-miroir à l’œil de la mouche. L’œil est photographié avec un appareil photo attaché à un microscope. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 3
Figure 3: Optique des yeux de mouche. (A) Diagramme de trois ommatidies d’un œil de mouche, chacune coiffée d’une lentille à facettes biconvexes, qui concentre la lumière incidente sur un ensemble de cellules photoréceptrices (jaunes), entourées de cellules pigmentaires primaires (brunes) et secondaires (rouges). L’éclairage intense des photorécepteurs adaptés à l’obscurité (DA) provoque la migration des granules de pigments jaunes (indiqués par des points noirs), qui existent à l’intérieur des cellules photoréceptrices. Accumulés vers l’extrémité des photorécepteurs, près des organites sensibles à la lumière, les rhabdomeres, ils absorbent et rétrodiffusent la lumière à l’état adapté à la lumière (LA). (B) Image au niveau de la surface de l’œil, montrant les reflets des facettes (points lumineux) ainsi que la réflexion des granules pigmentaires à l’état activé (le pseudopôle cornéen, CPP). (C) Image prise au niveau du centre de courbure de l’œil (le pseudopieux profond, DPP), reflétant la disposition des cellules photoréceptrices dans un motif trapézoïdal, avec leurs extrémités distales positionnées à environ le plan focal des lentilles à facettes. Une image virtuelle superposée des pointes des photorécepteurs existe donc dans le plan du centre de courbure de l’œil. La barre d’échelle 100 μm s’applique aux panneaux B et C. Veuillez cliquer ici pour voir une version plus grande de cette figure.

Figure 4
Figure 4 : Schéma du système GRACE. Le logiciel PC contrôle le firmware, qui pilote le matériel électromécanique. L’appareil photo numérique prend, via une scène optique, des images de l’œil du spécimen. La source lumineuse LED éclaire l’échantillon et les moteurs de l’étage motorisé actionnent les translations X, Y et Z ainsi que les rotations azimutale (A) et élévation (E). Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 5
Figure 5 : Diagramme permettant de dériver la rotation de l’image lors de la numérisation de l’œil de mouche. Si le centre d’une image initiale correspond au point C d’une sphère et qu’un changement d’azimut se produit, le plan OAB est tourné sur un petit angle Δφ, devenant le plan OA’B. Le centre de l’image passe alors du point C au point C'. La rotation du carnet d’adresses en mode hors connexion plane vers OA’B entraîne la rotation de l’image sur un angle β = Δφ cosθ (voir texte, section Images corrélées). Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 6
Figure 6 : Procédure de traitement d’image pour déterminer l’angle interommatidien. (A) Image prise lors d’un balayage à travers l’œil, avec des centroïdes à facettes marqués par des cercles verts et des carrés rouges, et un point vert au centre de l’image. (B) Image suivante après une rotation azimutale de 5°, avec des centroïdes à facettes marqués par des carrés rouges et un point rouge au centre de l’image. (C) Corrélogramme de la zone à l’intérieur du carré vert de A corrélé avec l’image B. Le vecteur du centre de C (point vert) à la valeur maximale du corrélogramme représente le décalage relatif des images A et B. En utilisant ce vecteur, le carré décalé de A et son centre sont dessinés en B et les centroïdes à facettes (carrés rouges) de B sont ajoutés en A. La barre d’échelle 100 μm s’applique aux panneaux A-C. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 7
Figure 7 : Dérivation des centroïdes de facettes manquants en appliquant des transformées de Fourier. (A) Image RVB locale avec des centroïdes de facettes (points rouges). Les pointes de flèches blanches indiquent les facettes manquantes, et la pointe de flèche rouge pointe vers un centroïde erroné. (B) FFT des centroïdes de A avec le premier anneau d’harmoniques marqué par des étoiles jaunes. (C-E) FFT inverse des centroïdes le long des trois directions indiquées par les lignes colorées en B, donnant les bandes grisâtres. Les lignes bleues (C), rouges (D) et vertes (E) sont des polynômes quadratiques adaptés aux bandes grises, et les centroïdes (cercles rouges) sont ceux qui ont été obtenus avant les transformées de Fourier. (F) Les lignes ajustées de C-E combinées, ainsi que les centroïdes de A. Les centroïdes à facettes manquants sont ensuite dérivés des points de passage. La barre d’échelle 100 μm s’applique aux panneaux A, C-F. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 8
Figure 8 : L’œil droit d’une mouche domestique scannée d’un côté à l’autre. (A) Images combinées, superposées d’une série d’images dans laquelle l’azimut a été modifié progressivement de 5°, ainsi que les centres de l’image (croix vertes) et les centroïdes à facettes (cercles rouges). (B) Diagramme de Voronoi des centroïdes à facettes, avec les centres d’image comme dans A. La barre d’échelle 100 μm s’applique aux panneaux A et B. Veuillez cliquer ici pour voir une version plus grande de cette figure.

Dossier supplémentaire 1 : Veuillez cliquer ici pour télécharger ce fichier.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

La distribution spatiale des axes visuels des yeux de mouche domestique peut être cartographiée à l’aide du phénomène pseudopieux des yeux composés et des changements de réflexion causés par le mécanisme de pupille dépendant de la lumière. Par conséquent, une mouche étudiée est montée dans un système goniométrique, ce qui permet d’inspecter le motif de facettes locales avec une configuration de microscope équipée d’un appareil photo numérique, le tout sous contrôle informatique. L’analyse d’images produit des cartes oculaires. Une difficulté essentielle rencontrée est que sans un positionnement soigneux de l’œil au début des mesures, les positions vues de l’œil et du pseudopieux peuvent changer considérablement même avec de petites rotations du dispositif goniométrique. Ces changements sont minimisés en positionnant le centre de l’œil au centre de rotation goniométrique, où le pseudopoche profond est observé. En corrélant les images mesurées par la suite, le motif de facettes peut être suivi. Il est important de noter que l’angle de rotation doit être ajusté à une valeur plutôt faible car dans les zones où le motif de facettes est très régulier, la procédure de corrélation est sujette à des résultats erronés.

Ici, nous avons présenté une carte oculaire partielle (Figure 8), qui démontre la faisabilité d’une cartographie hautement automatisée de l’acuité visuelle dans les yeux des insectes. Les angles interommatidiens d’environ 2,0°-2,5°, évidents en comparant les espacements des facettes aux décalages de 5° entre les centres d’image successifs, correspondent bien aux données qui ont été précédemment dérivées, de manière beaucoup plus laborieuse, de la même espèce (Musca domestica)25. Des cartes oculaires complètes de l’espace visuel des mouches domestiques et autres insectes seront publiées ailleurs.

La méthode présentée ici permet de cartographier les axes visuels d’un œil complet, in vivo, en quelques heures seulement, ce qui sera extrêmement difficile à réaliser avec d’autres approches. La méthode de cartographie automatisée est illustrée ici pour le cas de la mouche domestique, mais elle peut être simplement étendue aux yeux composés d’autres insectes, tels que les papillons. Cependant, au lieu de la réflexion pupillaire, l’œil du papillon sert alors de marqueur d’axe visuel21,24. Une méthode alternative est la microtomographie à rayons X26 récemment développée. Cette approche précieuse donne des cartes anatomiques détaillées, mais est vulnérable aux erreurs optiques, en particulier lorsque les axes visuels des ommatidies sont biaisés à la surface de l’œil21, ou si le traitement des tissus déforme suffisamment la géométrie de l’œil pour compromettre les mesures. La visualisation du pseudopêle est plus ou moins simple dans les yeux des mouches qui ont un mécanisme de pupille brillant. C’est moins facile dans les yeux composés avec un mécanisme de pupille mal réfléchissant, comme, par exemple, chez les abeilles21. Pourtant, pour de nombreuses autres espèces d’insectes, telles que les mouches soldats ou les abeilles, la fluorescence des pigments visuels dans les rhabdoms ommatidiens peut être utilisée. L’application de fluorophores qui créent une forte fluorescence rhabdom offre une autre occasion d’estimer l’organisation spatiale de l’espace visuel de l’œil27.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Les auteurs n’ont aucun conflit d’intérêts à signaler.

Acknowledgments

Cette étude a été soutenue financièrement par l’Air Force Office of Scientific Research/European Office of Aerospace Research and Development AFOSR/EOARD (subvention FA9550-15-1-0068, à D.G.S.). Nous remercions le Dr Primož Pirih pour ses nombreuses discussions utiles et Kehan Satu, Hein Leertouwer et Oscar Rincón Cardeño pour leur aide.

Materials

Name Company Catalog Number Comments
Digital Camera PointGrey BFLY-U3-23S6C-C Acquision of amplified images and digital communication with PC
High power star LED Velleman LH3WW Light source for observation and imaging the compound eye
Holder for the investigated fly University of Groningen Different designs were manufactured by the university workshop
Linear motor ELERO ELERO Junior 1, version C Actuates the upper microscope up and down. (Load 300N, Stroke speed 15mm/s, nominal current 1.2A)
Low temperature melting wax various The low-temperature melting point wax serves to immobilize the fly and fix it to the holder
Microscope Zeiss Any alternative microscope brand will do; the preferred objective is a 5x
Motor and LED Controller University of Groningen Z-o1 Designed and built by the University of Groningen and based on Arduino and Adafruit technologies.
Motorized Stage Standa (Vilnius, Lithuania) 8MT175-50XYZ-8MR191-28 A 6 axis motorized stage modified to have 5 degrees of freedom.
Optical components LINUS Several diagrams and lenses forming an epi-illumination system (see Stavenga, Journal of Experimental Biology 205, 1077-1085, 2002)
PC running MATLAB University of Groningen The PC is able to process the images of the PointGrey camera, control the LED intensity, and send control commants to the motor cotrollers of the system
Power Supply (36V, 3.34A) Standa (Vilnius, Lithuania) PUP120-17 Dedicated power supply for the STANDA motor controllers
Soldering iron various Used for melting the wax
Stepper and DC Motor Controller Standa (Vilnius, Lithuania) 8SMC4-USB-B9-B9 Dedicated controllers for the STANDA motorized stage capable of communicating with MATLAB
Finntip-61 Finnpipette Ky, Helsinki FINNTIP-61, 200-1000μL PIPETTE TIPS FOR FINNPIPETTES, 400/BOX. It is used to restrain the fly
Carving Pen Shaping/Thread Burning Tool Max Wax The tip of the carving pen is designed to transfer wax to the head of fly
MATLAB Mathworks, Natick, MA, USA main program plus Image Acquisition, Image Analysis, and Instrument Control toolboxes. Programming language used to implement the algorithms

DOWNLOAD MATERIALS LIST

References

  1. Land, M. F., Nilsson, D. Animal Eyes. , Oxford University Press. (2012).
  2. Cronin, T. W., Johnsen, S., Marshall, N. J., Warrant, E. J. Visual Ecology. , Princeton University Press. (2014).
  3. Horridge, G. A. The separation of visual axes in apposition compound eyes. Philosophical Transactions of the Royal Society of London. Series B. 285 (1003), 1-59 (1978).
  4. Land, M. F., Eckert, H. Maps of the acute zones of fly eyes. Journal of Comparative Physiology. A. 156, 525-538 (1985).
  5. Warrant, E. J. The design of compound eyes and the illumination of natural habitats. Ecology of Sensing. Barth, F. G., Schmid, A. , Springer. Berlin. 187-213 (2001).
  6. Warrant, E. J., Kelber, A., Kristensen, N. P. Eyes and vision. In. Handbook of Zoology, Vol. IV, Part 36, Lepidoptera, Moths and Butterflies, Vol 2: Morphology, Physiology and Development. Kristensen, N. P. , Walter de Gruyter. Berlin New York. 325-359 (2003).
  7. Petrowitz, R., Dahmen, H., Egelhaaf, M., Krapp, H. G. Arrangement of optical axes and spatial resolution in the compound eye of the female blowfly Calliphora. Journal of Comparative Physiology. A. 186 (7-8), 737-746 (2000).
  8. Smolka, J., Hemmi, J. M. Topography of vision and behaviour. The Journal of Experimental Biology. 212, Pt 21 3522-3532 (2009).
  9. Krapp, H. G., Gabbiani, F. Spatial distribution of inputs and local receptive field properties of a wide-field, looming sensitive neuron. Journal of Neurophysiology. 93 (4), 2240-2253 (2005).
  10. Strausfeld, N. J. Arthropod Brains: Evolution, Functional Elegance, and Historical Significance. , Belknap Press of Harvard University Press. (2012).
  11. Jeong, K. H., Kim, J., Lee, L. P. Biologically inspired artificial compound eyes. Science. 312 (5773), 557-561 (2006).
  12. Davis, J., Barrett, S., Wright, C., Wilcox, M. A bio-inspired apposition compound eye machine vision sensor system. Bioinspiration & Biomimetics. 4 (4), 046002 (2009).
  13. Lee, G. J., Choi, C., Kim, D., Song, Y. M. Bioinspired artificial eyes: Optic components, digital cameras, and visual prostheses. Advanced Functional Materials. 28 (24), 1870168 (2018).
  14. Zhang, K., et al. Origami silicon optoelectronics for hemispherical electronic eye systems. Nature Communications. 8, 1782 (2017).
  15. Wang, M., et al. Subtle control on hierarchic reflow for the simple and massive fabrication of biomimetic compound eye arrays in polymers for imaging at a large field of view. Journal of Materials Chemistry. C. 4, 108-112 (2016).
  16. Floreano, D., et al. Miniature curved artificial compound eyes. Proceedings of the National Academy of Sciences of the United States of America. 110, 9267-9272 (2013).
  17. Song, Y. M., et al. Digital cameras with designs inspired by the arthropod eye. Nature. 497 (7447), 95-99 (2013).
  18. Douglass, J. K., Wehling, M. F. Rapid mapping of compound eye visual sampling parameters with FACETS, a highly automated wide-field goniometer. Journal of Comparative Physiology A. 202 (12), 839-851 (2016).
  19. Franceschini, N. Sampling of the visual environment by the compound eye of the fly: fundamentals and applications. Photoreceptor Optics. Snyder, A. W., Menzel, R. , Springer. Berlin, Heidelberg, New York. 98-125 (1975).
  20. Franceschini, N., Kirschfeld, K. The automatic control of the light flux in the compound eye of Diptera. Spectral, statistical, and dynamical properties of the mechanism. Biological Cybernetics. 21, 181-203 (1976).
  21. Stavenga, D. G. Pseudopupils of compound eyes. Handbook of Sensory Physiology, Vol VII/6A. Autrum, H. , Springer. Berlin-Heidelberg-New York. 357-439 (1979).
  22. Stavenga, D. G., Kruizinga, R., Leertouwer, H. L. Dioptrics of the facet lenses of male blowflies Calliphora and Chrysomia. Journal of Comparative Physiology A. 166, 365-371 (1990).
  23. Straw, A. D., Warrant, E. J., O'Carroll, D. C. A "bright zone" in male hoverfly (Eristalis tenax) eyes and associated faster motion detection and increased contrast sensitivity. The Journal of Experimental Biology. 209, 4339-4354 (2006).
  24. Stavenga, D. G. Reflections on colourful ommatidia of butterfly eyes. The Journal of Experimental Biology. 205, 1077-1085 (2002).
  25. Beersma, D. G. M., Stavenga, D. G., Kuiper, J. W. Organization of visual axes in the compound eye of the fly Musca domestica L. and behavioural consequences. Journal of Comparative Physiology. 102, 305-320 (1975).
  26. Taylor, G. J., et al. Bumblebee visual allometry results in locally improved resolution and globally improved sensitivity. eLife. 8, 40613 (2019).
  27. Rigosi, E., Warrant, E. J., O'Carroll, D. C. A new, fluorescence-based method for visualizing the pseudopupil and assessing optical acuity in the dark compound eyes of honeybees and other insects. Scientific Reports. 11, 21267 (2021).

Tags

Biologie numéro 181
Cartographie automatisée de l’espace visuel des yeux composés de mouches domestiques
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Muñoz Arias, M., Douglass, J.More

Muñoz Arias, M., Douglass, J. K., Wehling, M. F., Stavenga, D. G. Automated Charting of the Visual Space of Housefly Compound Eyes. J. Vis. Exp. (181), e63643, doi:10.3791/63643 (2022).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter