Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Biology

Cartografía automatizada del espacio visual de los ojos compuestos de la mosca doméstica

Published: March 31, 2022 doi: 10.3791/63643

Summary

El protocolo aquí describe la medición de la organización espacial de los ejes visuales de los ojos de las moscas domésticas, mapeados por un dispositivo automático, utilizando el fenómeno pseudopupil y el mecanismo de la pupila de las células fotorreceptoras.

Abstract

Este artículo describe la medición automática de la organización espacial de los ejes visuales de los ojos compuestos de insectos, que consisten en varios miles de unidades visuales llamadas ommatidia. Cada ommatidio toma muestras de la información óptica desde un pequeño ángulo sólido, con una sensibilidad distribuida gaussiana aproximada (medio ancho del orden de 1°) centrada alrededor de un eje visual. Juntos, los ommatidios recopilan la información visual de un campo de visión casi panorámico. La distribución espacial de los ejes visuales determina así la resolución espacial del ojo. El conocimiento de la organización óptica de un ojo compuesto y su agudeza visual es crucial para los estudios cuantitativos del procesamiento neuronal de la información visual. Aquí presentamos un procedimiento automatizado para mapear los ejes visuales de un ojo compuesto, utilizando un fenómeno óptico intrínseco e in vivo , el pseudopúpilo y el mecanismo de la pupila de las células fotorreceptoras. Describimos la configuración optomecánica para escanear ojos de insectos y utilizamos los resultados experimentales obtenidos de una mosca doméstica, Musca domestica, para ilustrar los pasos en el procedimiento de medición.

Introduction

La compacidad de los sistemas visuales de insectos y la agilidad de sus propietarios, que demuestran un procesamiento de información visual altamente desarrollado, han intrigado a personas de orígenes científicos y no científicos. Los ojos compuestos de insectos han sido reconocidos como potentes dispositivos ópticos que permiten capacidades visuales agudas y versátiles 1,2. Las moscas, por ejemplo, son bien conocidas por sus respuestas rápidas a los objetos en movimiento, y las abejas son famosas por poseer visión del color y visión de polarización2.

Los ojos compuestos de los artrópodos consisten en numerosas unidades anatómicamente similares, los ommatidios, cada uno de los cuales está cubierto por una lente facetaria. En Diptera (moscas), el ensamblaje de lentes facetarias, conocidas colectivamente como la córnea, a menudo se aproxima a un hemisferio. Cada ommatidium toma muestras de luz incidente desde un pequeño ángulo sólido con medio ancho del orden de 1°. Los ommatidios de los dos ojos juntos muestran aproximadamente el ángulo sólido completo, pero los ejes visuales de los ommatidios no están distribuidos uniformemente. Ciertas áreas oculares tienen una alta densidad de ejes visuales, lo que crea una región de alta agudeza espacial, coloquialmente llamada fóvea. La parte restante del ojo tiene entonces una resolución espacial más gruesa 3,4,5,6,7,8,9.

Un análisis cuantitativo de la organización óptica de los ojos compuestos es crucial para estudios detallados del procesamiento neuronal de la información visual. Los estudios de las redes neuronales del cerebro de un insecto10 a menudo requieren el conocimiento de la distribución espacial de los ejes ommatídicos. Además, los ojos compuestos han inspirado varias innovaciones técnicas. Muchas iniciativas para producir ojos artificiales bioinspirados se han basado en estudios cuantitativos existentes de ojos compuestos reales 11,12,13. Por ejemplo, se diseñó un sensor basado en semiconductores con alta resolución espacial basado en el modelo de ojos compuestos de insectos 11,14,15,16,17. Sin embargo, los dispositivos desarrollados hasta ahora no han implementado las características reales de los ojos de insectos existentes. Las representaciones precisas de los ojos compuestos de insectos y su organización espacial requerirán datos detallados y confiables de los ojos naturales, que no están ampliamente disponibles.

La razón principal de la escasez de datos es la extrema tediosidad de los procedimientos disponibles para trazar las características espaciales de los ojos. Esto ha motivado los intentos de establecer un procedimiento de mapeo ocular más automatizado. En un primer intento de análisis automatizados de ojos compuestos de insectos, Douglass y Wehling18 desarrollaron un procedimiento de escaneo para mapear los tamaños de las facetas en la córnea y demostraron su viabilidad para algunas especies de moscas. Aquí ampliamos su enfoque desarrollando métodos no solo para escanear las facetas de la córnea, sino también para evaluar los ejes visuales de los ommatidios a los que pertenecen las facetas. Presentamos el caso de los ojos de mosca doméstica para ejemplificar los procedimientos involucrados.

La configuración experimental para escanear los ojos de los insectos es: parcialmente óptica, es decir, un microscopio con cámara y óptica de iluminación; parcialmente mecánico, es decir, un sistema de goniómetro para rotar el insecto investigado; y parcialmente computacional, es decir, el uso de controladores de software para los instrumentos y programas para ejecutar mediciones y análisis. Los métodos desarrollados abarcan una variedad de procedimientos computacionales, desde la captura de imágenes, la elección de canales de cámara y el establecimiento de umbrales de procesamiento de imágenes hasta el reconocimiento de ubicaciones de facetas individuales a través de puntos brillantes de luz reflejados desde sus superficies convexas. Los métodos de transformada de Fourier fueron cruciales en el análisis de imágenes, tanto para detectar facetas individuales como para analizar los patrones de facetas.

El documento está estructurado de la siguiente manera. Primero presentamos la configuración experimental y el fenómeno pseudopupil, el marcador óptico utilizado para identificar los ejes visuales de los fotorreceptores en ojos vivos 19,20,21. Posteriormente, se describen los algoritmos utilizados en el procedimiento de escaneo y análisis de imágenes.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

El protocolo está de acuerdo con las pautas de cuidado de insectos de la Universidad.

1. Preparación de una mosca doméstica, Musca domestica

  1. Recoger la mosca de la población criada en laboratorio. Coloque la mosca en el soporte de latón (Figura 1).
    1. Corte 6 mm de la parte superior del tubo de sujeción (ver Tabla de Materiales). La nueva parte superior del tubo tiene un diámetro externo de 4 mm y un diámetro interno de 2,5 mm (Figura 1A). Coloque la mosca viva dentro del tubo, selle el tubo con algodón para evitar dañar la mosca y empuje la mosca de tal manera que la cabeza sobresalga del tubo y su cuerpo esté restringido (Figura 1B). Inmovilizar la cabeza con cera de abeja de tal manera que los ojos permanezcan descubiertos (Figura 1C-E).
    2. Vuelva a cortar el tubo de tal manera que la longitud del tubo sea de 10 mm (Figura 1C). Coloque el tubo de plástico con la mosca en el soporte de latón, de modo que un ojo de la mosca apunte hacia arriba cuando el soporte esté apoyado en una mesa (Figura 1D, E).
  2. Ajuste la orientación del tubo de tal manera que con la elevación del goniómetro a 0 ° (es decir, la etapa azimutal está en posición horizontal), el haz de iluminación vertical del microscopio sea perpendicular a la superficie del ojo en una región central, entre ventral y dorsal, y entre los bordes anterior y posterior del ojo, de modo que todo el ojo pueda escanearse dentro del rango de acimut y elevación permitido por la configuración.

2. Alineación del eje azimutal giratorio del goniómetro con el eje óptico del microscopio

  1. Monte un pasador de alineación en la etapa de rotación azimutal para que la posición x-y de la punta se pueda ajustar para que coincida con el eje azimutal en la etapa motorizada. Mientras visualiza con el microscopio, equipado con un objetivo 5x, concéntrese en la punta utilizando el joystick del eje Z (Figura 2).
  2. Alinee el ajuste x-y del eje azimutal con el eje óptico del microscopio y asegúrese de que los ejes rotativos de elevación y acimut estén prealineados con el pasador centrado, utilizando los joysticks de los ejes x e y.
  3. Manipula los joysticks de acimut y elevación para comprobar si el pin está centrado con respecto a ambos grados de libertad. Cuando está bien centrada, la punta del pasador permanece, aproximadamente, en la misma posición durante las rotaciones de acimut y elevación.

3. Alineación del ojo de mosca con las etapas motorizadas

  1. Con la etapa de elevación a 0°, monte la mosca y su soporte en la etapa azimutal. Observa el ojo de la mosca con el microscopio.
  2. Con el LED de iluminación encendido, ajuste la posición horizontal de la mosca para que el centro del pseudopúplo esté alineado con el microscopio. Ajuste la posición vertical de la mosca utilizando el tornillo giratorio del soporte (Figura 1D), de modo que el pseudopúplo profundo (DPP; Figura 3) 19,20,21 se enfoca en el nivel del eje de elevación.
  3. Alinee el DPP con respecto a los ejes de acimut y elevación centrándolo en el campo de visión (ver Figura 2). Use los imanes pegados a la parte inferior del soporte de la mosca para fijarlo firmemente a una placa de hierro montada en la etapa de acimut, al tiempo que permite ajustes de deslizamiento manuales.
    1. Cambie la vista a la cámara digital montada en el microscopio. Ejecute la inicialización de software del sistema GRACE, que incluye la inicialización de los controladores del motor y el controlador LED Arduino (Figura 4). Por lo tanto, abra MATLAB R2020a o una versión superior. Ejecute el script de MATLAB Initialize_All_Systems (archivo complementario 1).
  4. Confirme si el pseudopúpulo de la mosca (Figura 3B, C) está en el centro de la imagen proyectada en la pantalla de la computadora.

4. Enfoque automático y autocentro

  1. Llevar el foco al nivel del pseudopúplo corneal (CPP; Figura 3B) 19,20,21 manualmente mediante el joystick del eje Z.
  2. Ejecute el algoritmo de enfoque automático (Archivo suplementario 1, script AF) para obtener una imagen nítida a nivel de la córnea. Compruebe devolviendo el foco al nivel DPP ajustando la etapa motorizada del eje Z. Almacene la distancia entre el DPP y el CPP (en pasos de motor).
  3. Ajuste el centrado pseudopupil ejecutando el algoritmo de autocentrado (archivo complementario 1, script AC). Vuelva a centrar la atención en el nivel de CPP.
  4. Vuelva a ejecutar el algoritmo de enfoque automático. Cero las etapas motorizadas en sus posiciones actuales (X,Y,Z,E,A) = (0,0,0,0,0), donde E es elevación y A es acimut.
  5. Ejecute el algoritmo de escaneo (Archivo suplementario 1, script Scan_Begin), que muestrea las imágenes oculares a lo largo de las trayectorias en pasos de 5 °, mientras realiza los algoritmos de autocentrado y enfoque automático.
  6. Al final del muestreo, apague el controlador LED y los controladores del motor.
  7. Procese las imágenes aplicando los algoritmos de procesamiento de imágenes (Archivo Complementario 1, script ImProcFacets).

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Animales y estimulación óptica
Los experimentos se realizan en moscas domésticas (Musca domestica) obtenidas de un cultivo mantenido por el Departamento de Genética Evolutiva de la Universidad de Groningen. Antes de las mediciones, una mosca se inmoviliza pegándola con una cera de bajo punto de fusión en un tubo bien ajustado. La mosca se monta posteriormente en el escenario de un goniómetro motorizado. El centro de las dos etapas rotativas coincide con el punto focal de una configuración microscópica24. El haz de luz de epi-iluminación es suministrado por una fuente de luz, que enfoca la luz en un diafragma que se visualiza en el ojo de la mosca a través de un semiespejo. Por lo tanto, activa el mecanismo de la pupila de un conjunto restringido de células fotorreceptoras (Figura 3). Los ejes ópticos de los ommatidios que albergan estos fotorreceptores se evalúan girando la mosca en pequeños pasos y tomando fotografías después de cada paso con una cámara digital a color conectada a un microscopio (Figura 2). Debido a que los gránulos de pigmento pupilar se reflejan predominantemente en el rango de longitud de onda larga, el canal rojo de la cámara digital se utiliza para discriminar el pseudopúpilo de los reflejos de la lente facetaria. Estos últimos reflejos se aíslan mejor del pseudopúpula utilizando el canal azul de la cámara.

Algoritmos de enfoque automático y autocentrado
Los principales algoritmos adicionales utilizados al escanear el ojo de un insecto son el enfoque automático y el autocentrado (Archivo complementario 1, scripts AF y AC). El objetivo del enfoque automático es llevar el nivel corneal al enfoque de la cámara, con el fin de detectar las reflexiones facetarias que son necesarias para la identificación de ommatidia individuales (Figura 3B). El procedimiento para detectar el nivel corneal es cambiar la posición vertical (Z) de la mosca en pasos aplicando la transformada rápida de Fourier (FFT) a la imagen tomada en cada nivel para determinar el contenido de frecuencia espacial. El criterio para un enfoque óptimo es el nivel con la mayor potencia sumada por encima de un corte de baja frecuencia.

Las entradas para el enfoque automático son las posiciones Z y la transmisión de video desde la cámara. Las salidas son la integral del contenido de alta frecuencia de la imagen SF y el nivel de enfoque Z donde SF es máximo. En el paso inicial, la posición Z de la imagen de la cámara se ajusta ligeramente por debajo de las lentes facetarias corneales, y se establece la región de interés para determinar el contenido de frecuencia de la imagen. El bucle for inicia la captura de imagen y calcula la suma del SF de transformada de Fourier filtrada de paso alto. Al pasar el motor del eje z hacia arriba a un nivel de imagen por encima de la córnea, se encuentra el nivel con las frecuencias más altas, es decir, donde SF es máximo, que se toma como el nivel corneal. El motor del eje Z se ajusta a ese nivel y se toma una imagen.

Al enfocar hacia abajo desde la córnea hacia el nivel del centro de curvatura del ojo, los reflejos de la faceta corneal se desvanecen y los reflejos pseudopúpulas se fusionan en un patrón típico de siete puntos, que es una característica de la organización de los fotorreceptores dentro de los ommatidios de la mosca (Figura 3C; tenga en cuenta que el patrón solo es distinto en áreas oculares aproximadamente esféricas). El patrón en el centro del ojo del nivel de curvatura se llama pseudopúpilo profundo (DPP)19,21.

Cambiar la mosca colocada en el escenario con los motores X e Y para que el centro del punto de luz coincida con el centro de la imagen de la cámara se denomina autocentrado. Este procedimiento alinea la faceta del ommatidio cuyo eje visual está en el centro del DPP con el haz de iluminación y el eje óptico del microscopio y la cámara. La imagen es gaussiana filtrada y binarizada, y luego el centro del pseudopupil se determina utilizando la función regionprops MATLAB. Las entradas son las posiciones de los motores X e Y y la transmisión de video desde la cámara; la salida es la distancia entre los centros de la imagen y pseudopupil, que luego se traduce en un cambio de etapa.

Correlación de imágenes
El ojo se escanea tomando y almacenando fotografías a varios valores de la elevación del goniómetro θ y el acimut φ después de los procedimientos de enfoque automático y autocentrado. La correlación bidimensional se utiliza para determinar los desplazamientos x-y entre imágenes sucesivas. Para correlacionar las imágenes obtenidas en diferentes posiciones angulares, es esencial darse cuenta de que esto generalmente resulta en una rotación de la imagen actual con respecto a la imagen anterior. Por ejemplo, supongamos que el centro de una imagen inicial corresponde al punto C de una esfera (Figura 5) y que se produce un cambio en el acimut de modo que el plano OAB se gira sobre un ángulo pequeño Δφ, convirtiéndose en el plano OA'B. El centro de la imagen cambia entonces del punto C al punto C' (Figura 5). Si el plano de la imagen de la cámara es perpendicular al vector OC, la rotación del plano OAB a OA'B provoca la rotación de la imagen sobre un ángulo β = Δφ cosθ, como β = CC'⁄BC, con CC' = CDΔφ, y cosθ = CD⁄BC (Figura 5). Esto significa que en la parte superior de la esfera (θ = 0°), β = Δφ, y en el ecuador (θ = 90°), β = 0°. Cuando Δφ = 0°, es decir, cuando solo se cambia la elevación θ, las imágenes no se giran entre sí, por lo que β = 0°.

Durante el procedimiento de escaneo, el procedimiento de autocentro centra el ommatidio cuyo eje visual está alineado con el eje óptico del sistema de medición. La rotación del acimut provoca una rotación por un ángulo β y una traslación del patrón de facetas. Para determinar este último desplazamiento, se correlacionan dos imágenes sucesivas (después de girar primero la primera imagen por el ángulo de rotación β), como se explica en la Figura 6.

En el algoritmo de desplazamiento de imagen (Archivo Suplementario 1, script ImProcFacets), las facetas individuales se identifican por los centroides de sus reflejos en cada imagen. Las entradas al algoritmo son la elevación y el ángulo azimutal, el conjunto de imágenes a evaluar, el canal de la imagen y la región de interés. El algoritmo produce un conjunto de centroides y una imagen final que contiene todas las imágenes correlacionadas tomadas durante el procedimiento de escaneo.

El sistema goniométrico
Para lograr la alineación con la iluminación, el ojo de la mosca debe fotografiarse con las lentes facetarias corneales enfocadas, y el pseudopúpilo debe ser reintroducido con frecuencia (aquí, después de cada 5 ° de rotación). Este proceso automático se realiza con el sistema GRACE (Goniometric Research Apparatus for Compound Eyes), mostrado esquemáticamente en la Figura 4. Consta de tres subsistemas principales: las etapas inferior y superior con sus respectivas electrónicas como el hardware electromecánico, el firmware incrustado en los controladores físicos y la PC utilizada para operar el software que implementa los algoritmos. El hardware consta de las etapas motorizadas y ópticas, la cámara digital, un microcontrolador para programar intensidades LED y una fuente de luz LED blanca. Las rutinas del firmware se proporcionan con los controladores del motor, el controlador LED y en la cámara digital. El software consiste en los algoritmos para controlar las posiciones y velocidades del motor, ajustar el LED y adquirir y analizar imágenes. Los algoritmos discutidos a continuación representan los principales hitos que permiten al sistema GRACE escanear los ojos de los insectos.

Ojos de mosca y pseudopúpilos
Cuando se ilumina un ojo de mosca doméstica, la luz incidente activa el mecanismo de la pupila de las células fotorreceptoras, un sistema de gránulos de pigmento móviles de color amarillo dentro del cuerpo celular. El sistema controla el flujo de luz que desencadena el proceso de fototransducción de los fotorreceptores y, por lo tanto, tiene esencialmente la misma función que la pupila en el ojo humano19,20. La activación del mecanismo de la pupila provoca una reflexión localmente mejorada en el área del ojo frente a la apertura del objetivo del microscopio (Figura 3). La posición del área ocular que refleja brillantemente, el pseudopúpilo19,20,21, cambia con la rotación del ojo porque la luz incidente activa el mecanismo de la pupila en un conjunto diferente de células fotorreceptoras (ver Figura 6). El pseudopúpilo actúa así como un marcador del eje visual de los ommatidios que están alineados con el microscopio. Esto permite mapear la distribución espacial de los ejes visuales del ojo 4,20,21,22,23.

Rellenar las facetas que faltan
No todas las facetas se identifican mediante el procedimiento centroide, por ejemplo, debido a una baja reflectancia local causada por irregularidades superficiales menores o manchas de polvo. Este último también puede dar lugar a centroides erróneos (Figura 7A). Este problema se resuelve primero lavando los ojos bajo un grifo de agua y en segundo lugar aplicando un procedimiento de relleno (script ImProcFacets). Por lo tanto, primero se determinan los centroides en un área (Figura 7A) y luego se calcula el FFT (Figura 7B). El primer anillo de armónicos (estrellas amarillas en la Figura 7B) define tres orientaciones, indicadas por las líneas azul, roja y verde (Figura 7B). La transformación inversa de los armónicos a lo largo de las tres orientaciones produce las bandas grises de la Figura 7C-E. La adaptación de un polinomio de segundo orden a las bandas grises produce líneas que conectan los centroides facetados a lo largo de los tres ejes de red. Los puntos de cruce de las líneas de celosía, por lo tanto, corresponden a los verdaderos centros facetarios. Como el ejemplo de la Figura 7 es un caso extremo, demuestra que el procedimiento es robusto. En la mayoría de las áreas, las facetas faltantes y los centroides erróneos son raros.

Escanear un ojo de mosca
La Figura 8 muestra una banda de ommatidios escaneados a través del ojo mediante la realización de una serie de cambios azimutales paso a paso con Δφ = 5°. El escaneo desde el lado frontal del ojo (Figura 8A, derecha) hasta el lado lateral (Figura 8A, izquierda) ocurrió en 24 pasos. Los centroides de los patrones facetarios en gran parte superpuestos fueron posteriormente rotados por β = Δφcosθ. Luego, después de cambiar los centroides de cada imagen y completar las facetas faltantes (con el guión ImProcFacets), se promediaron los centroides colocalizados. La Figura 8A muestra las imágenes combinadas, junto con los centros de imágenes y los centroides facetarios. La Figura 8B muestra el ensamblaje de facetas como un diagrama de Voronoi.

Figure 1
Figura 1: Montaje de la mosca en el soporte de latón. (A) Una punta con una mosca doméstica para ser investigada. (B) La punta cortada con la mosca empujada suavemente hacia el final con un trozo de algodón y un palillo. (C) La punta con la mosca cortada aún más a una longitud total de 10 mm. (D) El soporte de latón con la mosca que se colocará en la etapa del goniómetro; la flecha apunta al tornillo de ajuste de altura. (E) Foto de primer plano de la mosca con la cabeza inmovilizada por un trozo de cera de fusión a baja temperatura (#) a la punta (*). La epiiluminación ha activado el mecanismo de la pupila de los fotorreceptores del ojo, como lo revela el pseudopúpulo amarillo. Haga clic aquí para ver una versión más grande de esta figura.

Figure 2
Figura 2: GRACE, el aparato de investigación goniométrica para ojos compuestos. El insecto investigado (una mosca) se monta en la etapa motorizada que consta de tres etapas de traslación (X, Y, Z) y dos etapas de rotación (elevación y acimut). Una lente enfoca la luz de un LED blanco en un diafragma, enfocada a través de un semiespejo en el ojo de la mosca. El ojo es fotografiado con una cámara conectada a un microscopio. Haga clic aquí para ver una versión más grande de esta figura.

Figure 3
Figura 3: Óptica de los ojos de mosca. (A) Diagrama de tres ommatidios de un ojo de mosca, cada uno coronado por una lente facetaria biconvexa, que enfoca la luz incidente en un conjunto de células fotorreceptoras (amarillas), rodeadas de células pigmentarias primarias (marrones) y secundarias (rojas). La iluminación intensa de los fotorreceptores adaptados a la oscuridad (DA) causa la migración de gránulos de pigmento amarillo (indicados por puntos negros), que existen dentro de las células fotorreceptoras. Acumulados hacia la punta de los fotorreceptores, cerca de los orgánulos sensibles a la luz, los rabdomeros, absorben y retrodispersan la luz en el estado adaptado a la luz (LA). (B) Imagen a nivel de la superficie del ojo, mostrando los reflejos facetarios (puntos brillantes) así como el reflejo del gránulo pigmentario en estado activado (el pseudopupil corneal, CPP). (C) Imagen tomada a nivel del centro de la curvatura ocular (el pseudopúpilo profundo, DPP), que refleja la disposición de las células fotorreceptoras en un patrón trapezoidal, con sus extremos distales colocados aproximadamente en el plano focal de las lentes facetarias. Una imagen virtual superpuesta de las puntas de los fotorreceptores, por lo tanto, existe en el plano del centro de la curvatura del ojo. La barra de escala de 100 μm se aplica a los paneles B y C. Haga clic aquí para ver una versión más grande de esta figura.

Figure 4
Figura 4: Diagrama esquemático del sistema GRACE. El software de PC controla el firmware, que impulsa el hardware electromecánico. La cámara digital toma, a través de una etapa óptica, imágenes del ojo del espécimen. La fuente de luz LED ilumina la muestra, y los motores de la etapa motorizada accionan las traducciones X, Y y Z, así como las rotaciones de acimut (A) y elevación (E). Haga clic aquí para ver una versión más grande de esta figura.

Figure 5
Figura 5: Diagrama para derivar la rotación de la imagen al escanear el ojo de mosca. Si el centro de una imagen inicial corresponde al punto C de una esfera y se produce un cambio en el acimut, el plano OAB se gira sobre un ángulo pequeño Δφ, convirtiéndose en el plano OA'B. El centro de la imagen cambia entonces del punto C al punto C'. La rotación del plano OAB a OA'B provoca la rotación de la imagen sobre un ángulo β = Δφ cosθ (ver texto, sección Correlación de imágenes). Haga clic aquí para ver una versión más grande de esta figura.

Figure 6
Figura 6: El procedimiento de procesamiento de imágenes para determinar el ángulo interommatidial. (A) Imagen tomada durante un escaneo a través del ojo, con centroides facetarios marcados por círculos verdes y cuadrados rojos, y un punto verde en el centro de la imagen. (B) Imagen posterior después de una rotación azimutal de 5°, con centroides facetarios marcados por cuadrados rojos y un punto rojo en el centro de la imagen. (C) Correlogograma del área dentro del cuadrado verde de A correlacionado con la imagen B. El vector desde el centro de C (punto verde) hasta el valor máximo del correlogramos representa el desplazamiento relativo de las imágenes A y B. Usando ese vector, el cuadrado desplazado de A y su centro se dibujan en B y los centroides facetados (cuadrados rojos) de B se agregan en A. La barra de escala 100 μm se aplica a los paneles A-C. Haga clic aquí para ver una versión más grande de esta figura.

Figure 7
Figura 7: Derivación de centroides facetarios faltantes mediante la aplicación de transformadas de Fourier. (A) Imagen RGB local con centroides facetarios (puntos rojos). Las puntas de flecha blancas indican facetas faltantes, y la punta de flecha roja apunta a un centroide erróneo. (B) FFT de los centroides de A con el primer anillo de armónicos marcado por estrellas amarillas. (C-E) FFT inversa de los centroides a lo largo de las tres direcciones indicadas por las líneas de color en B, dando lugar a las bandas grisáceas. Las líneas azul (C), roja (D) y verde (E) son polinomio cuadráticos que se ajustan a las bandas grises, y los centroides (círculos rojos) son los que se obtuvieron antes de las transformadas de Fourier. F) Las líneas ajustadas de C-E combinadas, junto con los centroides de A. Los centroides facetarios faltantes se derivan de los puntos de cruce. La barra de escala de 100 μm se aplica a los paneles A, C-F. Haga clic aquí para ver una versión más grande de esta figura.

Figure 8
Figura 8: El ojo derecho de una mosca doméstica escaneado de un lado a otro. (A) Imágenes combinadas, superpuestas de una serie de imágenes en la que el acimut se cambió paso a paso en 5°, junto con los centros de imagen (cruces verdes) y los centroides facetarios (círculos rojos). (B) Diagrama de Voronoi de los centroides facetados, con los centros de imagen como en A. La barra de escala 100 μm se aplica a los paneles A y B. Haga clic aquí para ver una versión más grande de esta figura.

Archivo complementario 1: Haga clic aquí para descargar este archivo.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

La distribución espacial de los ejes visuales de los ojos de la mosca doméstica se puede trazar utilizando el fenómeno pseudopupil de los ojos compuestos y los cambios de reflexión causados por el mecanismo de la pupila dependiente de la luz. Por lo tanto, una mosca investigada se monta en un sistema goniométrico, que permite la inspección del patrón de faceta local con una configuración de microscopio equipada con una cámara digital, todo bajo control informático. El análisis de imágenes produce mapas oculares. Una dificultad esencial encontrada es que sin un posicionamiento cuidadoso del ojo al comienzo de las mediciones, las posiciones vistas tanto del ojo como del pseudopúpula pueden cambiar considerablemente incluso con pequeñas rotaciones del dispositivo goniométrico. Estos cambios se minimizan colocando el centro del ojo en el centro de rotación goniométrica, donde se observa el pseudopúplo profundo. Al correlacionar las imágenes medidas posteriormente, se puede rastrear el patrón de facetas. Es importante destacar que el ángulo de rotación debe ajustarse a un valor bastante pequeño porque en áreas donde el patrón de facetas es muy regular, el procedimiento de correlación es propenso a resultados erróneos.

Aquí, hemos presentado un mapa ocular parcial (Figura 8), que demuestra la viabilidad de un mapeo altamente automatizado de la agudeza visual en los ojos de los insectos. Los ángulos interommatidiales de alrededor de 2.0°-2.5°, evidentes al comparar los espaciados de facetas con los desplazamientos de 5° entre centros de imagen sucesivos, corresponden bien a datos que previamente se derivaron, de una manera mucho más laboriosa, de la misma especie (Musca domestica)25. Los mapas oculares completos del espacio visual de las moscas domésticas y otros insectos se publicarán en otros lugares.

El método aquí presentado permite mapear los ejes visuales de un ojo completo, in vivo, en solo unas pocas horas, lo que será extremadamente difícil de lograr con otros enfoques. El método de gráficos automatizado se ilustra aquí para el caso de la mosca doméstica, pero simplemente se puede extender a los ojos compuestos de otros insectos, como las mariposas. Sin embargo, en lugar del reflejo pupilar, el brillo ocular de la mariposa sirve como marcador del eje visual21,24. Un método alternativo es la microtomografía de rayos X recientemente desarrollada26. Este valioso enfoque produce mapas anatómicos detallados, pero es vulnerable a errores ópticos, específicamente cuando los ejes visuales de los ommatidios están sesgados a la superficie del ojo21, o si el procesamiento de tejidos distorsiona la geometría del ojo lo suficiente como para comprometer las mediciones. La visualización del pseudopupil es más o menos sencilla en ojos de mosca que tienen un mecanismo de pupila brillante. Esto es menos fácil en ojos compuestos con un mecanismo de pupila que refleja mal, como, por ejemplo, en las abejas21. Sin embargo, para muchas otras especies de insectos, como las moscas soldado o las abejas, se puede utilizar la fluorescencia de los pigmentos visuales en los rabios ommatídicos. La aplicación de fluoróforos que crean una fuerte fluorescencia rabdomal ofrece otra oportunidad para estimar la organización espacial del espacio visual del ojo27.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Los autores no tienen conflictos de intereses que informar.

Acknowledgments

Este estudio fue apoyado financieramente por la Oficina de Investigación Científica de la Fuerza Aérea / Oficina Europea de Investigación y Desarrollo Aeroespacial AFOSR / EOARD (subvención FA9550-15-1-0068, a D.G.S.). Agradecemos al Dr. Primož Pirih por muchas discusiones útiles y a Kehan Satu, Hein Leertouwer y Oscar Rincón Cardeño por su ayuda.

Materials

Name Company Catalog Number Comments
Digital Camera PointGrey BFLY-U3-23S6C-C Acquision of amplified images and digital communication with PC
High power star LED Velleman LH3WW Light source for observation and imaging the compound eye
Holder for the investigated fly University of Groningen Different designs were manufactured by the university workshop
Linear motor ELERO ELERO Junior 1, version C Actuates the upper microscope up and down. (Load 300N, Stroke speed 15mm/s, nominal current 1.2A)
Low temperature melting wax various The low-temperature melting point wax serves to immobilize the fly and fix it to the holder
Microscope Zeiss Any alternative microscope brand will do; the preferred objective is a 5x
Motor and LED Controller University of Groningen Z-o1 Designed and built by the University of Groningen and based on Arduino and Adafruit technologies.
Motorized Stage Standa (Vilnius, Lithuania) 8MT175-50XYZ-8MR191-28 A 6 axis motorized stage modified to have 5 degrees of freedom.
Optical components LINUS Several diagrams and lenses forming an epi-illumination system (see Stavenga, Journal of Experimental Biology 205, 1077-1085, 2002)
PC running MATLAB University of Groningen The PC is able to process the images of the PointGrey camera, control the LED intensity, and send control commants to the motor cotrollers of the system
Power Supply (36V, 3.34A) Standa (Vilnius, Lithuania) PUP120-17 Dedicated power supply for the STANDA motor controllers
Soldering iron various Used for melting the wax
Stepper and DC Motor Controller Standa (Vilnius, Lithuania) 8SMC4-USB-B9-B9 Dedicated controllers for the STANDA motorized stage capable of communicating with MATLAB
Finntip-61 Finnpipette Ky, Helsinki FINNTIP-61, 200-1000μL PIPETTE TIPS FOR FINNPIPETTES, 400/BOX. It is used to restrain the fly
Carving Pen Shaping/Thread Burning Tool Max Wax The tip of the carving pen is designed to transfer wax to the head of fly
MATLAB Mathworks, Natick, MA, USA main program plus Image Acquisition, Image Analysis, and Instrument Control toolboxes. Programming language used to implement the algorithms

DOWNLOAD MATERIALS LIST

References

  1. Land, M. F., Nilsson, D. Animal Eyes. , Oxford University Press. (2012).
  2. Cronin, T. W., Johnsen, S., Marshall, N. J., Warrant, E. J. Visual Ecology. , Princeton University Press. (2014).
  3. Horridge, G. A. The separation of visual axes in apposition compound eyes. Philosophical Transactions of the Royal Society of London. Series B. 285 (1003), 1-59 (1978).
  4. Land, M. F., Eckert, H. Maps of the acute zones of fly eyes. Journal of Comparative Physiology. A. 156, 525-538 (1985).
  5. Warrant, E. J. The design of compound eyes and the illumination of natural habitats. Ecology of Sensing. Barth, F. G., Schmid, A. , Springer. Berlin. 187-213 (2001).
  6. Warrant, E. J., Kelber, A., Kristensen, N. P. Eyes and vision. In. Handbook of Zoology, Vol. IV, Part 36, Lepidoptera, Moths and Butterflies, Vol 2: Morphology, Physiology and Development. Kristensen, N. P. , Walter de Gruyter. Berlin New York. 325-359 (2003).
  7. Petrowitz, R., Dahmen, H., Egelhaaf, M., Krapp, H. G. Arrangement of optical axes and spatial resolution in the compound eye of the female blowfly Calliphora. Journal of Comparative Physiology. A. 186 (7-8), 737-746 (2000).
  8. Smolka, J., Hemmi, J. M. Topography of vision and behaviour. The Journal of Experimental Biology. 212, Pt 21 3522-3532 (2009).
  9. Krapp, H. G., Gabbiani, F. Spatial distribution of inputs and local receptive field properties of a wide-field, looming sensitive neuron. Journal of Neurophysiology. 93 (4), 2240-2253 (2005).
  10. Strausfeld, N. J. Arthropod Brains: Evolution, Functional Elegance, and Historical Significance. , Belknap Press of Harvard University Press. (2012).
  11. Jeong, K. H., Kim, J., Lee, L. P. Biologically inspired artificial compound eyes. Science. 312 (5773), 557-561 (2006).
  12. Davis, J., Barrett, S., Wright, C., Wilcox, M. A bio-inspired apposition compound eye machine vision sensor system. Bioinspiration & Biomimetics. 4 (4), 046002 (2009).
  13. Lee, G. J., Choi, C., Kim, D., Song, Y. M. Bioinspired artificial eyes: Optic components, digital cameras, and visual prostheses. Advanced Functional Materials. 28 (24), 1870168 (2018).
  14. Zhang, K., et al. Origami silicon optoelectronics for hemispherical electronic eye systems. Nature Communications. 8, 1782 (2017).
  15. Wang, M., et al. Subtle control on hierarchic reflow for the simple and massive fabrication of biomimetic compound eye arrays in polymers for imaging at a large field of view. Journal of Materials Chemistry. C. 4, 108-112 (2016).
  16. Floreano, D., et al. Miniature curved artificial compound eyes. Proceedings of the National Academy of Sciences of the United States of America. 110, 9267-9272 (2013).
  17. Song, Y. M., et al. Digital cameras with designs inspired by the arthropod eye. Nature. 497 (7447), 95-99 (2013).
  18. Douglass, J. K., Wehling, M. F. Rapid mapping of compound eye visual sampling parameters with FACETS, a highly automated wide-field goniometer. Journal of Comparative Physiology A. 202 (12), 839-851 (2016).
  19. Franceschini, N. Sampling of the visual environment by the compound eye of the fly: fundamentals and applications. Photoreceptor Optics. Snyder, A. W., Menzel, R. , Springer. Berlin, Heidelberg, New York. 98-125 (1975).
  20. Franceschini, N., Kirschfeld, K. The automatic control of the light flux in the compound eye of Diptera. Spectral, statistical, and dynamical properties of the mechanism. Biological Cybernetics. 21, 181-203 (1976).
  21. Stavenga, D. G. Pseudopupils of compound eyes. Handbook of Sensory Physiology, Vol VII/6A. Autrum, H. , Springer. Berlin-Heidelberg-New York. 357-439 (1979).
  22. Stavenga, D. G., Kruizinga, R., Leertouwer, H. L. Dioptrics of the facet lenses of male blowflies Calliphora and Chrysomia. Journal of Comparative Physiology A. 166, 365-371 (1990).
  23. Straw, A. D., Warrant, E. J., O'Carroll, D. C. A "bright zone" in male hoverfly (Eristalis tenax) eyes and associated faster motion detection and increased contrast sensitivity. The Journal of Experimental Biology. 209, 4339-4354 (2006).
  24. Stavenga, D. G. Reflections on colourful ommatidia of butterfly eyes. The Journal of Experimental Biology. 205, 1077-1085 (2002).
  25. Beersma, D. G. M., Stavenga, D. G., Kuiper, J. W. Organization of visual axes in the compound eye of the fly Musca domestica L. and behavioural consequences. Journal of Comparative Physiology. 102, 305-320 (1975).
  26. Taylor, G. J., et al. Bumblebee visual allometry results in locally improved resolution and globally improved sensitivity. eLife. 8, 40613 (2019).
  27. Rigosi, E., Warrant, E. J., O'Carroll, D. C. A new, fluorescence-based method for visualizing the pseudopupil and assessing optical acuity in the dark compound eyes of honeybees and other insects. Scientific Reports. 11, 21267 (2021).

Tags

Biología Número 181
Cartografía automatizada del espacio visual de los ojos compuestos de la mosca doméstica
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Muñoz Arias, M., Douglass, J.More

Muñoz Arias, M., Douglass, J. K., Wehling, M. F., Stavenga, D. G. Automated Charting of the Visual Space of Housefly Compound Eyes. J. Vis. Exp. (181), e63643, doi:10.3791/63643 (2022).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter