Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Biology

Gráfico automatizado do espaço visual dos olhos compostos housefly

Published: March 31, 2022 doi: 10.3791/63643

Summary

O protocolo aqui descreve a medição da organização espacial dos eixos visuais dos olhos de mosca-da-casa, mapeados por um dispositivo automático, utilizando o fenômeno pseudopupil e o mecanismo pupilar das células fotorreceptoras.

Abstract

Este artigo descreve a medição automática da organização espacial dos eixos visuais dos olhos compostos de insetos, que consistem em milhares de unidades visuais chamadas ommatidia. Cada ommatidium amostra as informações ópticas de um pequeno ângulo sólido, com uma sensibilidade distribuída gaussiana aproximada (meia largura na ordem de 1°) centrada em torno de um eixo visual. Juntas, a ommatidia reúne as informações visuais de um campo de visão quase panorâmico. A distribuição espacial dos eixos visuais determina assim a resolução espacial do olho. O conhecimento da organização óptica de um olho composto e sua acuidade visual é crucial para estudos quantitativos de processamento neural das informações visuais. Aqui apresentamos um procedimento automatizado para mapear os eixos visuais de um olho composto, utilizando um fenômeno óptico intrínseco, in vivo , o pseudopupil, e o mecanismo pupilar das células fotorreceptoras. Delineamos a configuração opomecanical para a varredura dos olhos dos insetos e usamos resultados experimentais obtidos de uma mosca doméstica, Musca domestica, para ilustrar as etapas do procedimento de medição.

Introduction

A compactação dos sistemas visuais de insetos e a agilidade de seus proprietários, demonstrando o processamento de informações visuais altamente desenvolvidos, têm intrigado pessoas de origens científicas e não científicas. Os olhos compostos de insetos foram reconhecidos como poderosos dispositivos ópticos que permitem capacidades visuais agudas e versáteis 1,2. As moscas, por exemplo, são bem conhecidas por suas respostas rápidas a objetos em movimento, e as abelhas são famosas por possuir visão colorida e visão de polarização2.

Os olhos compostos de artrópodes consistem de numerosas unidades anatomicamente semelhantes, a ommatidia, cada uma das quais é tampada por uma lente faceta. Em Diptera (moscas), o conjunto de lentes de faceta, conhecidas coletivamente como córnea, muitas vezes se aproxima de um hemisfério. Cada ommatidium amostra luz incidente de um pequeno ângulo sólido com meia largura na ordem de 1°. A ommatidia dos dois olhos juntos amostra aproximadamente o ângulo sólido completo, mas os eixos visuais da ommatidia não são distribuídos uniformemente. Certas áreas oculares têm uma alta densidade de eixos visuais, o que cria uma região de alta acuidade espacial, coloquialmente chamada de fovea. A parte restante do olho tem então uma resolução espacial mais grosseira 3,4,5,6,7,8,9.

Uma análise quantitativa da organização óptica dos olhos compostos é crucial para estudos detalhados do processamento neural de informações visuais. Estudos das redes neurais do cérebro de um inseto10 muitas vezes requerem conhecimento da distribuição espacial dos eixos ommatidiais. Além disso, os olhos compostos inspiraram várias inovações técnicas. Muitas iniciativas para produzir olhos artificiais bioins inspirados foram construídas em estudos quantitativos existentes de olhos compostos reais 11,12,13. Por exemplo, um sensor baseado em semicondutores com alta resolução espacial foi projetado com base no modelo de olhos compostos deinsetos 11,14,15,16,17. No entanto, os dispositivos desenvolvidos até agora não implementaram as características reais dos olhos de insetos existentes. Representações precisas de olhos compostos de insetos e sua organização espacial exigirão dados detalhados e confiáveis de olhos naturais, o que não está amplamente disponível.

A principal razão para a escassez de dados é o extremo tedioso dos procedimentos disponíveis para mapear as características espaciais dos olhos. Isso motivou tentativas de estabelecer um procedimento de mapeamento ocular mais automatizado. Em uma primeira tentativa de análises automatizadas de olhos compostos de insetos, Douglass e Wehling18 desenvolveram um procedimento de varredura para mapear tamanhos de facetas na córnea e demonstraram sua viabilidade para algumas espécies de moscas. Aqui ampliamos sua abordagem desenvolvendo métodos para não apenas escanear as facetas da córnea, mas também avaliar os eixos visuais da ommatidia a que as facetas pertencem. Apresentamos o caso dos olhos de mosca-da-casa para exemplificar os procedimentos envolvidos.

A configuração experimental para a varredura dos olhos dos insetos é: parcialmente óptica, ou seja, um microscópio com câmera e óptica de iluminação; em parte mecânico, ou seja, um sistema de goniômetro para rotação do inseto investigado; e parcialmente computacional, ou seja, uso de drivers de software para os instrumentos e programas para execução de medições e análises. Os métodos desenvolvidos abrangem uma série de procedimentos computacionais, desde capturar imagens, escolher canais de câmera e definir limiares de processamento de imagens até reconhecer locais de facetas individuais através de pontos brilhantes de luz refletidos de suas superfícies convexas. Os métodos de transformação de Fourier foram cruciais na análise de imagens, tanto para a detecção de facetas individuais quanto para a análise dos padrões de facetas.

O papel está estruturado da seguinte forma. Primeiro introduzimos a configuração experimental e o fenômeno pseudopupil - o marcador óptico usado para identificar os eixos visuais dos fotorreceptores em olhos vivos 19,20,21. Posteriormente, os algoritmos utilizados no procedimento de digitalização e análise de imagem são descritos.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

O protocolo está de acordo com as diretrizes de cuidados com insetos da Universidade.

1. Preparação de uma mosca doméstica, Musca domestica

  1. Recolhe a mosca da população criada em laboratório. Coloque a mosca no suporte de latão (Figura 1).
    1. Corte 6 mm da parte superior do tubo de contenção (ver Tabela de Materiais). A nova parte superior do tubo tem diâmetro externo de 4 mm e diâmetro interno de 2,5 mm (Figura 1A). Coloque a mosca viva dentro do tubo, sele o tubo com algodão para evitar danificar a mosca, e empurre a mosca de tal forma que a cabeça se projeta do tubo e seu corpo seja contido (Figura 1B). Imobilize a cabeça com cera de abelha de tal forma que os olhos permaneçam descobertos (Figura 1C-E).
    2. Corte novamente o tubo de tal forma que o comprimento do tubo seja de 10 mm (Figura 1C). Coloque o tubo de plástico com a mosca no suporte de latão, de modo que um olho da mosca esteja apontando para cima quando o suporte estiver descansando sobre uma mesa (Figura 1D,E).
  2. Ajuste a orientação do tubo de tal forma que com a elevação do goniômetro em 0° (ou seja, o estágio azimute esteja em uma posição horizontal), o feixe de iluminação vertical do microscópio é perpendicular à superfície do olho em uma região central, entre ventral e dorsal, e entre bordas anteriores e posteriores do olho, para que todo o olho possa ser escaneado dentro da faixa de azimuth e elevação permitida pela configuração.

2. Alinhamento do eixo azimute rotativo do goniômetro com o eixo óptico do microscópio

  1. Monte um pino de alinhamento no estágio de rotação do azimute para que a posição x-y da ponta possa ser ajustada para coincidir com o eixo azimute no palco motorizado. Ao visualizar com o microscópio, equipado com um objetivo de 5x, foque na ponta usando o joystick do eixo Z (Figura 2).
  2. Alinhe o ajuste x-y do eixo azimuth com o eixo óptico do microscópio e garanta que os eixos rotativos de elevação e azimute estejam pré-alinhados com o pino centralado, usando os joysticks x e y-axis.
  3. Manipule os joysticks de azimute e elevação para verificar se o pino está centrado em relação a ambos os graus de liberdade. Quando bem centrada, a ponta do pino permanece, aproximadamente, na mesma posição durante as rotações de azimute e elevação.

3. Alinhamento do olho voador com os estágios motorizados

  1. Com o estágio de elevação em 0°, monte a mosca e seu suporte no estágio azimuth. Observe o olho da mosca com o microscópio.
  2. Com o LED de iluminação ligado, ajuste a posição horizontal da mosca para que o centro do pseudopupil esteja alinhado com o microscópio. Ajuste a posição vertical da mosca usando o parafuso rotativo do suporte (Figura 1D), de modo que o pseudopupil profundo (DPP; Figura 3) 19,20,21 é colocado em foco no nível do eixo de elevação.
  3. Alinhe o DPP em relação aos eixos de azimute e elevação centralizando-o no campo de visão (ver Figura 2). Use os ímãs colados na parte inferior do suporte de mosca para afixá-lo firmemente a uma placa de ferro montada no estágio azimute, permitindo ajustes manuais de deslizamento.
    1. Mude a visão para a câmera digital montada no microscópio. Execute a inicialização do software do sistema GRACE, que inclui a inicialização dos controladores do motor e o controlador LED Arduino (Figura 4). Portanto, abra MATLAB R2020a ou versão superior. Execute o Initialize_All_Systems de script MATLAB (Arquivo Complementar 1).
  4. Confirme se o pseudopupil da mosca (Figura 3B,C) está no centro da imagem projetada na tela do computador.

4. Foco automático e autocentroamento

  1. Leve o foco ao nível do pseudopupil da córnea (CPP; Figura 3B) 19,20,21 manualmente usando o joystick do eixo z.
  2. Execute o algoritmo de autofoco (Arquivo Suplementar 1, script AF) para obter uma imagem nítida no nível da córnea. Verifique retornando o foco ao nível DPP ajustando o estágio motorizado do eixo z. Armazene a distância entre o DPP e o CPP (em etapas do motor).
  3. Ajuste a sintonia do centro pseudopupil executando o algoritmo de autocentering (Arquivo Suplementar 1, script AC). Leve o foco de volta ao nível CPP.
  4. Re-executar o algoritmo de autofoco. Zero os estágios motorizados em suas posições atuais (X,Y, Z,E,A) = (0,0,0,0,0), onde E é elevação e A é azimute.
  5. Execute o algoritmo de digitalização (Arquivo Suplementar 1, script Scan_Begin), que amostra imagens oculares ao longo de trajetórias em etapas de 5°, enquanto executa os algoritmos de autocentro e autofoco.
  6. Ao final da amostragem, desligue o controlador led e os controladores do motor.
  7. Processe as imagens aplicando os algoritmos de processamento de imagem (Arquivo Suplementar 1, script ImProcFacets).

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Animais e estimulação óptica
Experimentos são realizados em moscas-da-casa (Musca domestica) obtidos a partir de uma cultura mantida pelo Departamento de Genética Evolutiva da Universidade de Groningen. Antes das medições, uma mosca é imobilizada colando-a com uma cera de ponto de fusão baixa em um tubo bem ajustado. A mosca é subsequentemente montada no palco de um goniômetro motorizado. O centro dos dois estágios rotativos coincide com o ponto focal de uma configuração microscópica24. O feixe de luz epi-iluminação é fornecido por uma fonte de luz, que concentra a luz em um diafragma que é retratado no olho da mosca através de um meio-espelho. Ele, assim, ativa o mecanismo pupilar de um conjunto restrito de células fotorreceptoras (Figura 3). Os eixos ópticos da ommatidia que abrigam esses fotorreceptores são avaliados girando a mosca em pequenos passos e tirando fotografias após cada passo com uma câmera digital colorida presa a um microscópio (Figura 2). Como os grânulos de pigmento pupilar refletem predominantemente na faixa de comprimento de onda longa, o canal vermelho da câmera digital é usado para discriminar o pseudopupil das reflexões da lente faceta. Os últimos reflexos são melhor isolados do pseudopupil usando o canal azul da câmera.

Algoritmos de foco automático e autocentroamento
Os principais algoritmos adicionais usados durante a varredura do olho de um inseto são o autofoco e autocentroing (Arquivo Suplementar 1, scripts AF e AC). O objetivo do autofoco é trazer o nível da córnea ao foco da câmera, a fim de detectar as reflexões facetas necessárias para a identificação da ommatidia individual (Figura 3B). O procedimento para detectar o nível da córnea é alterar a posição vertical (Z) da mosca em etapas, aplicando a rápida transformação Fourier (FFT) à imagem tirada em cada nível para determinar o conteúdo de frequência espacial. O critério para o foco ideal é o nível com maior potência somada acima de um corte de baixa frequência.

As entradas para foco automático são as posições Z e o streaming de vídeo da câmera. As saídas são a parte integrante do conteúdo de alta frequência da imagem SF e do nível de foco Z onde o SF é máximo. Na etapa inicial, a posição Z da imagem da câmera é ajustada ligeiramente abaixo das lentes de faceta da córnea, e a região de interesse para determinar o conteúdo de frequência da imagem está definida. O loop for inicia a captura de imagem e calcula a soma do SF de transformação fourier filtrada de alto passe. Ao então pisar o motor do eixo z para cima para um nível de imagem acima da córnea, o nível com as frequências mais altas é encontrado, ou seja, onde o SF é máximo, que é tomado para ser o nível da córnea. O motor do eixo Z é então ajustado a esse nível e uma imagem é tirada.

Ao se concentrar da córnea em direção ao nível do centro de curvatura do olho, as reflexões de facetas da córnea desaparecem, e as reflexões pseudopupilas se fundem em um padrão típico de sete pontos, que é uma característica para a organização dos fotorreceptores dentro da ommatidia mosca (Figura 3C; note que o padrão só é distinto em áreas de olhos aproximadamente esféricas). O padrão no centro do nível de curvatura do olho é chamado de pseudopupil profundo (DPP)19,21.

Deslocando a mosca posicionada no estágio com os motores X e Y para que o centro do ponto de luz coincida com o centro da imagem da câmera é chamado de autocentroing. Este procedimento alinha a faceta do ommatidium cujo eixo visual está no centro da DPP com o feixe de iluminação e o eixo óptico do microscópio e da câmera. A imagem é filtrada e binarizada gaussiana, e então o centro do pseudopupil é determinado usando a função MATLAB de propriedades regionais . As entradas são as posições dos motores X e Y e o vídeo de streaming da câmera; a saída é a distância entre os centros de imagem e pseudopupil, que é então traduzida em uma mudança de palco.

Imagens correlacionando
O olho é escaneado tirando e armazenando fotografias em vários valores da elevação do goniômetro φ e azimuth φ após os procedimentos de autofoco e autocentroamento. A correlação bidimensional é usada para determinar as mudanças x-y entre imagens sucessivas. Para correlacionar as imagens obtidas em diferentes posições angulares, é essencial perceber que isso geralmente resulta em uma rotação da imagem atual em relação à imagem anterior. Por exemplo, vamos supor que o centro de uma imagem inicial corresponde ao ponto C de uma esfera (Figura 5) e que uma mudança no azimute ocorre para que o plano OAB seja girado sobre um pequeno ângulo Δφ, tornando-se plano OA'B. O centro da imagem muda então do ponto C para o ponto C' (Figura 5). Se o plano de imagem da câmera for perpendicular ao OC vetorial, a rotação do plano OAB para OA'B causa rotação da imagem sobre um ângulo β = Δφ cosφ, como β = CC'⁄BC, com CC' = CDΔφ, e cosφ = CD⁄BC (Figura 5). Isso significa que no topo da esfera (φ = 0°), β = Δφ, e no equador (φ = 90°), β = 0°. Quando Δφ = 0°, ou seja, quando apenas a elevação φ é alterada, as imagens não são giradas em relação umas às outras, então β = 0°.

Durante o procedimento de digitalização, o procedimento de autocentração centraliza o ommatidium cujo eixo visual está alinhado com o eixo óptico do sistema de medição. A rotação do azimute causa uma rotação por um ângulo β e uma tradução do padrão da faceta. Para determinar a última mudança, duas imagens sucessivas são correlacionadas (depois de rodar pela primeira vez a primeira imagem pelo ângulo de rotação β), como explicado na Figura 6.

No algoritmo de mudança de imagem (Arquivo Suplementar 1, script ImProcFacets), as facetas individuais são identificadas pelos centroides de suas reflexões em cada imagem. As entradas para o algoritmo são o ângulo de elevação e azimute, o conjunto de imagens a serem avaliadas, o canal de imagem e a região de interesse. O algoritmo produz um conjunto de centrosids e uma imagem final que contém todas as imagens correlacionadas tiradas durante o procedimento de digitalização.

O sistema goniométrico
Para alcançar o alinhamento com a iluminação, o olho da mosca tem que ser fotografado com as lentes de faceta córnea em foco, e o pseudopupil deve ser recentemente recentemente (aqui, depois de cada 5° de rotação). Este processo automático é realizado com o sistema GRACE (Aparelho de Pesquisa Goniométrica para Olhos Compostos), mostrado esquematicamente na Figura 4. Consiste em três subsistemas principais: os estágios inferior e superior com seus respectivos eletrônicos como o hardware eletromecânico, o firmware incorporado nos controladores físicos, e o PC usado para operar o software que implementa os algoritmos. O hardware consiste nos estágios motorizados e ópticos, na câmera digital, em um microcontrolador para a programação de intensidades de LED e uma fonte de luz LED branca. As rotinas do firmware são fornecidas com os controladores do motor, o controlador led e na câmera digital. O software consiste nos algoritmos para controlar posições e velocidades do motor, ajustar o LED e adquirir e analisar imagens. Os algoritmos discutidos em seguida representam os principais marcos que permitem ao sistema GRACE digitalizar os olhos dos insetos.

Olhos de mosca e pseudopupils
Quando um olho de mosca-da-casa é iluminado, a luz do incidente ativa o mecanismo pupilar das células fotorreceptoras, um sistema de grânulos de pigmento móvel e de cor amarela dentro do corpo celular. O sistema controla o fluxo de luz que desencadeia o processo de fototransdução dos fotorreceptores, e, portanto, tem essencialmente a mesma função que a pupila no olho humano19,20. A ativação do mecanismo pupilar provoca uma reflexão localmente aprimorada na área ocular diante da abertura do objetivo do microscópio (Figura 3). A posição da área ocular brilhantemente refletida, o pseudopupil19,20,21, muda após a rotação do olho porque a luz do incidente então ativa o mecanismo da pupila em um conjunto diferente de células fotorreceptoras (ver Figura 6). O pseudopupil atua assim como um marcador do eixo visual da ommatidia que estão alinhados com o microscópio. Isso permite o mapeamento da distribuição espacial dos eixos visuais do olho 4,20,21,22,23.

Preenchendo facetas faltantes
Nem todas as facetas são identificadas pelo procedimento centralóide, por exemplo, devido a uma baixa reflexão local causada por pequenas irregularidades superficiais ou manchas de poeira. Este último também pode resultar em centrosids errôneos (Figura 7A). Este problema é resolvido primeiro lavando os olhos sob uma torneira de água e, em segundo lugar, aplicando um procedimento de preenchimento (script ImProcFacets). Portanto, os centroides em uma área são primeiro determinados (Figura 7A), e então o FFT é calculado (Figura 7B). O primeiro anel de harmônicos (estrelas amarelas na Figura 7B) define três orientações, indicadas pelas linhas azul, vermelha e verde (Figura 7B). A transformação inversa das harmônicas ao longo das três orientações rende as faixas cinzas na Figura 7C-E. Encaixar um polinômial de segunda ordem às faixas cinzas produz linhas que conectam os centroides de facetas ao longo dos três eixos de treliça. Os pontos de travessia das linhas de rede, assim, correspondem aos verdadeiros centros de facetas. Como o exemplo da Figura 7 é um caso extremo, demonstra que o procedimento é robusto. Na maioria das áreas, facetas ausentes e centrosídeos errôneos são raros.

Escaneando um olho de mosca
A Figura 8 mostra uma faixa de ommatidia escaneada através do olho realizando uma série de mudanças stepwise azimuthal com Δφ = 5°. A varredura do lado frontal do olho (Figura 8A, à direita) para o lado lateral (Figura 8A, esquerda) ocorreu em 24 passos. Os centroides dos padrões de facetas em grande parte sobrepostos foram posteriormente girados por β = Δφcosφ. Em seguida, depois de mudar os centroides de cada imagem e preencher as facetas faltantes (com script ImProcFacets), os centrosids colocalized foram mediados. A Figura 8A mostra as imagens combinadas, juntamente com os centros de imagem e centrosids de facetas. A Figura 8B mostra a montagem de facetas como um diagrama voronoi.

Figure 1
Figura 1: Montagem da mosca no suporte de latão. (A) Uma dica com uma mosca-da-casa a ser investigada. (B) A ponta de corte com a mosca suavemente empurrada para o final usando um pedaço de algodão e um pauzinho. (C) A ponta com a mosca ainda mais cortada para um comprimento total de 10 mm. (D) O suporte de latão com a mosca a ser colocada no estágio goniômetro; a seta aponta para o parafuso de ajuste de altura. (E) Foto de close-up da mosca com a cabeça imobilizada por um pedaço de cera de fusão de baixa temperatura (#) na ponta (*). A epi-iluminação ativou o mecanismo pupila dos fotorreceptores do olho, como revelado pelo pseudopupil amarelo. Clique aqui para ver uma versão maior desta figura.

Figure 2
Figura 2: GRACE, o aparelho de pesquisa goniométrica para olhos compostos. O inseto investigado (uma mosca) é montado no estágio motorizado composto por três estágios de tradução (X, Y, Z) e dois estágios de rotação (elevação e azimute). Uma lente concentra a luz de um LED branco em um diafragma, focado através de um meio-espelho no olho da mosca. O olho é fotografado com uma câmera presa a um microscópio. Clique aqui para ver uma versão maior desta figura.

Figure 3
Figura 3: Óptica de olhos de mosca. (A) Diagrama de três ommatidia de um olho de mosca, cada um coberto por uma lente de faceta biconvex, que foca a luz incidente em um conjunto de células fotorreceptoras (amarelas), cercadas por células pigmentares primárias (marrons) e secundárias (vermelhas). A intensa iluminação dos fotorreceptores adaptados à escuridão (DA) causa a migração de grânulos de pigmento amarelo (indicados por pontos pretos), que existem dentro das células fotorreceptoras. Acumulados em direção à ponta dos fotorreceptores, perto das organelas sensíveis à luz, os rabdomeres, eles absorvem e respingam luz no estado adaptado à luz (LA). (B) Imagem ao nível da superfície dos olhos, mostrando as reflexões facetas (pontos brilhantes) bem como o reflexo do grânulo de pigmento no estado ativado (o pseudopupil da córnea, CPP). (C) Imagem tirada ao nível do centro da curvatura ocular (o pseudopupil profundo, DPP), refletindo o arranjo das células fotorreceptoras em um padrão trapezoidal, com suas extremidades distais posicionadas sobre o plano focal das lentes facetas. Uma imagem virtual sobreposta das pontas do fotorreceptor, portanto, existe no plano do centro da curvatura dos olhos. A barra de escala 100 μm se aplica aos painéis B e C. Clique aqui para ver uma versão maior desta figura.

Figure 4
Figura 4: Diagrama esquemático do sistema GRACE. O software do PC controla o firmware, que conduz o hardware eletromecânico. A câmera digital leva, através de um estágio óptico, imagens do olho do espécime. A fonte de luz LED ilumina a amostra, e os motores do estágio motorizado atuam nas traduções X-, Y e Z, bem como as rotações azimuto (A) e elevação (E). Clique aqui para ver uma versão maior desta figura.

Figure 5
Figura 5: Diagrama para derivar a rotação da imagem ao escanear o olho de mosca. Se o centro de uma imagem inicial corresponde ao ponto C de uma esfera e ocorre uma mudança no azimute, o plano OAB é girado sobre um pequeno ângulo Δφ, tornando-se plano OA'B. O centro da imagem então muda do ponto C para o ponto C'. Rotação do plano OAB para OA'B causa rotação da imagem sobre um ângulo β = Δφ cosφ (ver texto, seção Correlacionando imagens). Clique aqui para ver uma versão maior desta figura.

Figure 6
Figura 6: O procedimento de processamento de imagem para determinar o ângulo interomatidial. (A) Imagem tirada durante uma varredura através do olho, com centroides de facetas marcados por círculos verdes e quadrados vermelhos, e um ponto verde no centro de imagem. (B) Imagem subsequente após uma rotação azimutal de 5°, com centroides de facetas marcados por quadrados vermelhos e um ponto vermelho no centro de imagem. (C) Correlogram da área dentro do quadrado verde de A correlacionado com a imagem B. O vetor do centro de C (ponto verde) ao valor máximo do correlogram representa a mudança relativa das imagens A e B. Utilizando esse vetor, o quadrado deslocado de A e seu centro são desenhados em B e os centroides de facetas (quadrados vermelhos) de B são adicionados em A. Barra de escala 100 μm se aplica aos painéis A-C. Clique aqui para ver uma versão maior desta figura.

Figure 7
Figura 7: Derivando centrosid de facetas ausentes aplicando transformações Fourier. (A) Uma imagem RGB local com centroides de faceta (pontos vermelhos). Pontas de flecha branca indicam facetas perdidas, e a ponta de flecha vermelha aponta para um centroide errado. (B) FFT dos centrosides de A com o primeiro anel de harmônicos marcado por estrelas amarelas. (C-E) FFT inverso dos centroides ao longo das três direções indicadas pelas linhas coloridas em B, rendendo as faixas acinzentados. As linhas azul (C), vermelho (D) e verde (E) são ajustes quadráticos de polinomia às faixas cinzas, e os centroides (círculos vermelhos) são aqueles que foram obtidos antes das transformações de Fourier. (F) As linhas equipadas de C-E combinadas, juntamente com os centroides de A. Os centrosídeos de facetas ausentes são então derivados dos pontos de cruzamento. A barra de escala 100 μm se aplica aos painéis A, C-F. Clique aqui para ver uma versão maior desta figura.

Figure 8
Figura 8: O olho direito de uma mosca-da-casa escaneado de um lado para o outro lado. (A) Imagens combinadas e sobrepostas de uma série de imagens em que o azimute foi alterado em 5°, juntamente com os centros de imagem (cruzes verdes) e os centroides de facetas (círculos vermelhos). (B) Diagrama voronoi dos centroides de faceta, com os centros de imagem como em A. A barra de escala de 100 μm se aplica aos painéis A e B. Clique aqui para ver uma versão maior desta figura.

Arquivo suplementar 1: Clique aqui para baixar este Arquivo.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

A distribuição espacial dos eixos visuais dos olhos de mosca-da-casa pode ser mapeada usando o fenômeno pseudopupil de olhos compostos e as mudanças de reflexão causadas pelo mecanismo pupilar dependente da luz. Portanto, uma mosca investigada é montada em um sistema goniométrico, que permite a inspeção do padrão de facet local com uma configuração de microscópio equipada com uma câmera digital, tudo sob controle de computador. A análise da imagem produz mapas oculares. Uma dificuldade essencial encontrada é que, sem um posicionamento cuidadoso do olho no início das medições, as posições vistas tanto do olho quanto do pseudopupil podem mudar consideravelmente mesmo com pequenas rotações do dispositivo goniométrico. Essas alterações são minimizadas pelo posicionamento do centro ocular no centro de rotação goniométrica, onde o pseudopupil profundo é observado. Correlacionando as imagens posteriormente medidas, o padrão da faceta pode ser rastreado. É importante ressaltar que o ângulo de rotação tem que ser ajustado a um valor bastante pequeno, pois em áreas onde o padrão da faceta é muito regular, o procedimento de correlação é propenso a resultados errados.

Aqui, apresentamos um mapa parcial dos olhos (Figura 8), que demonstra a viabilidade de um mapeamento altamente automatizado da acuidade visual nos olhos dos insetos. Os ângulos interomatidiais de cerca de 2,0°-2,5°, evidentes da comparação dos espaçamentos de facetas com os 5° turnos entre centros de imagem sucessivos, correspondem bem aos dados que foram previamente derivados, de forma muito mais trabalhosa, da mesma espécie (Musca domestica)25. Mapas oculares completos do espaço visual de moscas-da-casa e outros insetos serão publicados em outros lugares.

O método aqui apresentado permite mapear os eixos visuais de um olho completo, in vivo, em apenas algumas horas, o que será extremamente difícil de alcançar com outras abordagens. O método de gráfico automatizado é ilustrado aqui para o caso da mosca-da-casa, mas pode ser simplesmente estendido aos olhos compostos de outros insetos, como borboletas. No entanto, em vez do reflexo pupilar, a táfina borboleta serve então como o marcador do eixo visual21,24. Um método alternativo é a microtomografia de raios-Xrecentemente desenvolvida 26. Esta abordagem valiosa produz mapas anatômicos detalhados, mas é vulnerável a erros ópticos, especificamente onde os eixos visuais da ommatidia são inclinados para a superfíciedos olhos 21, ou se o processamento de tecidos distorce a geometria dos olhos o suficiente para comprometer as medidas. A visualização do pseudopupil é mais ou menos simples em olhos de mosca que têm um mecanismo de pupila brilhante. Isso é menos fácil em olhos compostos com um mecanismo pupilo mal refletido, como, por exemplo, em abelhas21. No entanto, para muitas outras espécies de insetos, como moscas ou abelhas soldados, a fluorescência dos pigmentos visuais nos rabdomas ommatidiais pode ser usada. A aplicação de fluoroforos que criam uma forte fluorescência do rabdomico oferece outra oportunidade para estimar a organização espacial do espaço visual do olho27.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Os autores não têm conflitos de interesse para relatar.

Acknowledgments

Este estudo foi apoiado financeiramente pelo Escritório de Pesquisa Científica da Força Aérea/Escritório Europeu de Pesquisa e Desenvolvimento Aeroespacial AFOSR/EOARD (subvenção FA9550-15-1-0068, à D.G.S.). Agradecemos ao Dr. Primož Pirih por muitas discussões úteis e kehan Satu, Hein Leertouwer e Oscar Rincón Cardeño pela ajuda.

Materials

Name Company Catalog Number Comments
Digital Camera PointGrey BFLY-U3-23S6C-C Acquision of amplified images and digital communication with PC
High power star LED Velleman LH3WW Light source for observation and imaging the compound eye
Holder for the investigated fly University of Groningen Different designs were manufactured by the university workshop
Linear motor ELERO ELERO Junior 1, version C Actuates the upper microscope up and down. (Load 300N, Stroke speed 15mm/s, nominal current 1.2A)
Low temperature melting wax various The low-temperature melting point wax serves to immobilize the fly and fix it to the holder
Microscope Zeiss Any alternative microscope brand will do; the preferred objective is a 5x
Motor and LED Controller University of Groningen Z-o1 Designed and built by the University of Groningen and based on Arduino and Adafruit technologies.
Motorized Stage Standa (Vilnius, Lithuania) 8MT175-50XYZ-8MR191-28 A 6 axis motorized stage modified to have 5 degrees of freedom.
Optical components LINUS Several diagrams and lenses forming an epi-illumination system (see Stavenga, Journal of Experimental Biology 205, 1077-1085, 2002)
PC running MATLAB University of Groningen The PC is able to process the images of the PointGrey camera, control the LED intensity, and send control commants to the motor cotrollers of the system
Power Supply (36V, 3.34A) Standa (Vilnius, Lithuania) PUP120-17 Dedicated power supply for the STANDA motor controllers
Soldering iron various Used for melting the wax
Stepper and DC Motor Controller Standa (Vilnius, Lithuania) 8SMC4-USB-B9-B9 Dedicated controllers for the STANDA motorized stage capable of communicating with MATLAB
Finntip-61 Finnpipette Ky, Helsinki FINNTIP-61, 200-1000μL PIPETTE TIPS FOR FINNPIPETTES, 400/BOX. It is used to restrain the fly
Carving Pen Shaping/Thread Burning Tool Max Wax The tip of the carving pen is designed to transfer wax to the head of fly
MATLAB Mathworks, Natick, MA, USA main program plus Image Acquisition, Image Analysis, and Instrument Control toolboxes. Programming language used to implement the algorithms

DOWNLOAD MATERIALS LIST

References

  1. Land, M. F., Nilsson, D. Animal Eyes. , Oxford University Press. (2012).
  2. Cronin, T. W., Johnsen, S., Marshall, N. J., Warrant, E. J. Visual Ecology. , Princeton University Press. (2014).
  3. Horridge, G. A. The separation of visual axes in apposition compound eyes. Philosophical Transactions of the Royal Society of London. Series B. 285 (1003), 1-59 (1978).
  4. Land, M. F., Eckert, H. Maps of the acute zones of fly eyes. Journal of Comparative Physiology. A. 156, 525-538 (1985).
  5. Warrant, E. J. The design of compound eyes and the illumination of natural habitats. Ecology of Sensing. Barth, F. G., Schmid, A. , Springer. Berlin. 187-213 (2001).
  6. Warrant, E. J., Kelber, A., Kristensen, N. P. Eyes and vision. In. Handbook of Zoology, Vol. IV, Part 36, Lepidoptera, Moths and Butterflies, Vol 2: Morphology, Physiology and Development. Kristensen, N. P. , Walter de Gruyter. Berlin New York. 325-359 (2003).
  7. Petrowitz, R., Dahmen, H., Egelhaaf, M., Krapp, H. G. Arrangement of optical axes and spatial resolution in the compound eye of the female blowfly Calliphora. Journal of Comparative Physiology. A. 186 (7-8), 737-746 (2000).
  8. Smolka, J., Hemmi, J. M. Topography of vision and behaviour. The Journal of Experimental Biology. 212, Pt 21 3522-3532 (2009).
  9. Krapp, H. G., Gabbiani, F. Spatial distribution of inputs and local receptive field properties of a wide-field, looming sensitive neuron. Journal of Neurophysiology. 93 (4), 2240-2253 (2005).
  10. Strausfeld, N. J. Arthropod Brains: Evolution, Functional Elegance, and Historical Significance. , Belknap Press of Harvard University Press. (2012).
  11. Jeong, K. H., Kim, J., Lee, L. P. Biologically inspired artificial compound eyes. Science. 312 (5773), 557-561 (2006).
  12. Davis, J., Barrett, S., Wright, C., Wilcox, M. A bio-inspired apposition compound eye machine vision sensor system. Bioinspiration & Biomimetics. 4 (4), 046002 (2009).
  13. Lee, G. J., Choi, C., Kim, D., Song, Y. M. Bioinspired artificial eyes: Optic components, digital cameras, and visual prostheses. Advanced Functional Materials. 28 (24), 1870168 (2018).
  14. Zhang, K., et al. Origami silicon optoelectronics for hemispherical electronic eye systems. Nature Communications. 8, 1782 (2017).
  15. Wang, M., et al. Subtle control on hierarchic reflow for the simple and massive fabrication of biomimetic compound eye arrays in polymers for imaging at a large field of view. Journal of Materials Chemistry. C. 4, 108-112 (2016).
  16. Floreano, D., et al. Miniature curved artificial compound eyes. Proceedings of the National Academy of Sciences of the United States of America. 110, 9267-9272 (2013).
  17. Song, Y. M., et al. Digital cameras with designs inspired by the arthropod eye. Nature. 497 (7447), 95-99 (2013).
  18. Douglass, J. K., Wehling, M. F. Rapid mapping of compound eye visual sampling parameters with FACETS, a highly automated wide-field goniometer. Journal of Comparative Physiology A. 202 (12), 839-851 (2016).
  19. Franceschini, N. Sampling of the visual environment by the compound eye of the fly: fundamentals and applications. Photoreceptor Optics. Snyder, A. W., Menzel, R. , Springer. Berlin, Heidelberg, New York. 98-125 (1975).
  20. Franceschini, N., Kirschfeld, K. The automatic control of the light flux in the compound eye of Diptera. Spectral, statistical, and dynamical properties of the mechanism. Biological Cybernetics. 21, 181-203 (1976).
  21. Stavenga, D. G. Pseudopupils of compound eyes. Handbook of Sensory Physiology, Vol VII/6A. Autrum, H. , Springer. Berlin-Heidelberg-New York. 357-439 (1979).
  22. Stavenga, D. G., Kruizinga, R., Leertouwer, H. L. Dioptrics of the facet lenses of male blowflies Calliphora and Chrysomia. Journal of Comparative Physiology A. 166, 365-371 (1990).
  23. Straw, A. D., Warrant, E. J., O'Carroll, D. C. A "bright zone" in male hoverfly (Eristalis tenax) eyes and associated faster motion detection and increased contrast sensitivity. The Journal of Experimental Biology. 209, 4339-4354 (2006).
  24. Stavenga, D. G. Reflections on colourful ommatidia of butterfly eyes. The Journal of Experimental Biology. 205, 1077-1085 (2002).
  25. Beersma, D. G. M., Stavenga, D. G., Kuiper, J. W. Organization of visual axes in the compound eye of the fly Musca domestica L. and behavioural consequences. Journal of Comparative Physiology. 102, 305-320 (1975).
  26. Taylor, G. J., et al. Bumblebee visual allometry results in locally improved resolution and globally improved sensitivity. eLife. 8, 40613 (2019).
  27. Rigosi, E., Warrant, E. J., O'Carroll, D. C. A new, fluorescence-based method for visualizing the pseudopupil and assessing optical acuity in the dark compound eyes of honeybees and other insects. Scientific Reports. 11, 21267 (2021).

Tags

Biologia Edição 181
Gráfico automatizado do espaço visual dos olhos compostos housefly
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Muñoz Arias, M., Douglass, J.More

Muñoz Arias, M., Douglass, J. K., Wehling, M. F., Stavenga, D. G. Automated Charting of the Visual Space of Housefly Compound Eyes. J. Vis. Exp. (181), e63643, doi:10.3791/63643 (2022).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter