Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Engineering

Medición espacialmente y direccionalmente variable dispersión de luz de material biológico

Published: May 20, 2013 doi: 10.3791/50254

Summary

Se presenta un método no destructivo para el muestreo de la variación espacial en la dirección de la luz dispersada a partir de materiales estructuralmente complejas. Al mantener el material intacto, preservamos el comportamiento de dispersión de escala gruesa, mientras que al mismo tiempo captar contribuciones direccionales escala fina con imágenes de alta resolución. Los resultados se visualizan en el software en las posiciones y escalas biológicamente relevantes.

Abstract

La luz interactúa con tegumento de un organismo en una variedad de escalas espaciales. Por ejemplo, en una ave iridiscente: estructuras a nanoescala producen el color, la estructura mili-escala de barbas y bárbulas determina en gran medida el patrón direccional de la luz reflejada, ya través de la estructura espacial macro-escala de superposición, plumas curvadas, estos efectos direccionales crear la textura visual. Efectos Milli escala y macro escala determinan en qué parte del cuerpo del organismo, y por lo que los puntos de vista y en que la iluminación, los colores iridiscentes se ven. De este modo, el flash muy direccional del color brillante de la garganta iridiscentes de un colibrí se explica adecuadamente por su estructura a escala nano solo y preguntas permanecen. Desde un punto de observación dado, que los elementos mili-escala de la pluma están orientados para reflejar fuertemente? ¿Algunas especies producen más amplio "ventanas" para la observación de las irisaciones que otros? Estas y otras preguntas similares may se le preguntó acerca de los organismos que han evolucionado a un aspecto de la superficie determinada para la señalización, camuflaje, o por otras razones.

Para estudiar los patrones direccionales de dispersión de la luz de las plumas, y su relación con la morfología de escala mili del ave, se desarrolló un protocolo para la medición de la luz dispersada a partir de materiales biológicos con muchas fotografías de alta resolución tomadas con distintos iluminación y visualización de direcciones. Como medimos la luz dispersada en función de la dirección, se puede observar los rasgos característicos de la distribución direccional de la luz dispersada por esa pluma especial, y porque barbas y bárbulas se resuelven en nuestras imágenes, podemos atribuir claramente las funciones de dirección para estos diferentes estructuras de escala mili. Mantener la muestra intacta preserva el comportamiento de dispersión escala bruta visto en la naturaleza. El método descrito aquí presenta un protocolo generalizado para analizar espacialmente-y-direccionalmente VArying dispersión de la luz a partir de materiales biológicos complejos en múltiples escalas estructurales.

Introduction

El color y el patrón de tegumento de un organismo desempeñan funciones ecológicas y de crítica social en la mayoría de los taxa animales. Estas propiedades fenotípicas son determinados por la interacción de la luz con la estructura del tegumento, que puede exhibir dispersión óptica que varía tanto espacial (a través de la superficie del tegumento) y direccionalmente (con el cambio en la iluminación y la dirección de visión). En los materiales biológicos complejos, tales como plumas, la dirección de dispersión de la luz se ve influida por la orientación de repetir geometría mili-escala. Estas mismas estructuras mili escala pueden ser incorporados a las estructuras a nanoescala, como arrays de melanina, que a menudo heredan la orientación a escala mili. De nano-a macro-escalas, la estructura del tegumento ha evolucionado funcionalmente para aumentar la capacidad de señalización del organismo. Con el fin de evaluar la influencia de la morfología de las diferentes escalas en la apariencia general, herramientas paramedir y analizar el color de las estructuras biológicas necesitan flexibilidad para aislar dispersión de la luz direccional a varias escalas de ampliación.

Hemos desarrollado herramientas de medición basadas en imágenes para estudiar cómo el rendimiento de la morfología de escala mili complejo y variado de una pluma (ramas lengüeta, barbules distales y proximales barbules) amplía la gama de expresión posible de estructuras de nanoescala solo. En una sola imagen registrada por la cámara, se observó que la luz reflejada de manera diferente en diferentes lugares sobre la superficie de la pluma, es decir, reflectancia de la luz fue espacialmente variable. Cuando nos mudamos de la dirección de la luz y la cámara con respecto a la pluma, se observó la reflectancia cambiado, es decir, reflexión de la luz fue direccionalmente variando 1. A raíz de estas observaciones, se ha diseñado un protocolo para moverse metódicamente la luz y una cámara en torno al tema mediante un pórtico esférica 2,3, con el que capturamos 2 dimensiones de doposición rface (X e Y), 2 dimensiones de la dirección de la luz (latitud y longitud) y 2 dimensiones de la dirección de la cámara (latitud y longitud) (Figura 2). En el software se exploraron visualmente las 6 dimensiones de la luz dispersada en función de la posición, la dirección de iluminación y dirección de la vista.

Las investigaciones previas sobre la reflectancia de tegumentos ha descontado demasiada frecuencia la contribución de direccionalidad - por ejemplo, la reflexión difusa vs especular o isotrópica vs anisotrópico - a la expresión del color. La mayoría de las mediciones de color se han fijado la luz incidente, objeto, y la geometría de visualización de evitar cuidadosamente los efectos direccionales. Por ejemplo, para eliminar la reflexión especular a partir de las mediciones de color, es común colocar la luz normal a la superficie y registrar la reflectancia a 45 ° de la normal. Los estudios que hacen enlace morfología direccionalmente variable reflectancia suelen centrarse en la nano escalay sus consecuencias iridiscentes 4-8. Pocos consideran que la contribución de las micro, milisegundos y geometrías macro-escala para la firma óptica de campo lejano 8-11. Por lo tanto, es común emplear un detector de luz de reflexión global a través de una única área de interés que pueden incluir varios componentes mili-y / o macro-escala, tales como ramas de púa, barbas, e incluso plumas enteras 6,8,11-17 . Cuando la región de interés es o bien más pequeño que el límite de resolución del detector o no se ajusta a la forma del campo del detector de vista, el protocolo común especifica disección espécimen para aislar la dispersión de la luz desde el elemento de escala mili específico 8,10 , 13,15.

Hemos desarrollado un protocolo más amplio para la adquisición de la medición y visualización que permite la exploración de las muchas variables a menudo ignorados en otros estudios más específicos. Medimos la dispersión de la luz en un campo de direcciones y acrossa región del espacio con un conjunto masivo de alto rango dinámico, fotografías de alta resolución tomadas desde un conjunto sistemático de la luz y direcciones de visión. Contamos con un sensor de imagen de alta resolución con su variedad de detectores de píxeles en 2D a escala fina. Agregación en el hardware se produce a nivel de píxel, en una escala más pequeña que los elementos mili-escala que estamos midiendo. Una segunda etapa agregados píxeles individuales de software que el usuario selecciona la forma y el tamaño de la región de interés. En consecuencia, un único conjunto de medición puede ser analizado varias veces en el software para explorar diferentes aspectos de la interacción de la luz con el material en múltiples posiciones y escalas biológicamente relevantes. Mediante la eliminación de la disección y la medición de toda la pluma, nuestro protocolo tiene la ventaja de dejar la morfología de la paleta pluma intacta, conservando contexto natural y la función, es decir, las interacciones de luz entre los elementos constitutivos escala mili.

Dispersión de la luz de organismal structura es multidimensional y difícil de cuantificar. Medidas de dispersión de luz 6D no puede aún ser atribuido a la morfología específica dentro de una jerarquía de escala con cualquier instrumento singular. Pero hemos dado un paso importante en esta búsqueda. Hemos desarrollado una herramienta que abarca tres métodos complementarios - reflectancia de muestreo utilizando el pórtico, la exploración de grandes volúmenes de datos en el software, y la visualización de subconjuntos de datos gráficamente - de ampliar nuestra capacidad de medir la dispersión de la luz 6D en cualquier punto de un material, hasta el escala mili. Como se emplean protocolos como el nuestro, nosotros predecimos biólogos identificar miles de rasgos direccionalmente y espacialmente variable y adaptaciones estructurales correspondientes a múltiples escalas de desarrollo. Utilizando nuestras herramientas nos dedicamos a caracterizar el potencial de señalización de la expresión direccional y espacial de las estructuras mili-escala, y la esperanza de arrojar luz sobre las consecuencias adaptativas. Nos dirigimos a una serie de preguntas, tales como: a partir de unay dado el punto de observación, que los elementos a escala fina o regiones a escala bruto de la pluma se hacen eco? ¿Cómo afecta la orientación de los elementos a escala fina influir en la dirección de la luz dispersa? ¿Qué condiciones morfológicas producen un brillo satinado vs un brillo de lentejuelas del ornamento iridiscente? ¿Algunas especies producen más amplio "ventanas" para la observación de las irisaciones que otros? Estas preguntas pueden ser preguntado por las aves y sus plumas, sino también sobre otros organismos que han evolucionado a un aspecto de la superficie determinada para la señalización, camuflaje, o por otras razones.

Protocol

Al usar nuestros métodos para medir una muestra, el investigador debe decidir sobre un conjunto de cámara y direcciones de luz, y para cada combinación de direcciones cámara y la luz, la cámara realiza varias exposiciones con diferentes velocidades de obturación. Traslado de la cámara requiere un procesamiento adicional, debido a que cambia el punto de vista de la muestra como se ve en la imagen, por lo que normalmente utilizan un pequeño número de direcciones de la cámara y un mayor número de direcciones de fuente de luz.

En los protocolos detallados a continuación, lo primero que describen cómo realizar una medición con varias direcciones de fuente de luz y una sola dirección de la cámara, y la forma de procesar y visualizar los datos resultantes (Protocolo 1). En el protocolo primario, que puede ser utilizado por sí mismo cuando un solo punto de vista es suficiente para observar los fenómenos que se estudian, siempre tenemos la cámara de visión perpendicular a la muestra (Rutina Principal en la Figura 1). Cuando se requieren múltiples direcciones de cámara, elresultante vistas oblicuas de la muestra puede ser deformado para deshacer los efectos del movimiento de la cámara y por lo tanto para alinear las imágenes exactamente con la vista perpendicular canónica. Para el cálculo de estas deformaciones, llevamos a cabo medidas adicionales de calibración que utilizan observaciones de los objetivos colocados alrededor de la muestra para determinar con precisión el movimiento de la cámara con respecto a la muestra. Protocolo 2 detalla este procedimiento de calibración y explica cómo seleccionar parámetros y ejecutar Protocolo 1 varias veces para recopilar datos de múltiples puntos de vista (rutinas secundarias en la Figura 1). Por último, el Protocolo 3 detalla los pasos adicionales que se deben insertar en el Protocolo 1 de rectificar las vistas oblicuas durante el procesamiento de datos.

1. Medir la luz dispersada en la dirección de la normal a la superficie sobre la Esfera de Incidentes llegar (Rutina Principal en la Figura 1)

  1. Preparar y montar el objeto a medir
    1. Prepare una placa de montaje de metal ferroso finocon una abertura de ½ pulgada rodeado por un anillo de objetivos (como se ve en la Figura 2).
    2. Preparar el material a medir. Si la medición de una pluma, el novio de las púas para corregir cualquier sección descomprimidos o desalineada de la paleta pennaceous.
    3. Coloque la superficie del objeto (la cara anverso de la pluma) contra el lado posterior (frente al anillo de objetivo) de la placa.
    4. Centro de la región de interés sobre la abertura de ½ pulgada de la placa.
    5. Colocar una hoja de película magnética con una abertura de 5/8-inch contra el lado posterior del objeto (la cara inversa de la pluma), presionando así el objeto plano contra la placa.
    6. Alinear la abertura de la película a la abertura de la placa sin cizallamiento de la superficie. La superficie aplanada, fijado alrededor de la circunferencia de la abertura circular, se obtiene una superficie plana macro-aproximadamente coincidente con la superficie de la placa.
  2. Configure el Gantry
    1. Localice elcentro de la abertura circular en el origen del sistema de coordenadas de pórtico.
    2. Coloque una fuente de luz en el brazo exterior del pórtico. Apunta y estrecho enfocar la luz en el objeto, asegurando que la abertura está iluminado de manera uniforme para todos los ángulos de fuente de luz.
    3. Coloque la cámara en la parte interna del brazo de pórtico. Ajustar la distancia de la cámara y la longitud focal de la lente macro hasta que el anillo de objetivos llena la anchura del sensor.
    4. Calibrar los movimientos de rotación (θ, φ) de la cámara y los brazos de la lámpara. Calibrar la inclinación (θ) con respecto a la superficie del objeto normal, de modo que la cámara y la lámpara están alineados con la superficie normal cuando θ = 0. Calibrar el acimut (φ) de la cámara para el acimut de la lámpara. La orientación azimutal absoluta no es crítica, ya que las imágenes capturadas se pueden rotar más adelante en el protocolo.
  3. Configure el enfoque y la exposición de la cámara
    1. Nóminate de la cámara hasta que el objeto se ve en un ángulo de pastoreo. Disminuir el número f para minimizar la profundidad de campo (DOF), a continuación, establecer el plano de enfoque en el centro de la abertura. Aumentar el número f para aumentar el DOF hasta que el anillo de objetivos que rodean la abertura está en el foco. Puede ser necesario un compromiso entre la difracción y el desenfoque DOF inducida.
    2. Sujete un estándar de color plano sobre la placa de montaje. En las imágenes RGB utilizan un Macbeth Color Checker. Para las mediciones de UV-visible-NIR utilizar Spectralon.
    3. Fotografiar el estándar de color en formato RAW. Cálculo de los multiplicadores de canal de color para el balance de blancos de la imagen.
    4. Encontrar el soporte de la exposición que se extiende el rango dinámico de la escena bajo la visión más extrema y las direcciones de iluminación.
    5. Para cada tiempo de exposición en el soporte, adquirir una imagen de ruido oscuro mediante la exposición del sensor con la tapa de la lente.
  4. Adquirir las mediciones de una Esfera Escasamente muestreado de Incidentes llegar
    1. Coloque el eje de la cámara normal al plano de la superficie {θ, φ} = {0,0}.
    2. Paso de la luz a través de una serie de posiciones distribuidas uniformemente sobre la esfera, el uso de un muestreo gruesa (por ejemplo, menos de 500 puntos).
    3. Para cada dirección de la luz incidente en la toma de muestras:
    4. Captura de una imagen en bruto para cada tiempo de exposición en el soporte de la exposición.
    5. Captura una imagen única iluminada por el flash de la cámara montada sincronizado con un tiempo de exposición relativamente corto para suprimir la lámpara de iluminación del pórtico.
    6. Avanzar a la siguiente dirección de la luz incidente y la repetición.
  5. Las mediciones de proceso de Esfera Escasamente muestreado
    1. Usando el modo de dcraw una versión de depuración (documento) para desactivar su función de interpolación de la matriz, convertir de formato RAW a escala de grises, de 16 bits, lineal, formato de PGM:
      1. Cada exposición al ruido oscuro.
      2. Cada exposición del objeto en cada dirección de la luz incidente.
      3. </ Ol>
      4. Integrar todo bajo rango dinámico (LDR) a las exposiciones en escala de grises bajo pórtico de la lámpara de iluminación en un solo de alto rango dinámico (HDR) de imágenes en color para cada dirección de la luz incidente.
        1. Reste el ruido de la imagen oscura correspondiente de cada LDR exposición.
        2. Demosaic cada LDR exposición para obtener una imagen de la cuarta escala.
        3. Balance de blancos cada LDR exposición utilizando los multiplicadores de canales de color calculados en 1.C.3 paso.
        4. Combinar oscuro-ruido-restado LDR exposiciones en una sola imagen HDR mediante la suma de todos los valores en cada posición de pixel y dividiendo por la suma de los tiempos de exposición, omitiendo sobreexpuestas píxeles de ambas sumas.
        5. Imagen HDR tienda en formato EXR codificada en la precisión media-float y compresión sin pérdida wavelet (PIZ).
      5. Si la dirección de la cámara no es la dirección canónica o de la serie de mediciones es parte de un conjunto de cámara de dirección múltiple (rutinas secundarias en la Figura 1 unProtocolo º 2):
        1. Convertir la sola exposición LDR escala de grises de los objetivos de seguimiento iluminado por el flash para cada dirección de la luz incidente a una escala sin mosaico, un cuarto, LDR imagen en color en formato EXR.
        2. Siga el Protocolo no 3 para utilizar la imagen iluminado por el flash de proyectiva transformar cada imagen de la lámpara de iluminación de HDR en el punto de vista canónico.
      6. Gire las imágenes HDR en la orientación deseada - por ejemplo, en nuestro caso un 90 ° orienta rotación del raquis vertical y la punta pluma arriba.
      7. Recortar las imágenes HDR con fuerza alrededor de la abertura circular. El enmascaramiento de los objetivos y la placa de metal fuera de la apertura reduce el tamaño del archivo hasta en un 25%.
      8. Permutar los datos en todo el conjunto de imágenes HDR para crear un conjunto de archivos, uno para cada uno de varios bloques en la imagen, que contienen todos los valores de reflectancia direccional organizados por píxel. Estos archivos de caché de reflectancia direccional se organizan para permitir un acceso rápido a unall las mediciones de color direccionales en una sola posición de píxel de la proyección 2D del objeto 3D.
    2. Visualizar espacialmente variable dispersión de luz A través de una jerarquía de escala
      1. Para ver las mediciones, utilizar la aplicación SimpleBrowser costumbre de interpretar los datos tratados en 1.E. paso SimpleBrowser abre a una ventana que contiene la imagen de la pluma iluminada por la primera dirección de la iluminación incidente.
      2. En la imagen de la paleta de plumas, los píxeles o grupos de píxeles en arreglos lineales o rectangulares individuales pueden ser seleccionados (Figura 3). Continúe seleccionando una región rectangular de la paleta de plumas para el análisis. Luego, trazar la dispersión media luz direccional de la región seleccionada. Una ventana gráfica que muestra la reflectancia como una función de cosenos de dirección se abre adyacente a la ventana de la imagen (R1 en la figura 4).
      3. Por defecto, la dirección de máxima luminancia (una dirección de transmitancia en una tymedición pluma Pical) se le asigna una exposición de 1. Reducir o aumentar la exposición en un medio de tope (√ 2 x) incrementos para ajustar la exposición del mapa de color de reflectancia.
      4. Ciclo el mapa de color de reflectancia entre luminancia, RGB, y la cromaticidad (Ver R1, R2, y R3 en la figura 4). Para los siguientes pasos utilizan RGB.
      5. Para girar la esfera, haga clic en él para activar la interfaz trackball. Arrastre la interfaz para producir la rotación. Para ver el hemisferio reflectancia, devuelva el ámbito de su posición predeterminada (Ver R2 en la figura 4). Girar la esfera 180 ° de su posición predeterminada para ver el hemisferio transmitancia (Ver T2 en la figura 4).
      6. Por otra vista de los datos, seleccionar el modo de diagrama polar para escalar los radios de cada dirección en la esfera unidad por sus respectivos valores de luminancia. Cambiar el mapa de colores de la esfera a escala luminosidad de RGB a cromaticidad (Ver P3, F3, S3, A3 en la Figura 4
      7. La dirección de la iluminación de la imagen mostrada es un círculo en rojo en el diagrama de dispersión direccional (Figura 4). Haga clic en cualquier otra dirección de la iluminación incidente para mostrar la imagen de la pluma iluminada desde esa dirección.
      8. Disminución o aumento de la exposición de la imagen para revelar una y subexpuestas regiones.
      9. Para investigar la reflectancia a través de una jerarquía de escalas, restaurar el modo de trama a la esfera unidad y el mapa de color a RGB. En opinión, esta trama muestra la reflectancia direccional promedio de la región rectangular seleccionada en la imagen.
      10. Cambiar el tipo de selección de rectangular a lineal (Figura 3). Esto permitirá el estudio de la reflectancia direccional a partir de estructuras individuales a escala fina en la región rectangular.
      11. Trazar la reflectancia de la media lineal en una nueva ventana de tiempo que se mantiene la media rectangular para referencia. Ajuste la exposición y el conjunto del mapa de color a RGB.
      12. (Figura 8). Seleccione una de las direcciones de iluminación en la gráfica lineal para mostrar las barbas distales muy reflectantes en la imagen a la izquierda.
      13. Paso de la línea hacia la punta de la pluma hasta que llega a la región de la pluma en la rama barbules proximal de las ramas adyacentes. En la parcela promedio lineal las barbas proximales son vistas para reflejar la luz en direcciones verticales (Figura 8). Seleccione una de las direcciones para ver las barbillas proximales muy reflectantes en la imagen a la izquierda.
      14. En la trama lineal, observar las estructuras a escala fina que reflejan la luz en direcciones horizontales y verticales se combinan para producir la señal de campo lejano se ve en el diagrama rectangular.

    2. Medir la luz dispersada en múltiples direcciones cámara (Rutina Secundarias en la Figura 1)

    Múltiples vistas de cámara y toma de muestras direccionales no uniforme nos permiten estudiar las características particulares de la reflectancia direccional. Con la incorporación de los pasos de calibración 2.A y 2.B, Protocolo 1 se ha ampliado para manejar múltiples vistas de cámara. Dos ejemplos concretos ilustran gráficamente como rutinas Secundaria II A y II B de la Figura 1 se fijan en los pasos hacia adelante 2.C y 2.D continuación. En tales casos, la dirección de la cámara está alterado de su dirección canónica (normal a la superficie), lo que significa que el objeto es fotografiado desde una dirección inclinada desde su normal a la superficie. Dado que las imágenes deben ser mapeados en el mismo sistema de coordenadas, que rectificar y deformar cada fotografía para que coincida con la orientación canónica haciendo referencia a los objetivos de flash-fotografiados rodean la muestra (Figura 9).

    1. Calibrar Proyección Cámara y Grupo:
      El objetivo de estas medidas son para calcular el proyec cámaraección y la posición que se utiliza en la transformación de imágenes.
      1. Sujete un destino de calibración corrector con estampado plana contra la placa de montaje.
      2. Captura de una imagen en la vista de la cámara canónica (es decir, {θ, φ} = {0,0}) y varias imágenes en varias otras vistas de cámaras distribuidas en un cono de 120 ° centrada en la visión canónica.
      3. Cargar las imágenes en el cuadro de herramientas Bouguet b, una cámara kit de herramientas de calibración MATLAB. Extraer las esquinas de cuadrícula en cada una de las imágenes para reconstruir las matrices de la cámara. Exportar la intrínseca matriz de proyección de la cámara (P) y la cámara extrínseca posición de la matriz (M). La proyección intrínseca cámara se compone de la longitud focal y el punto principal. La posición de la cámara extrínseca se compone principalmente de una traducción, sino que traduce el origen del mundo a la posición de la cámara.
      4. Resuelve para la matriz que transforma las coordenadas de calibración-objetivo a pórtico plato giratorio coordenadas (X), es decir, Bouguet espacio para gantry espacio.
      5. Soltar el patrón de corrector de la placa metálica.
    2. Calibrar posiciones objetivo y desplazamientos de proyección:
      El propósito de estos pasos es para el cálculo de los desplazamientos entre el plano de calibración, el plano del blanco, y la muestra, y para localizar las posiciones de destino.
      1. Girar la cámara en el pórtico coordina de modo que el eje óptico es perpendicular al plano de la superficie, es decir, el marco canónico.
      2. Capturar una imagen del anillo de objetivos que rodea la abertura con iluminación del flash. Esta es la imagen canónica para la alineación de la imagen.
      3. Procesar la salida de la cámara sin procesar (Protocolo descrito en los pasos 1.E.3.a. y 1.E.4.).
      4. Cubra la región dentro y fuera de la zona objetivo del anillo, eliminando los reflejos especulares callejeros que pueden confundir el reconocimiento de destino, y luego encontrar los objetivos en la imagen.
      5. Gire la cámara a un ángulo de incidencia y la captura de una imagen.
      6. Calcular la canónica camera pose (Mc = M * Rc) y la cámara de ángulo pastoreo pose (Mg = M * Rg) sobre la base de la cámara extrínseca matriz M en 2.A.3 paso. que incluye una traducción basada en la posición del patrón de cuadros Bouguet.
      7. Redefinir M compensando su traducción por el espesor del anillo blanco de papel. Iterar por ensayo y error (recalcular M usando un offset para el plano de calibración diferente) hasta que el desplazamiento en el espacio de pórtico entre el plano del tablero de ajedrez Bouguet y el plano del anillo de objetivos, es decir, espesor de la junta blanco de papel, ha sido resuelto. Verifique el desplazamiento en cada iteración por reproyectando los objetivos en el ángulo de la imagen de pastoreo en las metas de la imagen canónica.
      8. Redefinir M siguiendo el procedimiento de la etapa anterior en volver a proyectar el objeto con aberturas en la imagen ángulo de incidencia sobre el objeto con aberturas en la imagen canónica por ensayo y error hasta que el desplazamiento en el espacio de pórtico entre el plano del anillo de objetivos y el plano Of el objeto aberturas, es decir, grosor de la placa de metal, se ha resuelto.
    3. Mide siete hemisferios reflectancia no uniformemente muestreados (II.A rutina Secundaria en la Figura 1)
      1. Examine la distribución direccional de la luz reflejada medida de la vista de la cámara normal a la superficie, es decir, {θ, φ} = {0,0} tal como se describe en el Protocolo 1. Volver a muestrear el hemisferio reflectancia para grabar resplandor cámara desde direcciones no especular más escasamente y direcciones especulares más densamente.
      2. Aplicar los mismos criterios para probar la reflectancia de las 6 direcciones adicionales de la cámara uniformemente distribuidas en la mitad de un continente, es decir, {θ, φ} = {30,0}, {30,90}, {60,0}, {60,45} , {60,90}, {60135}. Predecir las regiones especulares de las 6 carreras adicionales de la dirección de la visión de cada uno junto con el ángulo de reflexión de la ejecución inicial.
      3. Para cada uno de los 7 no uniformely hemisferios muestra, adquieren y procesan las mediciones siguiendo las instrucciones de los pasos 1.D. y 1.E. anteriormente.
      4. Examinar visualmente la reflectancia direccional de la misma región de la pluma en cada una de las 7 de manera no uniforme hemisferios muestra, siguiendo las instrucciones de 1.F. paso anteriormente. Organizar las parcelas de reflectancia direccional para cada uno de los 7 direcciones de cámara en un sistema de coordenadas polares, donde la colocación de cada trama se basa en su dirección de la cámara (Ver los resultados visuales de II.A de rutina en la Figura 1; también la Figura 5).
    4. Mida finamente en la muestra trayectorias semicirculares para adquirir información detallada acerca de cambio de color con el ángulo (II.B de rutina secundaria en la Figura 1)
      1. Inicie la aplicación SimpleBrowser y la entrada de las mediciones procesadas del hemisferio reflectancia no uniformemente muestreada con dirección de la cámara {θ, φ} = {0,0} como se describe en 2.C.1 Pasos. Seleccione ele píxel de la imagen, a continuación, ajusta un avión para el percentil 90 de la luminancia de la reflectancia hemisférica en la posición de píxel seleccionado.
      2. Construir una carrera 1D adquisición que finamente muestras de reflectancia especular en el plano especular. Generar ángulos del brazo pórtico ½ ° incrementos de media ángulo en el plano definido en el paso anterior. Comience con el medio-ángulo igual a 0 ° y aumentar el ángulo medio de 90 °. Para cada medición en el plazo de adquisición, mantener constante el medio-vector y igual a la normal de la superficie de manera que cada dirección de la cámara se encuentra en la dirección especular.
      3. Adquirir y procesar mediciones siguiendo las instrucciones de los pasos 1.D. y 1.E. anteriormente.
      4. Ver visualmente la reflectancia direccional 1D siguiendo las instrucciones de 1.F. paso, mientras que el muestreo de una región muy pequeña (por ejemplo, 3x3 píxeles) centrado en el mismo píxel se utiliza para encajar el plano especular en 2.D.1 paso. Encontrar la dirección de la reflectancia máxima, es decir,sombreado normal. Construir 3 adquisición adicional se ejecuta en la misma manera que 2.D.2 paso., Pero establece el medio-vector para el sombreado normal, en lugar de la normal de la superficie. Para las 3 carreras adicionales, generar ángulos de brazo de pórtico que se encuentran en planos que contienen el sombreado normal, pero que se hacen girar 45 °, 90 °, y 135 ° con respecto al plano especular definido en 2.D.1 paso.
      5. Adquirir y procesar mediciones siguiendo las instrucciones de los pasos 1.D. y 1.E. anteriormente.
      6. Ver visualmente la reflectancia direccional 1D siguiendo las instrucciones de 1.F. paso, mientras que el muestreo de una región muy pequeña (por ejemplo, 3x3 píxeles) centrada en el píxel se utiliza para encajar el plano especular en 2.D.1 paso. Exportar desde SimpleBrowser la media refleja irradiación de esta región muy pequeña.
      7. En MATLAB, trazar su cromaticidad como una función de medio-ángulo en un diagrama de cromaticidad (Figura 6). Trazar su matiz, croma, y ​​la luminancia como una función de la media de ángulo (<strong> Figura 7).
      8. Construcción de cuatro adquisición más 1D se ejecuta en los mismos cuatro planos como anteriormente, pero esta vez configurar las direcciones de luz y una cámara para medir la anchura y la decadencia de la reflectancia especular. Ajuste el ángulo medio entre la luz y la cámara a un 10 ° constante. Generar los ángulos del brazo de pórtico en incrementos de medio-vector 1 ° alrededor del eje ortogonal al plano. Comience con una media-vector de igual a -80 ° y aumentar la media-vector a 80 °, donde 0 ° es igual a la de sombreado normal. Tenga en cuenta que no todas las direcciones de la cámara se encuentran en la dirección especular.
      9. Adquirir, procesar y mediciones exportación siguiendo las instrucciones de los pasos 1.D. y 1.E. y 2.D.6. respectivamente.
      10. En MATLAB, trazar su cromaticidad en un diagrama de cromaticidad como una función del ángulo entre el medio y el vector y la normal sombreado. Trazar su matiz, croma, y ​​la luminancia como una función del ángulo entre el vector de media-y el sombreado normal.

      3. Transformación proyectiva

      Proyectiva transformar cada imagen HDR en la vista canónico o la dirección de la vista ortogonal al plano de la superficie. Este protocolo se accede a paso 1.E.3.b cuando una serie de mediciones es parte de un conjunto de dirección de la cámara múltiple, tales como los ejemplos descritos en el Protocolo 2 y se ilustra gráficamente como rutinas secundarias en la Figura 1.

      1. Leer una imagen canónica iluminada desde una dirección no especular. (Al direcciones especulares pastoreo la menor contraste entre la superficie blanca del papel y la tinta negro puede conducir a apuntar fallos de detección. Compare la claridad de la imagen A y B en la figura 9.)
      2. Localiza las coordenadas del centro de cada objetivo en la imagen canónica.
      3. Cargar la imagen del objetivo iluminado por flash de la cámara montada en un par de lámpara de la cámara direccional dado (B en la Figura 9).
      4. Aproximadamente transform la imagen de destino en el marco de la cámara canónica mediante el pórtico cámara matricial M computarizada en 2.B.7 paso.
      5. Localiza las coordenadas del centro de cada objetivo en la imagen de destino transformado (C en la Figura 9).
      6. Relacionar cada objetivo en la imagen de destino transformado a su objetivo de referencia en la imagen canónica mediante la búsqueda de la distancia mínima entre la imagen y objetivos de referencia.
      7. Deseche todos los objetivos borrosas causadas por el DOF en ángulos de pastoreo (D en la Figura 9).
      8. Resolver el 2D proyectiva transformar esa imagen mapas se dirige en el marco canónico a los objetivos canónica-imagen en el mismo marco.
      9. Untransform las deformadas para el montaje objetivos del marco de la imagen canónica de nuevo al cuadro de la imagen original a través del plano del objeto perforada (M en 2.B.8 paso.) Más que el plano de los objetivos (M en el paso 2. B.7.).
      10. Guardar los pares de coordenadas de destino que se asignan al objeto aberturas en la imagen de destino a la ob perforadaproyecto en la imagen de destino canónico.
      11. Cargar la imagen HDR iluminada por la lámpara (A en la Figura 9).
      12. Inferir una espaciales proyectivas transformar de final almacenado pares de coordenadas para transformar la imagen HDR en el marco canónico (E en la figura 9).
      13. Volver al protocolo principal.

      un Dcraw es un programa informático de código abierto desarrollado por David ataúd. Convierte propia imagen en formato RAW de la cámara (es decir, datos CCD sin procesar) a un formato de imagen estándar. Ver http://www.cybercom.net/ ~ dcoffin / dcraw / .

      b Bouguet Toolbox es una caja de herramientas de calibración de la cámara para MATLAB desarrollado por Jean-Yves Bouguet. Ver http://www.vision.caltech.edu/bouguetj/calib_doc .

Representative Results

La medida primaria de nuestro protocolo (Rutina I en la Figura 1) fija la dirección de la cámara normal a la superficie y sólo se movió la luz. Dado que la luz se adhiere dispersión al principio de reciprocidad, el resultado es el mismo si mantenemos constante la cámara mientras se mueve la luz en el hemisferio, o viceversa. Cuando fijamos la cámara o de la luz, el juego completo dirección 4-dimensional se submuestreada. Se observa una imagen más completa del comportamiento de la dispersión cuando, a diferencia de la medición primaria, tanto de la luz y la cámara se mueven lejos de la normal de la superficie y en una multiplicidad de direcciones. Lo ideal sería que pudiéramos medir la dispersión de luz de muchas direcciones de cámara, para cuantos el número de direcciones de luz incidente, para producir un conjunto de datos simétrica. En la práctica, esto requeriría demasiadas exposiciones. En nuestra experiencia, podemos obtener suficiente información acerca de las diferentes posiciones de visión moviendo la cámara algunas veces assuming 180 ° simetría rotacional alrededor de la normal de la superficie. Durante la fase de medición secundaria, adquirimos mediciones de 7 direcciones visuales distribuidas en el hemisferio y dentro de 60 ° del cenit 18,19 (II.A de rutina en la Figura 1).

En las figuras de este trabajo, mostramos datos representativos y medidos de una pluma de Lamprotornis purpureus (Starling brillante púrpura), la reflectancia de las cuales es iridiscente, brillante y anisotrópico (Figura 5). En cada una de las direcciones de visión 7, la luz reflejada se recoge de cientos de direcciones luminosas incidentes en el hemisferio. Las direcciones forman una banda estrecha orientada ortogonalmente al eje central de la pluma (ver imagen Pluma en la Figura 4). El cambio de color iridiscencia es sutil (de color verde azulado en incidencia normal y de color azul verdoso en incidencia rasante) cuando la pluma se considera normal a su superficie como se ve en la {0 °, 0 y deg;} RGB gráfica de la Figura 5. A medida que el ángulo de visión de los enfoques de pastoreo, los ángulos entre la dirección de la visión y la dirección incidente de pastoreo se maximizan, lo que lleva a un cambio de color más llamativo (azul-verde a 0 ° y magenta a 240 ° entre los hechos y las direcciones visuales) como se ve en la {60 °, 0 °} RGB parcela en la Figura 5.

Nos podemos permitir el paso de la luz y una cámara en gran resolución angular más fina cuando se restringe el movimiento de dimensión 1. Figura 6 muestra la cromaticidad de la reflectancia de L. plumaje purpureus como una función del ángulo entre el incidente y direcciones de visión, donde el incidente y direcciones de observación están en el plano que contiene la banda especular, que es perpendicular al eje longitudinal de la bárbula distal. En los arcos de colores iridiscentes por el espacio cromático, el color cambia del verde azulado al púrpura.

Variabilidad espacial ción en la reflectancia direccional es visible cuando sean diferentes (X, Y) las coordenadas del tegumento corresponden a diferentes estructuras de escala mili. En el caso de L. purpureus sólo una estructura - la bárbula distal - es visible sobre la mayor parte de la zona. Por el contrario, en C. cupreus, tres estructuras mili escala - las ramas distales, barbas y bárbulas proximal - se distingue claramente en los datos, se puede observar que la reflectancia de la pluma se orienta con respecto al eje longitudinal de cada estructura (Figura 8) .

Figura 1
Figura 1. Esta visión esquemática muestra dos métodos de montaje, el sistema de coordenadas de pórtico esférica, tipos de muestreo de adquisición y sus respectivos resultados. / Ftp_upload/50254/50254fig1large.jpg "target =" _blank "> Haga clic aquí para ver más grande la figura.

La figura 2
Figura 2. La pluma aplanada es visible a través de una abertura en una placa de metal rodeado por un anillo de objetivos. Un pórtico esférica se puede plantear para medir la dispersión de luz de una pluma en la iluminación incidente múltiple y direcciones visuales. L = brazo Light (latitud). C = brazo de la cámara (latitud). B = Cámara Base (longitud). T = Turntable (longitud). F = Feather.

Figura 3
Figura 3. Promedio de dispersión direccional puede ser calculada a partir de una región de punto, línea o rectangular de paleta pluma.

p_upload/50254/50254fig4highres.jpg "src =" / files/ftp_upload/50254/50254fig4.jpg "/>
La Figura 4. Ejemplo de dispersión direccional representación de funciones (R * = reflectancia, T * = transmitancia, P * = C * = Top, Front, S * = Side, A * = arbitraria) a los regímenes y color (* 1 = luminancia, * 2 = RGB , * 3 = cromaticidad). Haga clic aquí para ver más grande la figura .

La figura 5
Figura 5. La luminancia (parte superior) y de color RGB (parte inferior) de la reflectancia hemisférica en sentido espacio coseno según se ve desde los (ángulo de elevación, ángulo de azimut) pares de coordenadas: {0 °, 0 °}, {30 °, 0 °}, { 30 °, 90 °}, {60 °, 0 °}, {60 °, 45 °}, {60 °, 90 °}, y {60 °, 135 °}. La reflectancia es promediado a partir de una región rectangular 25 × 25 píxeles de la aleta lateral de una L. terciarias purpureus (Starling brillante púrpura) pluma. Las flechas rojas representan direcciones cámara. Haz clic aquí para ver más grande la figura .

La figura 6
La Figura 6. Cromaticidad de la reflectancia en función del ángulo medio entre la luz incidente y direcciones visuales:. CIE 1976 Escalas cromáticas uniformes (USC) con la región ampliada Haga clic aquí para ver más grande la figura .

/ 50254/50254fig7highres.jpg "src =" / files/ftp_upload/50254/50254fig7.jpg "/>
Figura 7. La reflectancia como una función del ángulo entre la iluminación incidente y direcciones de visión, en el plano con (rojo) y perpendicular a (sombreada) del eje longitudinal de la bárbula distal: (A) longitud de onda dominante, (B) Porcentaje de croma, (C ) Porcentaje de luminancia. El sombreado de color en la parcela A es el color RGB de la reflectancia. Los valores negativos representan los colores de longitud de onda en el triángulo púrpura no espectral. Haz clic aquí para ver más grande la figura .

Figura 8
Figura 8. Promedio de reflectancia direccional barbules distales y proximales bárbulas entre dos ramas adyacentes del C. cupreus (African Emerald Cuckoo).

Figura 9
La Figura 9. (A) Imagen no rectificado iluminada por la luz del pórtico, (B) no rectificado imagen iluminada por el flash de la cámara, (C), se filtró candidatos destino en afín-transformado, imagen flash con iluminación, (d) Objetivos aceptablemente nítidas en profundidad de campo, (E) Rectificado imagen Lámpara iluminada, (F) Girado pluma punta hacia arriba, se ha cosechado y enmascarados. Haz clic aquí para ver más grande la figura .

Discussion

Aunque el rendimiento y la función de muchas coloraciones pigmentarias y estructurales son bien reconocidos, la morfología de muchos tegumentos es tan complejo que su detalle estructural y función, son poco conocidos 20. Tegumentos han desarrollado especializaciones que varían espacialmente sobre la superficie del organismo para reflejar la luz diferencialmente direccionalmente hacia el espectador. Direccionalidad ha recibido atención principalmente en el estudio de la iridiscencia debido a su cambio de color con el cambio de incidente y ángulo de visión, y la investigación de iridiscencia de tegumento biológica ha obtenido principalmente 1D y 2D algunas mediciones 8,12,17. Sin embargo, las mediciones 6D generalizadas no han sido rutina en el estudio de tegumentos 21-23, iridiscentes o de otra manera, y la literatura sobre fenotipos de color organismal se ve limitada por la falta de datos de color direccionales del tipo nuestro método proporciona.

La pluma es especialmente rmateriales tegumentario ich compuesto por un régimen de estructura mili-escala de las barbas: rami, barbules distales y proximales barbas. La pequeña escala de los elementos y sus complejos arreglos hacen que sea difícil discernir el comportamiento de dispersión de luz de los elementos individuales. Nuestro protocolo lograron aislar la estructura a gran escala mili de la influencia de la geometría macro escala. Al caracterizar las consecuencias funcionales de la expresión de dirección de las estructuras mili-escala a la firma en el campo lejano de la pluma, hemos habilitado investigación sobre sus consecuencias adaptativas.

Enfrentamos intercambios prácticos entre espectral, resolución espacial y angular. Elegimos alta resolución espacial, angular media y baja espectral para nuestros estudios. Otras combinaciones podrían ser utilizados, pero algunos (por ejemplo, todos los alta) conducen a tiempos de medición unworkably largos. La atención debe centrarse en los que es importante para los fenómenos particulares que se están estudiando. En la elección de emplear un ca RGBmera con un filtro de mosaico Bayer, hemos diseñado nuestro protocolo para que coincida con el sistema visual humano. La cámara RGB podría ser sustituido y nuestro protocolo adaptado para medir el estímulo de color relativa de cualquier organismo, se necesita por ejemplo, sensibilidad en el espectro UV para medir aviar tetra-cromática de color 24,25. Una cámara de imagen espectral sería la solución más general 25.

Demostramos nuestro protocolo con plumas de las alas terciarias ya que son coloridos y fácilmente aplastado contra una placa de referencia. Por desgracia, la abertura de la placa de metal reveló sólo una fracción de la superficie de la pluma. Si se pudiera medir simultáneamente la forma 3D de la superficie de la pluma, mientras que la medición de su reflectancia 25, podríamos evitar mecánicamente el aplanamiento de la pluma y en lugar de medir la totalidad de la pluma en su estado natural, sin aplanar.

Herramientas interactivas, especializados e integrados para la visualización de datos proporcionan substantial beneficiar a los científicos explorar e interpretar grandes volúmenes de datos. Cuanto mayor sea la integración y la interactividad, se observan las conexiones más fáciles en los datos. En nuestro software, un usuario puede trazar interactiva dispersión direccional promedio como una función de la posición de la superficie (Figura 4). Un mayor desarrollo de nuestro software puede integrar otras funciones gráficas (Figuras 6, 7) para extender la experiencia interactiva.

Disclosures

No hay conflictos de interés declarado.

Acknowledgments

Esta investigación fue financiada por la National Science Foundation (NSF premio CARRERA CCF-0.347.303 y subvenciones NSF CCF-0541105). Los autores desean agradecer a Jaroslav Křivánek, Jon Luna, Edgar Velázquez-Armendáriz, Wenzel Jakob, James Harvey, Susan Suarez, Ellis Loew, y John Hermanson por sus contribuciones intelectuales. El Cornell esférico pórtico fue construido a partir de un diseño debido a Duane Fulco, Marc Levoy y Szymon Rusinkiewicz.

References

  1. Nicodemus, F., Richmond, J., Hsia, J., Ginsberg, I., Limperis, T. Geometric considerations and nomenclature for reflectance. , National Bureau of Standards, U.S. Department of Commerce. (1977).
  2. Marschner, S. R., Jensen, H. W., Cammarano, M., Worley, S., Hanrahan, P. Light scattering from human hair fibers. ACM Transactions on Graphics (TOG). 22 (3), 780-791 (2003).
  3. Marschner, S. R., Westin, S., Arbree, A., Moon, J. Measuring and modeling the appearance of finished wood. ACM Transactions on Graphics (TOG). 24 (3), 727-734 (2005).
  4. Land, M. F. The physics and biology of animal reflectors. Progress in Biophysics and Molecular Biology. 24, 75-106 (1972).
  5. Durrer, H. Colouration. Biology of the Integument: Vertebrates. 2 (12), 239-247 (1986).
  6. Brink, D., van der Berg, N. Structural colours from the feathers of the bird Bostrychia hagedash. Journal of Physics D-Applied Physics. 37 (5), 813-818 (2004).
  7. Kinoshita, S. Structural colors in the realm of nature. , World Scientific. (2008).
  8. Nakamura, E., Yoshioka, S. Structural Color of Rock Dove's Neck Feather. Journal of the Physical Society of Japan. 77 (12), 124801 (2008).
  9. Westin, S., Arvo, J., Torrance, K. E. Predicting reflectance functions from complex surfaces. ACM SIGGRAPH Computer Graphics. 26 (2), 255-264 (1992).
  10. Shawkey, M. D., Maia, R., D'Alba, L. Proximate bases of silver color in anhinga (Anhinga anhinga) feathers. Journal of Morphology. 272 (11), 1399-1407 (2011).
  11. Maia, R., D'Alba, L., Shawkey, M. D. What makes a feather shine? A nanostructural basis for glossy black colours in feathers. Proceedings of the Royal Society B: Biological Sciences. 278 (1714), 1973-1980 (2011).
  12. Dyck, J. Structure and light reflection of green feathers of fruit doves (Ptilinopus spp.) and an Imperial Pigeon (Ducula concinna). Biologiske Skrifter (Denmark). 30, 2-43 (1987).
  13. Yoshioka, S., Kinoshita, S. Effect of macroscopic structure in iridescent color of the peacock feathers. Forma. 17 (2), 169-181 (2002).
  14. Osorio, D., Ham, A. Spectral reflectance and directional properties of structural coloration in bird plumage. Journal of Experimental Biology. 205 (14), 2017-2027 (2002).
  15. Stavenga, D. G., Leertouwer, H. L., Pirih, P., Wehling, M. F. Imaging scatterometry of butterfly wing scales. Optics Express. 1 (1), 193-202 (2009).
  16. Vukusic, P., Stavenga, D. G. Physical methods for investigating structural colours in biological systems. Journal of Royal Society Interface. 6, Suppl 2. S133-S148 (2009).
  17. Stavenga, D. G., Leertouwer, H., Marshall, N. J., Osorio, D. Dramatic colour changes in a bird of paradise caused by uniquely structured breast feather barbules. Proceedings of the Royal Society B: Biological Sciences. 278 (1715), 2098-2104 (2010).
  18. Irawan, P. Appearance of woven cloth [dissertation]. , Cornell University. (2008).
  19. Irawan, P., Marschner, S. R. Specular reflection from woven cloth. ACM Transactions on Graphics (TOG. 31 (1), 11:1-11:20 (2012).
  20. Vukusic, P. Structural colour: elusive iridescence strategies brought to light. Current Biology: CB. 21 (5), R187-R189 (2011).
  21. Dana, K., Ginneken, B., Nayar, S., Koenderink, J. Reflectance and texture of real-world surfaces. ACM Transactions on Graphics (TOG). 18 (1), 1-34 (1999).
  22. Chen, Y., Xu, Y., Guo, B., Shum, H. -Y. Modeling and rendering of realistic feathers. ACM Transactions on Graphics (TOG). 21 (3), 630-636 (2002).
  23. Levoy, M., Zhang, Z., McDowall, I. Recording and controlling the 4D light field in a microscope using microlens arrays. Journal of microscopy. 235 (2), 144-162 (2009).
  24. Stevens, M., Párraga, C. A., Cuthill, I. C., Partridge, J. C., Troscianko, T. S. Using digital photography to study animal coloration. Biological Journal of the Linnean Society. 90 (2), 211-237 (2007).
  25. Kim, M. H., Harvey, T. A., et al. 3D imaging spectroscopy for measuring hyperspectral patterns on solid objects. ACM Transactions on Graphics (TOG). 31 (4), (2012).

Tags

Biofísica Número 75 Biología Molecular Ingeniería Biomédica Física Ciencias de la Computación propiedades superficiales (materiales no metálicos) dispositivos de imágenes ópticas (diseño y técnicas) los instrumentos de medición ópticos (diseño y técnicas) dispersión de luz materiales ópticos propiedades ópticas Óptica plumas dispersión de la luz la reflectancia transmitancia color iridiscencia especular y difusa goniómetro, La imagen la visualización
Medición espacialmente y direccionalmente variable dispersión de luz de material biológico
Play Video
PDF DOI

Cite this Article

Harvey, T. A., Bostwick, K. S.,More

Harvey, T. A., Bostwick, K. S., Marschner, S. Measuring Spatially- and Directionally-varying Light Scattering from Biological Material. J. Vis. Exp. (75), e50254, doi:10.3791/50254 (2013).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter