Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Protocolo para la Recolección de Datos y Análisis Aplicado a Automatizado facial Tecnología de Análisis de Expresión y Análisis temporal para la Evaluación Sensorial

Published: August 26, 2016 doi: 10.3791/54046

Summary

Se describe un protocolo para capturar y analizar estadísticamente respuesta emocional de una población a las bebidas y alimentos licuados en un laboratorio de evaluación sensorial usando software de análisis de la expresión facial automatizado.

Introduction

Automatizado de análisis de la expresión facial (AFEA) es una herramienta de análisis prospectivo para caracterizar las respuestas emocionales a bebidas y alimentos. El análisis emocional puede añadir una dimensión extra a las metodologías existentes sensoriales ciencia, las prácticas de evaluación de alimentos, y las calificaciones en escala hedónica suele utilizar tanto en entornos de investigación y de la industria. análisis emocional podría proporcionar una métrica adicional que revela una respuesta más precisa a los alimentos y bebidas. Puntuación hedónica puede incluir sesgo participante debido a la falta de registro de las reacciones 1.

AFEA la investigación se ha utilizado en muchas aplicaciones de investigación, incluyendo los juegos de ordenador, el comportamiento del usuario, la educación / pedagogía, psicología y los estudios sobre la empatía y el engaño. La mayoría de las investigaciones asociadas alimentos se ha centrado en la caracterización de la respuesta emocional a la calidad de los alimentos y el comportamiento humano con los alimentos. Con la reciente tendencia en la promoción de conocimientos sobre los comportamientos alimentarios, un creciente cuerpo de literatura informes uso de AFEApara la caracterización de la respuesta emocional humana asociados con los alimentos, bebidas y odorantes 1-12.

AFEA se deriva de la acción Codificación de Facial (FACS). El sistema de codificación de acción facial (FACS) discrimina movimientos faciales que se caracterizan por unidades de actuación (AUS) en una escala de intensidad de 5 puntos 13. El enfoque requiere FACS expertos examinadores entrenados, la codificación manual, tiempo de evaluación significativa, y proporciona opciones de análisis de datos limitados. AFEA fue desarrollado como un método de evaluación rápida para determinar las emociones. AFEA software se basa en el movimiento facial muscular, bases de datos faciales, y los algoritmos para caracterizar la respuesta emocional 14-18. El software AFEA utilizada en este estudio se llega a un "índice de FACS de acuerdo de 0,67 en promedio tanto en el Varsovia conjunto de imágenes faciales de expresión emocional (WSEFEP) y Amsterdam dinámico Expresión facial Set (ADFES), que está cerca de un acuerdo de nivel de 0,70 para la codificación manual "19 20. Además, la literatura de psicología incluye feliz, sorprendido y enojado como emociones "enfoque" (hacia estímulos) y triste, asustado, y disgustado como las emociones "retirada" (lejos de los estímulos aversivos) 21.

Una de las limitaciones del software AFEA actual para la caracterización de las emociones asociadas con los alimentos es la interferencia de los movimientos faciales asociadas a masticar y tragar, así como otros movimientos motoras gruesas, tales como movimientos de la cabeza extremas. El software se dirige a pequeños movimientos faciales musculares, la posición relativa y grado de movimiento, basado en más de 500 puntos musculares en la cara 16,17. movimientos de masticación interfieren con la clasificación de las expresiones. este límiteación se puede abordar el uso de alimentos licuados. Sin embargo, otros retos metodología también puede disminuir la sensibilidad de vídeo y análisis AFEA incluyendo el entorno recopilación de datos, la tecnología, las instrucciones del investigador, el comportamiento de los participantes, y participante atributos.

Una metodología estándar no se ha desarrollado y verificado para la captura de vídeo óptima y análisis de datos utilizando AFEA de respuesta emocional a alimentos y bebidas en un entorno de laboratorio de evaluación sensorial. Muchos aspectos pueden afectar al medio ambiente de captura de vídeo incluyendo la iluminación, sombras debido a la iluminación, las direcciones de los participantes, comportamiento de los participantes, la altura de participante, así como, la altura de la cámara, la pesca de la cámara, y la configuración del equipo. Por otra parte, las metodologías de análisis de datos son inconsistentes y carecen de una metodología estándar para evaluar la respuesta emocional. A continuación, vamos a demostrar nuestro procedimiento operativo estándar para la captura de datos de datos y de procesamiento emocional en resultados significativos utilizando bebidas (leche saborizada, leche sin sabor y sin sabor del agua) para su evaluación. A nuestro entender sólo una publicación revisada por pares, de nuestro grupo de laboratorio, se ha utilizado para la interpretación de series temporales de datos para el análisis de las emociones 8; Sin embargo, el método se ha actualizado para nuestro método presentado. Nuestro objetivo es desarrollar una metodología mejorada y consistente para ayudar con la reproducibilidad en un entorno de laboratorio de evaluación sensorial. Para la demostración, el objetivo del modelo de estudio es evaluar si AFEA podría complementar la evaluación de aceptabilidad hedónica tradicional de leche saborizada, leche sin sabor y sin sabor del agua. La intención de este protocolo de vídeo es ayudar a establecer la metodología AFEA, estandarizar los criterios de captura de vídeo en un laboratorio de evaluación sensorial (ajuste stand sensorial), e ilustrar un método para el análisis de datos emocional temporal de una población.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Declaración de Ética: Este estudio fue previamente aprobado por la Junta de Revisión Institucional de Virginia Tech (IRB) (IRB 14-229) antes de iniciar el proyecto.

Precaución: la investigación en seres humanos requiere el consentimiento informado antes de la participación. Además de la aprobación del IRB, el consentimiento para el uso de imágenes fijas o de vídeo también se requiere antes de la liberación de alguna de las imágenes para la impresión, vídeo o imágenes gráficas. Además, los alergenos alimentarios se dan a conocer antes de la prueba. Los participantes se les pide antes del inicio del panel de si tienen alguna intolerancia, alergias u otras preocupaciones.

Nota: Los criterios de exclusión: análisis de la expresión facial automatizado es sensible a las gafas de montura gruesa, caras espesa barba y tono de la piel. Los participantes que tienen estos criterios son incompatibles con el software de análisis debido a un mayor riesgo de vídeos fallidos. Esto se atribuye a la incapacidad del software para encontrar la cara.

1. Preparación de muestras y captación de participantes

  1. Preparar bebida o suavemuestras de alimentos.
    1. Preparar sabores intensificación de soluciones lácteos utilizando 2% de leche y sugeridas de Costello y Clark (2009) 22, así como otros sabores. Preparar las siguientes soluciones: (1) la leche sin sabor (2% leche descremada); (2) el agua sin sabor (agua potable); (3) sabor extracto de vainilla en la leche (0,02 g / ml) (imitación claro sabor vainilla); y (4) sabor salado en la leche (0,004 g sal yodada / ml).
      Nota: Estas soluciones se utilizan sólo con fines de demostración.
    2. Verter la mitad de alícuotas onzas (~ 15 g) de cada solución en 2 oz copas de muestra de plástico transparente y la tapa con tapas de color codificado.
      Nota: Se recomienda el uso de vasos transparentes; sin embargo, es a discreción del investigador.
  2. Reclutar a los participantes de la escuela o la comunidad local a participar en el estudio.
    Nota: tamaño de la muestra de participantes necesarios para un estudio es a la discreción del investigador. Se recomienda un intervalo de 10 a 50 participantes. Obtener el consentimiento sujeto humano antes de la participación en el estudio.

2. Preparación de la habitación Panel para la captura de vídeo

Nota: Este protocolo es para la captura de datos en un laboratorio de evaluación sensorial. Este protocolo es hacer que la captura de datos AFEA útil para un ajuste stand sensorial.

  1. Utilice cabinas individuales con un monitor de pantalla táctil en frente de ellos (altura de la cara) para mantener su enfoque hacia delante y para prevenir mirando hacia abajo.
  2. Utilice sillas de altura ajustable con soporte para la espalda.
    Nota: Estos son esenciales para permitir que los participantes pueden ajustar verticalmente y se colocan en un rango adecuado para la captura de vídeo. Utilice sillas fijas (no cuentan con el apoyo de rodadura) con la altura del respaldo ajustable para los movimientos de los participantes se reducen.
  3. Ajuste la iluminación de arriba en "100% la luz del día" para una óptima facial emocional de captura de vídeo (Iluminante 6504 K. R = 206; G = 242; B = 255).
    Nota: Para evitar intensa sombreado, iluminación frontal difusa es ideAl mismo tiempo la intensidad de la luz o el color no es tan relevante 20. En última instancia, es a discreción del investigador, individuo / protocolo de metodología, y el medio ambiente para controlar la iluminación para la captura.
  4. Colocar una cámara ajustable por encima del monitor de pantalla táctil para la grabación.
    1. Utilizar una cámara con una resolución de al menos 640 x 480 píxeles (o superior) 20. Discutir las capacidades de la cámara necesarios con el proveedor de software antes de la compra y la instalación 20. Nota: La relación de aspecto no es importante 20.
    2. Ajuste la velocidad de captura de cámara con 30 cuadros por segundo (u otra velocidad estándar) para la consistencia.
    3. Conectar y asegurar el soporte de software de grabación está hasta la cámara para grabar y guardar videos de los participantes.

3. Ajuste de participantes y las instrucciones verbales

  1. Tiene sólo un participante a la vez evaluar las muestras en la cabina sensorial.
    Nota: Las pruebas más deun participante al mismo tiempo puede interferir con el entorno de pruebas y perturbar la concentración del participante o crear sesgo.
  2. A su llegada, los participantes dar instrucciones verbales sobre el proceso y los procedimientos operativos estándar.
    1. Haga que los participantes se sientan hacia arriba y contra el respaldo de la silla.
    2. Ajuste la altura de la silla, la posición de la silla (distancia de la cámara), y el ángulo de la cámara de manera que la cara del participante es capturado en el centro de la grabación de vídeo, sin sombras en la barbilla o alrededor de los ojos.
      Nota: En la cabina sensorial, la cabeza del participante es aproximadamente 20 - 24 pulgadas de la cámara y el monitor con la cara centrada en el canal de video de la cámara.
    3. Instruir a los participantes a permanecer sentados como posicionado y centrado que mira hacia la pantalla del monitor. Además, instruir a los participantes que se abstengan de realizar movimientos bruscos consumo posteriores a la muestra durante el período de evaluación de 30 segundos por muestra. Instruir al participante para consumir la bebida entera o licuado muestra de alimento y tragar.
    4. Instruir al participante para mover rápidamente el vaso de muestra debajo de la barbilla y hacia abajo a la mesa inmediatamente después de la muestra está en la boca. Esto es para eliminar la oclusión facial. Recordarles que seguir mirando hacia el monitor.
      Nota: El soporte de muestras para entregar la muestra es a discreción del investigador. Una paja o una taza se pueden utilizar. En cualquier caso, la oclusión facial inicial es inevitable porque la cara se ocluye o distorsionada debido al consumo.
  3. Instruir a los participantes a seguir las instrucciones que aparecen en el monitor de pantalla táctil. Nota: Las instrucciones son secuenciados de forma automática según lo programado en el software automatizado sensorial.

4. Proceso participante individual para captura de vídeo

  1. cámara de vídeo está capturando confirmar de manera óptima la cara del participante mientras el participante está sentadocómodamente en la cabina (antes de la presentación de la muestra) mediante la visualización del monitor de la computadora en la que se muestra la captura de vídeo. Iniciar la grabación haciendo clic en el botón de grabación en el monitor de la computadora.
  2. Instruir a los participantes para beber agua para limpiar su paladar.
  3. Proporcionar tratamientos de una en una, a partir de una línea de base o el tratamiento de control (agua sin sabor). Identificar cada muestra por una tarjeta de índice de color único colocado en la parte superior de cada muestra en relación con el código de color de la muestra para la identificación de tratamiento de la muestra en el vídeo.
    Nota: orientación programada en el monitor de pantalla táctil instruye a los participantes. Las instrucciones directas del participante a través de una serie de pasos estandarizados para cada muestra de tratamiento.
  4. A través del monitor de pantalla táctil, dirigir al participante que:
    1. Sostener el color de la tarjeta de índice asociado pre-consumo de identificación de la muestra en el video.
      Nota: La carta de colores es una manera los investigadores pueden identificar los tratamientos en el video unand marcar el marco de tiempo apropiado (tiempo cero) para la evaluación de la muestra.
    2. Tras la celebración de la tarjeta brevemente, coloque la tarjeta en la bandeja.
    3. consumen totalmente la muestra y esperar aproximadamente 30 segundos, forzadas a través de la orientación programada en el monitor, mientras que frente a la cámara.
      Nota: El periodo de muestreo controlado 30 sec abarca un período de tiempo adecuado para todo el período de evaluación de muestreo (es decir, que muestra la tarjeta de índice, la apertura de una muestra (de retirar la tapa), el consumo, y la captura emocional).
    4. Introduzca su puntuación aceptabilidad hedónica en el monitor de pantalla táctil (1 = no les gusta muy, 2 = no les gusta mucho, 3 = no les gusta moderadamente, 4 = no les gusta un poco, 5 = no me gusta ni aversión, 6 = como poco, 7 = como moderadamente, 8 = como mucho, 9 = muy similares).
    5. Enjuagar la boca con agua potable antes del siguiente proceso de la muestra.

5. Evaluación de Opciones de análisis automatizados Expresión facial

Nota: Existen muchos programas de software de análisis de la expresión facial. Comandos de software y funciones puede variar. Es importante seguir las directrices de uso del fabricante y el manual de referencia 20.

  1. Guardar las grabaciones en un formato de medios y traslado al software de análisis de la expresión facial automatizado.
  2. Analizar los vídeos de los participantes utilizando software de análisis facial automatizado.
    1. Haga doble clic en el icono del software de escritorio del ordenador.
    2. Una vez que el programa está abierto, haga clic en "Archivo", seleccione "Nuevo ..." y seleccione "Proyecto ..."
    3. En la ventana emergente, el nombre del proyecto y guarde el proyecto.
    4. Añadir los participantes en el proyecto haciendo clic en el icono "añadir participantes" (persona con un signo (+)). Más participantes pueden añadir repitiendo este paso.
    5. Agregar videos del participante al participante respectivo para su análisis.
      1. En el lado izquierdo de la pantalla, haga clic en el icono del rollo de película wiº un signo más (+) para añadir un vídeo a analizar.
      2. Haga clic en la "lupa" bajo el participante de interés para ver el video para agregar.
  3. Analizar vídeos fotograma a fotograma en los ajustes de calibración de análisis continuos en el software.
    1. Haga clic en el icono de lápiz para ajustar la configuración en la parte inferior de la ventana, en la pestaña "Configuración" para cada participante de vídeo.
      1. Ajuste "Modelo de la cara" al general. Ajuste "clasificaciones" Smoothen a Sí. Ajuste "Frecuencia de muestreo" para cada fotograma.
      2. Set "Rotación de imagen" para No. Establecimiento de "calibración continua" en Sí. Ajuste "calibración seleccionado" None.
    2. Guardar la configuración del proyecto.
    3. Pulse el icono de análisis de lotes (el mismo símbolo de destino-como el rojo y negro) para analizar los vídeos del proyecto.
    4. Guardar los resultados una vez que se haya completado el análisis.
      Nota: Existen otras configuraciones de vídeo en el software si researcsu preferencia garantiza otro método de análisis.
    5. Considere Vídeos de fallos graves si oclusiones faciales o la incapacidad para mapear la cara persiste durante la ventana de post-consumo específico (Figura 1). Además, si el modelo no los datos van a decir "FIT_FAILED" o "FIND_FAILED" en los archivos de salida exportados (Figura 2). Esto representa la pérdida de datos ya que el software no puede clasificar o analizar las emociones de los participantes.
      Nota: AFEA traduce el movimiento de los músculos faciales a neutral, feliz, disgustado, triste, enojado, sorprendido y asustado en una escala de 0 (no se expresa) a 1 (completamente extraída) para cada emoción.
  4. Exportar la salida de datos AFEA como archivos de registro (.txt) para su posterior análisis.
    1. Una vez que se hayan completado los análisis, exportar todo el proyecto.
      1. Haga clic en "Archivo", "Exportar", "Resultados del Proyecto de Exportación".
      2. Cuando se abre una ventana, seleccione la ubicación en la que las exportaciones Should pueden guardar y guardar los archivos de registro (.txt) a una carpeta.
      3. Convertir cada participante vida de registro en una hoja de cálculo de datos (.csv o .xlsx) para extraer los datos pertinentes.
        1. Abra el software de hoja de cálculo de datos y seleccionar la pestaña "Datos".
        2. En la ficha "Datos", en el grupo "Obtener datos externos", haga clic en "A partir del texto".
        3. En la "barra de direcciones", busque, haga doble clic en el archivo de texto para importar participante, y siga las instrucciones del asistente de pantalla.
        4. Continuar el proceso de exportación para todos los archivos de los participantes pertinentes.

6. Marca de tiempo del participante Videos para Análisis de Datos

  1. Usando el software AFEA, revisar manualmente el vídeo de cada participante e identificar el tiempo de post-consumo cero para cada muestra. Registrar la marca de tiempo en una hoja de cálculo de datos. Post-consumo se define cuando la copa de muestra está por debajo de la barbilla del participante y ya no ocincluye la cara.
    Nota: La colocación de la marca de tiempo es crítica para la evaluación. El punto en el que la copa ya no ocluye la cara es la recomendación óptima y marcas de tiempo tiene que ser la misma para todos los participantes.
  2. Guarde la hoja de cálculo de datos de fecha y hora (.csv) como referencia para la extracción de datos relevantes de vídeos.
    Nota: los vídeos participantes también pueden ser codificados internamente en el software como "acto de celebración".

Análisis Emocional 7. Series de Tiempo

Nota: Tenga en cuenta la "línea de base" para ser el control (es decir, el agua sin sabor en este ejemplo). El investigador tiene la capacidad de crear un "estímulo tratamiento de referencia" diferente o un "tiempo de la línea de base y sin estímulo" para la comparación de pares depende de los intereses de la investigación. El método propuesto para las cuentas de un estado "por defecto" mediante el uso de un test estadístico de dos. En otras palabras, el procedimiento utiliza el bloqueo de estadística (es decir,una prueba pareada) para ajustar la apariencia por defecto de cada participante y por lo tanto reduce la variabilidad entre los participantes.

  1. Extraer datos relevantes de los archivos exportados (.csv o .xlsx).
    1. Identificar un marco de tiempo relevante para la evaluación del estudio (segundos).
    2. extraer manualmente los datos respectivos (tiempo) de los archivos exportados de consultoría participantes la fecha y hora participante (tiempo cero).
    3. Recopilar datos sobre el tratamiento de cada uno de los participantes (número de participante, el tratamiento, la hora del vídeo original, y la respuesta de la emoción) por la emoción (feliz, neutra, triste, enojado, sorprendido, asustado, y disgustado) para el marco de selección de tiempo (segundos) en una nueva hoja de cálculo de datos para su posterior análisis (Figura 3).
    4. Continúe este proceso para todos los participantes.
  2. Identificar el tiempo correspondiente a cero desde el archivo de marca de tiempo para cada par tratos participante y ajustar el tiempo de vídeo a un cierto tiempo "0" para la comparación directa ( Figura 5).
    Nota: los datos del participante se recoge en un continuo de vídeo, por lo tanto cada tratamiento "tiempo cero" es diferente (es decir, el tiempo de vídeo agua sin sabor cero es 02: 13.5 y leche sin sabor de tiempo de vídeo cero es 03: 15.4). En la Figura 4 Debido a la diferente tratamiento "ceros" de tiempo, los tiempos de video necesitan ser reajustados y reestructurado para empezar a "0: 00.0" u otra norma hora de inicio a fin para la comparación directa de tiempo de datos de la respuesta emocional de tratamiento.
  3. Para cada participante, la emoción, y el punto de tiempo ajustado, extraer el tratamiento emparejado (por ejemplo, la leche sin sabor) y el tratamiento de control (por ejemplo, el agua sin sabor) puntuación cuantitativa emocional. En otras palabras, alinee el tratamiento y control de series de tiempo de un participante de respuestas para cada emoción (Figura 5).
  4. Recopilar toda la información del participante (participante, el tiempo ajustado, y el tratamiento emparejado(Por ejemplo, agua sin sabor y sin sabor de la leche) en cada punto de tiempo (Figura 6).
    Nota: Los pasos siguientes demuestran los pasos para una prueba de Wilcox emparejado con la mano. La mayoría de los programas de software de análisis de datos van a hacer esto de forma automática. Se recomienda para discutir el proceso de análisis estadístico con un estadístico.
  5. Una vez que las muestras se ponen a cero y alineada con los nuevos tiempos de vídeo ajustadas, comparar directamente entre los resultados emocionales de una muestra respectiva y el control (agua sin sabor) utilizando secuenciales emparejado pruebas de Wilcoxon no paramétrico a través de los participantes (Figura 7).
    Nota: La nueva alineación en el tiempo de las muestras que permitirá la comparación directa dentro del post-consumo marco de tiempo de 5 segundos. Si una observación emparejado no está presente en un tratamiento, dejar caer el participante de que la comparación punto de tiempo.
    1. Calcular la diferencia entre el control y la muestra respectiva para cada comparación por parejas usando spreadshe datossoftware de gestión et.
      Nota: La comparación será dependiente de la frecuencia de cuadro seleccionado para el análisis emocional en el software. El protocolo demuestra 30 comparaciones individuales por segundo durante 5 segundos (período de tiempo seleccionado).
      Nota: Utilice la Figura 7 como referencia para las columnas y escalones.
      1. Restar el valor de la leche (por ejemplo, leche sin sabor) del valor del control (por ejemplo, agua sin sabor) para determinar la diferencia. En el software de gestión de datos de hoja de cálculo en una nueva columna titulada "Tratamiento Diferencia", introduzca "= (C2) - (D2)", donde "C2" son los valores emocionales de control y "D2" son los valores emocionales de tratamiento seleccionado. Continuar este proceso para todos los puntos temporales.
      2. Calcular el valor absoluto de la diferencia de tratamiento. En el software de gestión de datos de hoja de cálculo en una nueva columna, escriba "= ABS (E2)", donde "E2" es la diferencia del tratamiento. Continuar este proceso durantetodos los puntos de tiempo.
      3. Determinar el orden de rango de la diferencia del tratamiento. En el software de gestión de datos de hoja de cálculo en una nueva columna, escriba "= RANK (G2, $ G $ 2: $ G $ 25, 1)" donde "G2" es la diferencia absoluta y "1" es "ascendente". Continuar este proceso para todos los puntos temporales.
      4. Determinar el rango firmada de la orden de rango en la hoja de cálculo. Cambiar el signo de negativo si la diferencia del tratamiento fue negativo (Columna I).
      5. Calcular la suma positiva (= función SUMAR.SI (I2: I25, "> 0", I2: I25) y la suma negativa = función SUMAR.SI (I2: I25, "<0", I2: I25) de los valores de rango.
      6. Determinar la estadística de prueba. La estadística de prueba es la suma del valor absoluto inferior.
      7. Consulte las tablas de estadísticas de Wilcoxon Signed Clasificado Prueba estadística utilizando el número de observaciones incluidas en el momento específico y un valor alfa seleccionado para determinar el valor crítico.
      8. Si el resultado es menor que el valor crítico t rechazarél hipótesis nula. Si es mayor, aceptar la hipótesis nula.
  6. Representa gráficamente los resultados en el gráfico de tratamiento asociado (es decir, leche sin sabor en comparación al agua sin sabor) para los momentos en los que se rechaza la hipótesis nula. Utilice el signo de la diferencia para determinar qué tratamiento tiene el mayor emoción (Figura 8).
    1. En el software de gestión de hoja de cálculo de datos, crear un gráfico usando los valores de la presencia o ausencia de significado.
      1. Haga clic en "Insertar" ficha.
      2. Seleccione "Línea"
      3. Clic derecho en el cuadro gráfico.
      4. Haga clic en "seleccionar datos" y siga las indicaciones en pantalla para seleccionar y graficar datos relevantes (Figura 8).
        Nota: Los gráficos se representan los resultados emocionales donde la muestra o el control es más alto y significativo. Gráfico dependiente, la emoción es más alta en ese momento específico que permite la capacidad de discernir cómo las emociones de los participantesevolucionando durante el período de tiempo de 5 segundos entre dos muestras.
        Nota: El apoyo estadístico con un estadístico es muy recomendable para extraer los datos pertinentes. Se requiere el desarrollo de la codificación estadística para analizar los resultados emocionales.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

El método propone un protocolo estándar para la recopilación de datos AFEA. Si se siguen los pasos del protocolo sugeridas, inservible salida de datos emocional (Figura 1) como resultado de una mala recolección de datos (Figura 2: A; Izquierda imagen) puede ser limitada. Análisis de series de tiempo no se puede utilizar si los archivos de registro (.txt) contienen predominantemente "FIT_FAILED" y "FIND_FAILED" ya que esto es malos datos (Figura 1). Además, el método incluye un protocolo para la comparación estadística directa entre dos tratamientos de salida de datos emocional sobre un marco de tiempo para establecer un perfil emocional. análisis de series temporales puede proporcionar tendencias emocionales con el tiempo y puede proporcionar una dimensión de valor añadido a los resultados de aceptabilidad hedónicos. Además, el análisis de series de tiempo puede mostrar cambios en los niveles emocionales a través del tiempo, lo que es valioso durante la experiencia de comer.

(Figura 9). hedónicos resultados infieren que no había diferencias de aceptabilidad entre la leche sin sabor, el agua sin sabor y aroma de extracto de vainilla en la leche. Sin embargo, el análisis de series de tiempo indicado AFEA leche sin sabor genera una menor cantidad de disgusto (p <0,025; 0 seg), sorprendido (p <0,025; 0-2,0 seg), menos triste (p <0,025; 2,0-2,5 seg) y menos neutro (p <0,025; ~ 3.0-3.5 seg) las respuestas que hizo el agua sin sabor (Figura 10). Además, el sabor extracto de vainilla en la leche introdujo expresiones más felices justo antes de 5,0 segundos (p <0,025) y menos triste (p <0,025; 2,0-3,0 y 5,0 segundos) que el agua sin sabor (Figura 11). Vainilla, como un olor, se ha asociado con los términos "relajado", "sereno", "felicidad" "tranquilizado",, y# 34;. Bienestar "," gratamente sorprendido "23 y" agradable "24 sabor salado en la leche tenido menor (p <0,05) media de las puntuaciones de aceptabilidad hedónicos (una aversión moderada) (Figura 9) y el sabor salado en la leche generó más asco (p <0,025) más tarde (3,0-5,0 seg) que el agua sin sabor (Figura 12). salado intenso se ha asociado con disgusto y sorpresa 25, 26. sin embargo, algunos estudios han indicado que el sabor salado no provoca la respuesta facial 7, 27 -29.

Figura 1
Figura 1. Ejemplo de captura de datos sub-óptima debido a la incompatibilidad con el software participante AFEA resulta en la pérdida de los puntos de respuesta de datos emocionales primas en los archivos de salida exportados [FIT_FAILED; FIND_FAILED]. Fracasos de vídeo graves se producen cuando las oclusiones faciales o la incapacidad para trazar un mapa de la cara Persi pts durante la ventana de post-consumo especificado. Haga clic aquí para ver una versión más grande de esta figura.

Figura 2
Figura 2. Ejemplo de captura de datos sub-óptimo debido al modelado software participante. La figura presenta la captura de datos sub-óptima debido a software participante incompatibilidad de modelado y el fracaso de la cartografía de cara a determinar la respuesta emocional (A). Ejemplo de éxito de modelado en forma y capacidad de capturar la respuesta emocional del participante (B). Haga clic aquí para ver una versión más grande de esta figura.

6fig3.jpg "/>
Figura 3. Ejemplo de datos de los participantes extraídos compilados en una nueva hoja de cálculo de datos. Datos de los participantes (número de participante, el tratamiento, el tiempo de vídeo original, y la respuesta de la emoción) se identifica por la emoción (feliz, neutra, triste, enojado, sorprendido, asustado, y disgustado ) para el período de tiempo de selección (segundos). Esta hoja de cálculo se utiliza para análisis posteriores. Por favor, haga clic aquí para ver una versión más grande de esta figura.

Figura 4
Figura 4. Ejemplo de datos de los participantes extraídos compilados para su posterior análisis. Los datos extraídos de los participantes (A1 y B1) se compila (A2 y B2), graficada (A3 y B3) y alineados (A4 y B4) como visual para la comparación directa. la respectiva tiempo cero para el control (A4: Sorprendido Sin sabor del agua) y tratamiento (B4: Sorprendido sin sabor de la leche) se muestran para la comparación de los resultados emocionales sorprendido. Este ejemplo representa e identifica el tiempo correspondiente a cero desde el archivo de marca de tiempo para cada par tratos participante. Por favor, haga clic aquí para ver una versión más grande de esta figura.

Figura 5
.. Figura 5. Ejemplo de datos de los participantes se extrajo con marco de tiempo ajustado los datos de los participantes extraída se presenta con el marco de tiempo ajustado con un cierto "tiempo cero" (A1 y B1) El ajuste de tiempo permite la comparación directa entre un control (A: Sorprendido agua sin sabor) y un tratamiento (B2: sorprendido Unfla vored leche) (A2 y B2). Este ejemplo representa e identifica el correspondiente cierto "tiempo cero" (ajustado) desde el archivo de marca de tiempo para cada par tratos participante. Por favor, haga clic aquí para ver una versión más grande de esta figura.

Figura 6
Figura 6. Ejemplo del proceso de recopilación de datos de todos los participantes. El participante, el tiempo ajustado, y el tratamiento emparejado (por ejemplo, el agua y la leche sin sabor sin sabor) en cada punto de tiempo se compila para prepararse para el análisis estadístico. Por favor, haga clic aquí para ver una versión más grande de esta figura.

en / ftp_upload / 54046 / 54046fig7.jpg "/>
Figura 7. ejemplo de hoja de cálculo de datos comparando un control (sin sabor del agua) y un tratamiento (sin sabor de la leche), utilizando pruebas de Wilcoxon través de los participantes en un punto de tiempo específico. La cifra representa una comparación directa entre los resultados emocionales de una muestra respectiva y el control (agua sin sabor ) usando secuencial emparejado pruebas no paramétricas de Wilcoxon a través de los participantes. Haga clic aquí para ver una versión más grande de esta figura.

Figura 8
Figura 8. Ejemplo de la hoja de cálculo de datos para representar gráficamente los resultados si (p <0,025) en el gráfico asociado de tratamiento (es decir, leche sin sabor comparada con el agua sin sabor). Los resultados de las pruebas secuenciales apareados de Wilcoxon no paramétrica a través de la particiNTS se grafican para los momentos en los que se rechaza la hipótesis nula. Por favor, haga clic aquí para ver una versión más grande de esta figura.

Figura 9
Figura 9. La media de aceptabilidad (hedónicos) marca de agua sin sabor, leche sin sabor, aroma de extracto de vainilla en la leche y el sabor salado en soluciones de bebidas de leche. La aceptabilidad se basa en una escala hedónica de 9 puntos (1 = muy desagrada, 5 = no me gusta ni aversión, 9 = extremadamente; como media +/- SD) 1. Tratamiento significa con diferentes superíndices difieren significativamente en el gusto (p <0,05). leche sin sabor, el agua y la vainilla sin sabor sabor extracto de la leche no fueron diferentes (p> 0,05) en las puntuaciones medias de aceptabilidad y fueron calificados como "poco le gusta". sabor salado en la leche tenía un menor (p <0.05) media de las puntuaciones de aceptabilidad (una aversión moderada). Haga clic aquí para ver una versión más grande de esta figura.

Figura 10
Figura 10. Tiempo de gráficos de series de emociones de anuncios en los datos de análisis de expresión faciales automatizados más de 5,0 segundos que comparan la leche sin sabor y sin sabor del agua. Sobre la base de las pruebas no paramétricas de Wilcoxon pareadas secuenciales entre la leche sin sabor y sin sabor del agua (línea de base), los resultados se representan en el gráfico respectivo tratamiento Si la mediana de tratamiento es más alta y de mayor significación (p <0,025) para cada emoción. La presencia de una línea indica una diferencia significativa (p <0,025) en el punto de tiempo específico en el que la mediana es mayor, mientras que la ausencia de una línea indica que no hay diferencia en un punto de tiempo específico (p> 0,025). Ausenciade líneas en la leche sin sabor (A) no revela ninguna categorización emocional en comparación con el agua sin sabor (p <0,025) durante 5,0 segundos. En el agua sin sabor (B), los resultados emocionales en comparación con la leche sin sabor revelan asco (línea carmesí) a 0 seg, sorprendido (línea naranja) se produce de 0 - 1,5 segundos, triste (línea verde) se produce alrededor de 2,5 segundos, y neutral (rojo línea) se produce alrededor de 3 -. 3,5 seg (p <0,025) Por favor, haga clic aquí para ver una versión más grande de esta figura.

Figura 11
Figura 11. Tiempo de gráficos de series de emociones de anuncios basados ​​en datos de análisis de la expresión facial automatizados durante 5,0 segundos que compararon el sabor de vainilla extracto en la leche y el agua sin sabor (línea de base). Sobre la base de pruebas secuenciales apareados de Wilcoxon no paramétrico entresabor de vainilla extracto en la leche y el agua sin sabor, los resultados se representan en el gráfico respectivo tratamiento si el tratamiento es la mediana más alta y de mayor significación (p <0,025) para cada emoción. La presencia de una línea indica una diferencia significativa (p <0,025) en el punto de tiempo específico en el que la mediana es mayor, mientras que la ausencia de una línea indica que no hay diferencia en un punto de tiempo específico (p> 0,025). Sabor vainilla extracto de la leche (A) muestra feliz justo antes de 5 segundos (línea azul), mientras que el agua sin sabor (B) muestra más triste alrededor del 2 - 2,5 y 5 s (línea verde) (p <0,025). Haga clic aquí para ver una versión más grande de esta figura.

Figura 12
Figura 12. gráficos de series de tiempo de las emociones de anuncios basados ​​en expres faciales automatizadosdatos de análisis de Sion más de 5,0 segundos que comparan sabor salado en la leche y el agua sin sabor. Sobre la base de pruebas de Wilcoxon secuenciales apareados no paramétricos entre sabor salado en la leche y el agua sin sabor (línea de base), los resultados se representan en el respectivo gráfico de tratamiento si la mediana de tratamiento es más alta y de mayor significación (p <0,025) para cada emoción. La presencia de una línea indica una diferencia significativa (p <0,025) en el punto de tiempo específico en el que la mediana es mayor, mientras que la ausencia de una línea indica que no hay diferencia en un punto de tiempo específico (p> 0,025). Sabor salado en la leche (A) tiene asco significativa a partir de 3 - 5 segundos (línea carmesí) mientras que el agua sin sabor (B) tiene asco al comienzo (línea carmesí) y más neutral de 2 - 5 segundos (línea roja) (p <0,025 ). Haga clic aquí para ver una versión más grande de esta figura.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

AFEA aplicación en la literatura relacionada con los alimentos y bebidas es muy limitada 1-11. La aplicación a la alimentación es nuevo, la creación de una oportunidad para el establecimiento de la metodología y la interpretación de los datos. Arnade (2013) 7 encontró alta variabilidad individual entre la respuesta emocional individual a la leche con chocolate y leche blanca usando el área bajo análisis y análisis de la varianza curva. Sin embargo, incluso con la variabilidad de los participantes, los participantes generaron una respuesta felices más tiempo, mientras triste y disgustado tuvieron tiempo de respuesta más corto 7. En un estudio separado, con concentraciones altas y bajas de los sabores básicos, Arnade (2013) 7, se encontró que las diferencias en la respuesta emocional de los sabores básicos, así como entre los dos niveles de intensidad de sabor básico (de intensidad alta y baja), no fueron tan significativa como se esperaba, cuestionando así la exactitud de análisis actual metodología AFEA y datos. La evaluación sensorial de los alimentos y bebidas es un complejo y Dynaproceso de respuesta del micrófono 30. Los cambios temporales pueden ocurrir durante el procesamiento oral y la ingestión por tanto, potencialmente influir en la aceptabilidad de los estímulos en el tiempo 30. Por esta razón, puede beneficioso para medir la respuesta evaluador lo largo de toda la experiencia de comer. Los tiempos de procesamiento orales específicas se han sugerido (primer contacto con la lengua, la masticación, deglución, etc.) 31, pero ninguno estén estandarizadas y los tiempos dependen en gran medida en el proyecto y la discreción del investigador 30.

El análisis de series temporales emocional propuesta fue capaz de detectar cambios emocionales y diferencias estadísticas entre el control (agua sin sabor) y los tratamientos respectivos. Por otra parte, los perfiles emocionales asociados con la aceptabilidad pueden ayudar en anticipar el comportamiento relacionado con alimentos y bebidas. Los resultados muestran que el tiempo distinguibles existen tendencias de las series con AFEA relacionada con sabores de la leche (Figuras 10 11, y 12). Las asistencias de análisis de series de tiempo en la diferenciación de la aceptabilidad de alimentos a través de una población mediante la integración de las emociones que se caracterizan (Figura 10, 11 y 12), así como el apoyo a las tendencias de aceptabilidad hedónicos (Figura 9). Leitch et al. 8 observaron diferencias entre los edulcorantes y la línea de base agua mediante el análisis de series de tiempo (5 segundos), y también encontraron que la utilización de gráficos de series de tiempo proporcionado para una mejor interpretación de los datos y resultados. Además, los cambios emocionales se pueden observar con el tiempo y las diferencias de tratamiento de la respuesta emocional pueden ser determinados en diferentes puntos de tiempo o intervalos. Por ejemplo, Leitch et al. 8 observó que se observaron las emociones de aproximación (enojado, feliz y sorprendido) entre las comparaciones de edulcorantes artificiales con el agua, pero se observaron en diferentes momentos durante la ventana de observación de 5 seg. Sin embargo,Leitch et al. 8 no establecieron direccionalidad de expresión, por lo que es difícil de entender la diferencia entre el control emocional (agua) y el tratamiento (té sin azúcar) utilizando su interpretación gráfica y presentación. La metodología de análisis de series temporales modificado y mejorado presentado en nuestro estudio permite la direccionalidad diferencia estadística. La dirección y con los resultados de trazado permite a los investigadores visualizar dónde se producen cambios emocionales estadísticamente relevantes durante el período de tiempo seleccionado.

Reducción de los fallos de análisis de video es esencial para la consecución de datos válidos y efectiva utilizando los recursos de tiempo y de personal. Los pasos críticos y pasos para solucionar problemas en el protocolo incluyen la optimización del entorno sensorial participante (iluminación, ángulo de la cámara de vídeo, altura de la silla, instrucciones de guía participante a fondo, etc.). Además, los participantes deben ser examinados y excluidos si caen en un inc softwareOMPATIBILIDAD categoría (es decir, gafas gruesas, caras enmarcadas en gran medida con barba y el tono de la piel) (Figura 2). Estos factores influirán AFEA modelado en forma, categorización emocional y salida de datos. Si una parte significativa de la salida de datos de un participante consiste en "FIT_FAILED" y "FIND_FAILED", los datos deben ser reevaluados para su inclusión en el análisis de series temporales (Figura 1). Análisis de series de tiempo no se puede utilizar si los archivos de registro de salida de datos contienen predominantemente "FIT_FAILED" y "FIND_FAILED" ya que esto es malos datos (Figura 1). Del remedo en la cara, por las opciones de iluminación puede inhibir gravemente a la calidad de captura de vídeo, resultando en una mala colección de vídeo. Para evitar intensa sombreado, iluminación frontal difusa es ideal, mientras que la intensidad de la luz o el color no es tan relevante 20. Intensa iluminación de arriba debe reducirse, ya que puede promover sombras en la cara 20. Un fondo oscuro detrás de laparticipante se recomienda 20. Se sugiere desde el fabricante del software AFEA para colocar la configuración en frente de una ventana a la luz del día difusa tener iluminación 20. Asimismo, si utiliza un monitor de ordenador, dos luces pueden ser colocados a ambos lados de la cara del usuario para la reducción de la iluminación y la sombra 20. Además, las luces de fotos profesional pueden ser utilizados para contrarrestar entorno indeseable iluminación 20. En última instancia, es a discreción del investigador, individuo / protocolo de metodología, y el medio ambiente para controlar la iluminación para la captura. Se recomienda analizar el entorno de captura de datos y las herramientas con el proveedor de software antes de la compra e instalación. Además, la altura de la silla y ángulo de la cámara son importantes para ajustar de forma individual para cada participante. El participante debe ser cómoda, pero a una altura donde la cámara se encuentra derecha en la cara. Se fomenta un intento de reducir el ángulo de la cámara en la cara durante la optimización de la FAEA captura de vídeo. Por último, es imprescindible para dar instrucciones verbales a los participantes antes del muestreo. comportamiento de los participantes durante la captura de vídeo puede limitar la recogida de datos debido a la oclusión facial, movimientos, y la evitación de la cámara.

Por participante tamaño de muestra necesario para un estudio, los autores recomiendan un intervalo de 10 a 50 participantes. Aunque un número pequeño proporcionará casi no poder estadístico, se necesitan al menos 2 participantes en general para el análisis de series de tiempo. la variabilidad de los participantes es alto, y en las primeras etapas de esta investigación no existe una orientación para ofrecer con el tamaño de la muestra. Tamaño de la muestra variará dependiendo de sabores, intensidad de sabor, y se espera la aceptabilidad del tratamiento. Las muestras con diferencias de sabor más pequeños requerirán más participantes. El 30 segundo período de muestreo controlado abarca un período de tiempo adecuado para que el período de evaluación entero de muestreo (es decir, que muestra la tarjeta de índice, la apertura de una muestra (de retirar la tapa), consumoción, y la captura emocional). La totalidad de los 30 segundos no se utiliza en el análisis de datos. El beneficio de este 30 segundos de tiempo de captura designada es que el investigador puede decidir el tiempo de evaluación pertinente para ser utilizado en el análisis de datos. La segunda ventana de tiempo 30 puede ayudar en la selección de un marco de tiempo de interés durante una muestra de vídeo mientras que la codificación o la marca de fecha vídeos. En última instancia, la ventana de tiempo es a la discreción del investigador. En nuestro ejemplo, hemos utilizado el 5 seg ventana de muestreo post-consumo. Además, la presente metodología define el tiempo cero cuando la copa de muestra ya no ocluye la cara (taza en la barbilla). Es de vital importancia para disminuir el tiempo entre el consumo y la copa de muestra oclusión facial debido a breves y emociones cambiantes. Debido a la muestra taza oclusión facial el tiempo inicial donde la muestra se pone en contacto con la lengua es datos poco fiables (véase la Figura 1). Por lo tanto, el punto en el que la copa ya no ocluye la cara es la recomendación I óptimanorte. Las marcas de tiempo deben ser consistentes para todos los participantes. La carta de colores es una manera conveniente para los investigadores a identificar los tratamientos en el video y marcan el marco de tiempo apropiado (tiempo cero) para la evaluación de la muestra. Las tarjetas de color son especialmente útiles si los tratamientos son en orden aleatorio y sirven como una validación adicional de identificación de la muestra en el video continuo.

Existen limitaciones de esta técnica ya que los participantes pueden no seguir las instrucciones o sombreado inevitable en la cara del participante pueden causar fallos de ajuste a la cara modelo (Figura 2). Sin embargo, los pasos críticos sugeridas ofrecen maneras de mitigar y reducir estas interferencias. Además, el análisis de series de tiempo no va a leer los archivos de registro exportados con archivos que contienen predominantemente "FIT_FAILED" y "FIND_FAILED" (Figura 1). Estos archivos no se puede salvar y no podrá ser incluido en el análisis de series de tiempo. Además, el consumo de alimentos y Beverages todavía puede alterar la estructura facial de tal manera para distorsionar la categorización emocional. Los alimentos duros o masticables requieren un amplio movimiento de la mandíbula. El uso de una pajita y la succión asociado, también provoca la oclusión facial (paja) y distorsiona la cara (succión). Esta observación se basa en datos preliminares de nuestra investigación de laboratorio. El modelo facial software no puede discernir las diferencias entre la masticación (chupar) y las expresiones motoras asociadas a la categorización emocional. Con muestras de alimentos y bebidas, la oportunidad para la oclusión facial es superior a la de la visualización de vídeos y fotos. Los participantes deben traer la muestra a la cara y retirar el recipiente de la cara interrumpiendo así el modelo de software y reducir valiosa información emocional (Ver Figura 1) potencialmente. Como se mencionó anteriormente, las emociones suceden de forma rápida y de corta duración. Es importante reducir la oclusión facial en un intento de capturar las emociones. La propuesta methodollogía hace comparaciones de tratamientos en una trigésima parte de un segundo para encontrar cambios en los patrones emocionales y cambios en la duración emocional a través del tiempo. Con la metodología propuesta, las características de la longevidad emocional son importantes. Por desgracia, pueden producirse problemas de categorización emocionales. Lo más notable es que hay un problema categorizar feliz y disgusto 6, 9, 32, 33, 34. A menudo, esto se debe a los participantes que enmascaran su disgusto o sentimiento sorprendido por la sonrisa 6, 32, 33, 34 que podría ser debido a un "sociales norma de revelación "32. Por otra parte, el software AFEA se limita a siete categorías emocionales (neutro, alegre, triste, asustado, sorprendido, enojado y disgustado). La respuesta emocional a alimentos y bebidas puede ser más compleja que la clasificación AFEA actual de emociones universales y categorización puede ser diferente en respuesta a un alimento o bebida estímulos. Manual de codificación usando FACS se ha aplicado a gustofacial y respuestas olfactofacial de sabores básicos yun surtido de olores y parecía ser lo suficientemente sensible como para detectar diferencias de tratamiento en lo que respecta a las AU 32. FACS es tedioso y consume mucho, sin embargo, la aplicación en el tiempo de la ausencia o presencia de las AU puede ser útil para ayudar con respuestas complejas que AFEA podría no clasificar correctamente o si los resultados no son los esperados emocionales. Si bien los datos de series de tiempo permite clasificaciones faciales que se produzca de forma simultánea y con expresión significativa, se debe tener precaución con la traducción de los resultados en una sola emoción debido a la complejidad emocional.

La técnica de la metodología y el análisis de datos propuesto se puede aplicar a otras bebidas y alimentos blandos. AFEA software fue capaz de identificar las emociones para con sabor y sin sabor muestras. La metodología propuesta y el análisis temporal pueden ayudar con la caracterización de las respuestas implícitas, proporcionando así nuevos avances en las respuestas y comportamientos de la población en relación a la alimentación emocional. Las futuras aplicaciones de THes técnica puede expandirse a otras categorías de bebidas o alimentos blandos. Hemos demostrado metodología para lograr la captura de vídeo para la respuesta emocional y la metodología de análisis de datos. Nuestro objetivo es crear un enfoque estándar para la captura AFEA emocional y análisis de series temporales emocional. El enfoque método ha demostrado tener éxito en nuestra investigación. Esperamos expandir y aplicar este enfoque para la evaluación de la respuesta emocional a los alimentos y bebidas y la relación con la elección y comportamientos.

Subscription Required. Please recommend JoVE to your librarian.

Materials

Name Company Catalog Number Comments
2% Reduced Fat Milk Kroger Brand, Cincinnati, OH or DZA Brands, LLC, Salisbury, NC na for solutions
Drinking Water Kroger Brand, Cincinnati, OH na for solutions
Imitation Clear Vanilla Flavor Kroger Brand, Cincinnati, OH na for solutions
Iodized Salt Kroger Brand, Cincinnati, OH na for solutions
FaceReader 6 Noldus Information Technology, Wageningen, The Netherlands na For Facial Analysis
Sensory Information Management System (SIMS) 2000 Sensory Computer Systems, Berkeley Heights, NJ Version 6 For Sensory Data Capture
Rhapsody Acuity Brands Lighting, Inc., Conyers, GA For Environment Illumination
R Version  R Core Team 2015 3.1.1 For Statistical Analysis
Microsoft Office Microsoft na For Statistical Analysis
JMP Statistical Analysis Software (SAS) Version 9.2, SAS Institute, Cary, NC na For Statistical Analysis
Media Recorder 2.5 Noldus Information Technology, Wageningen, The Netherlands na For capturing participants sensory evaluation
Axis M1054 Camera Axis Communications, Lund, Sweden na
Beverage na Beverage or soft food for evaluation

DOWNLOAD MATERIALS LIST

References

  1. De Wijk, R. A., Kooijman, V., Verhoeven, R. H. G., Holthuysen, N. T. E., De Graaf, C. Autonomic nervous system responses on and facial expressions to the sight, smell, and taste of liked and disliked foods. Food Qual Prefer. 26 (2), 196-203 (2012).
  2. De Wijk, R. A., He, W., Mensink, M. G. J., Verhoeven, R. H. G., De Graaf, C. ANS responses and facial expression differentiate between the taste of commercial breakfast drinks. PLoS ONE. 9 (4), 1-9 (2014).
  3. He, W., Boesveldt, S., De Graaf, C., De Wijk, R. A. Behavioural and physiological responses to two food odours. Appetite. 59 (2), 628 (2012).
  4. He, W., Boesveldt, S., De Graaf, C., De Wijk, R. A. Dynamics of autonomic nervous system responses and facial expressions to odors. Front Psychol. 5 (110), 1-8 (2014).
  5. Danner, L., Sidorkina, L., Joechl, M., Duerrschmid, K. Make a face! Implicit and explicit measurement of facial expressions elicited by orange juices using face reading technology. Food Qual Prefer. 32 (2014), 167-172 (2013).
  6. Danner, L., Haindl, S., Joechl, M., Duerrschmid, K. Facial expression and autonomous nervous system responses elicited by tasting different juices. Food Res Int. 64 (2014), 81-90 (2014).
  7. Arnade, E. A. Measuring consumer emotional response to tastes and foods through facial expression analysis [thesis]. , Virginia Tech. Blacksburg. 1-187 (2013).
  8. Leitch, K. A., Duncan, S. E., O'Keefe, S., Rudd, R., Gallagher, D. L. Characterizing consumer emotional response to sweeteners using an emotion terminology questionnaire and facial expression analysis. Food Res Int. 76, 283-292 (2015).
  9. Crist, C. A., et al. Application of emotional facial analysis technology to consumer acceptability using a basic tastes model. Technical Abstracts and Proceedings of the 2014 Institute of Food Technologists Annual Meeting, 2014 Jun 21 - 24, New Orleans, LA, , (2014).
  10. Garcia-Burgos, D., Zamora, M. C. Facial affective reactions to bitter-tasting foods and body mass index in adults. Appetite. 71 (2013), 178-186 (2013).
  11. Garcia-Burgos, D., Zamora, M. C. Exploring the hedonic and incentive properties in preferences for bitter foods via self-reports, facial expressions and instrumental behaviours. Food Qual Prefer. 39 (2015), 73-81 (2015).
  12. Lewinski, P., Fransen, M. L., Tan, E. S. H. Predicting advertising effectiveness by facial expressions in response to amusing persuasive stimuli. J. Neurosci. Psychol. Econ. 7 (1), 1-14 (2014).
  13. Ekman, P., Friesen, W. V. Facial action coding system: A technique for the measurement of facial movement. , Consulting Psychologists Press. Palo Alto, California. (1978).
  14. Viola, P., Jones, M. Rapid object detection using a boosted cascade of simple features. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern. 1, 511-518 (2001).
  15. Sung, K. K., Poggio, T. Example-based learning for view-based human face detection. IEEE Trans. Pattern Anal. Mach. Intell. 20 (1), 39-51 (1998).
  16. FaceReader 5™ Technical Specifications. , Noldus Information Technology. Wageningen, The Netherlands. Available from: http://www.webshop.noldus.com/media/techspec/facereader _techspec.pdf (2014).
  17. Cootes, T., Taylor, C. Statistical models of appearance for computer vision: Technical report. , University of Manchester, Wolfson Image Analysis Unit, Imaging Science and Biomedical Engineering. (2000).
  18. Bishop, C. M. Neural networks for pattern recognition. , Oxford University Press. New York. (1995).
  19. Lewinski, P., den Uyl, T. M., Butler, C. Automated facial coding: validation of basic emotions and FACS AUs in FaceReader. J. Neurosci. Psychol. Econ. 7 (4), 227-236 (2014).
  20. Noldus Information Technology. FaceReader Reference Manual Version 6. , Wageningen, The Netherlands. (2014).
  21. Alves, N. T., Fukusima, S. S., Aznar-Casanova, J. A. Models of brain asymmetry in emotional processing. Psychol Neurosci. 1 (1), 63-66 (2008).
  22. Costello, M., Clark, S. Preparation of samples for instructing students and staff in dairy products evaluation (Appendix F). The sensory evaluation of dairy foods. Clark, S., Costello, M., Drake, M., Bodyfelt, F. , 2nd, Springer. New York. 551-560 (2009).
  23. Porcherot, C., et al. How do you feel when you smell this? Optimization of a verbal measurement of odor-elicited emotions. Food Qual Prefer. 21, 938-947 (2010).
  24. Warrenburg, S. Effects of fragrance on emotions: Moods and physiology. Chem. Senses. 30, i248-i249 (2005).
  25. Bredie, W. L. P., Tan, H. S. G., Wendin, K. A comparative study on facially expressed emotions in response to basic tastes. Chem. Percept. 7 (1), 1-9 (2014).
  26. Wendin, K., Allesen-Holm, B. H., Bredie, L. P. Do facial reactions add new dimensions to measuring sensory responses to basic tastes? Food Qual Prefer. 22, 346-354 (2011).
  27. Rosenstein, D., Oster, H. Differential facial responses to four basic tastes in newborns. Child Dev. 59 (6), 1555-1568 (1988).
  28. Rosenstein, D., Oster, H. Differential facial responses to four basic tastes in newborns. What the face reveals: Basic and applied studies of spontaneous expression using the facial action coding system (FACS). P, E. kman, E, R. osenberg , Oxford University Press, Inc. New York. 302-327 (1997).
  29. Rozin, P., Fallon, A. E. A perspective on disgust. Psychol. Rev. 94 (1), 23-41 (1987).
  30. Delarue, J., Blumenthal, D. Temporal aspects of consumer preferences. Curr. Opin. Food Sci. 3, 41-46 (2015).
  31. Sudre, J., Pineau, N., Loret, C., Marin, N. Comparison of methods to monitor liking of food during consumption. Food Qual Prefer. 24 (1), 179-189 (2012).
  32. Weiland, R., Ellgring, H., Macht, M. Gustofacial and olfactofacial responses in human adults. Chem. Senses. 35 (9), 841-853 (2010).
  33. Ekman, P. Universal and cultural differences in facial expressions of emotion. Nebraska symposium on motivation. Cole, J. , University of Nebraska Press. Lincoln (NE). 207-283 (1971).
  34. Griemel, E., Macht, M., Krumhuber, E., Ellgring, H. Facial and affective reactions to tastes and their modulation by sadness and joy. Physiol Behav. 89 (2), 261-269 (2006).

Tags

Comportamiento Edición 114 Análisis de la expresión facial la evaluación sensorial Emoción Bebida ciencia de los alimentos análisis de series temporales Dairy
Protocolo para la Recolección de Datos y Análisis Aplicado a Automatizado facial Tecnología de Análisis de Expresión y Análisis temporal para la Evaluación Sensorial
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Crist, C. A., Duncan, S. E.,More

Crist, C. A., Duncan, S. E., Gallagher, D. L. Protocol for Data Collection and Analysis Applied to Automated Facial Expression Analysis Technology and Temporal Analysis for Sensory Evaluation. J. Vis. Exp. (114), e54046, doi:10.3791/54046 (2016).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter