Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Protocolo para Recolha de Dados e Análise Aplicada à Tecnologia Análise Expressão Facial automatizada e Análise Temporal de Avaliação Sensorial

Published: August 26, 2016 doi: 10.3791/54046

Summary

Um protocolo para capturar e analisar estatisticamente resposta emocional de uma população de bebidas e alimentos liquefeitos em um laboratório de análise sensorial usando software de análise de expressão facial automatizado é descrito.

Introduction

Automatizado análise da expressão facial (AFEA) é uma ferramenta analítica prospectivo para a caracterização de respostas emocionais à bebidas e alimentos. análise emocional pode adicionar uma dimensão extra para as metodologias existentes sensoriais ciência, práticas de avaliação de alimentos e ratings na escala hedônica normalmente usado tanto em ambientes de pesquisa e da indústria. análise emocional pode fornecer uma métrica adicional que revela uma resposta mais preciso para alimentos e bebidas. Pontuação hedônica podem incluir viés participante devido à falta de registo reações 1.

pesquisa AFEA tem sido utilizado em muitas aplicações de investigação, incluindo jogos de computador, o comportamento do usuário, Educação / pedagogia, e estudos de psicologia na empatia e engano. A maioria das pesquisas associadas a comida tem-se centrado na caracterização resposta emocional a qualidade dos alimentos e do comportamento humano com alimentos. Com a recente tendência na obtenção de insights sobre comportamentos alimentares, um corpo crescente de relatos na literatura usar de AFEApara caracterizar a resposta emocional humana associados com os alimentos, bebidas e Fragrância 1-12.

AFEA é derivado da Acção Sistema de Codificação Facial (FACS). O sistema de codificação ação facial (FACS) discrimina movimentos faciais caracterizadas por unidades de ação (AUS) em 5 pontos escala de intensidade 13. A abordagem FACS requer especialistas revisão treinados, codificação manual, tempo de avaliação significativo e fornece opções de análise de dados limitados. AFEA foi desenvolvido como um método de avaliação rápida para determinar emoções. AFEA software confia no movimento facial muscular, bancos de dados faciais e algoritmos para caracterizar a resposta emocional 14-18. O software AFEA utilizado neste estudo chegou a um "índice de FACS de concordância de 0,67, em média, tanto no conjunto de Varsóvia de Pictures expressão facial emocional (WSEFEP) e Amsterdão Expressão Facial dinâmico Set (ADFES), que está perto de um acordo padrão de 0,70 para codificação manual "19 20. Além disso, a literatura de psicologia inclui feliz, surpreso e irritado como emoções "approach" (em direção a estímulos) e triste, assustado e revoltado como as emoções "retirada" (longe do estímulos aversivos) 21.

Uma limitação do software AFEA atual para a caracterização de emoções associadas com os alimentos é a interferência de movimentos faciais associadas a mastigação e deglutição, bem como outros movimentos de motor brutas, tais como os movimentos da cabeça extremas. O software tem como alvo pequenos movimentos faciais musculares, posição relativa e grau de movimento, com base em mais de 500 pontos musculares na face 16,17. movimentos de mastigação interferir com a classificação de expressões. este limiteção podem ser endereçados usando alimentos liquefeitos. No entanto, outros desafios metodologia também pode diminuir a sensibilidade de vídeo e análise AFEA incluindo o ambiente recolha de dados, tecnologia, instruções pesquisador, o comportamento participante e participante atributos.

A metodologia padrão não foi desenvolvido e verificado para captura de vídeo óptima e análise de dados usando AFEA de resposta emocional aos alimentos e bebidas em um ambiente de laboratório de avaliação sensorial. Muitos aspectos podem afetar o ambiente de captura de vídeo, incluindo iluminação, sombreamento, devido à iluminação, direções participantes, o comportamento dos participantes, altura participante, bem como, a altura da câmera, angulação da câmera e configurações de equipamentos. Além disso, as metodologias de análise de dados são inconsistentes e carecem de uma metodologia padrão para avaliar a resposta emocional. Aqui, vamos demonstrar o nosso procedimento operacional padrão para a captura de dados e processamento de dados emocionais em resultados significativos usando bebidas (leite aromatizado, leite sem sabor e água sem sabor) para avaliação. Para o nosso conhecimento apenas uma publicação revisada por pares, do nosso grupo de laboratório, utilizou séries temporais para a interpretação de dados para análise emoções 8; No entanto, o método tem sido actualizado para o nosso método apresentado. O nosso objectivo é desenvolver uma metodologia melhorada e consistente para ajudar com reprodutibilidade em um ambiente de laboratório de avaliação sensorial. Para demonstração, o objetivo do modelo de estudo é avaliar se AFEA poderia complementar a avaliação tradicional aceitabilidade hedônica de leite aromatizado, leite sem sabor e água sem sabor. A intenção deste protocolo de vídeo é ajudar a estabelecer metodologia AFEA, padronizar critérios de captura de vídeo em um laboratório de análise sensorial (configuração cabine sensorial), e ilustram um método para análise de dados emocional temporal de uma população.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Declaração de Ética: Este estudo foi pré-aprovado pelo Virginia Tech Institutional Review Board (IRB) (IRB 14-229) antes de iniciar o projeto.

Cuidado: pesquisa com seres humanos requer consentimento informado antes da participação. Além aprovação IRB, o consentimento para o uso de imóveis ou imagens de vídeo também é necessária antes de liberar quaisquer imagens para impressão, vídeo ou imagem gráfica. Além disso, alergénios alimentares são revelados antes do teste. Os participantes são convidados antes do início do painel se eles têm alguma intolerância, alergias ou outras preocupações.

Nota: Exclusão Critérios: análise da expressão facial automatizado é sensível aos vidros quadro de espessura, rostos muito barbudos e tom de pele. Os participantes que têm esses critérios são incompatíveis com a análise de software devido a um aumento do risco de vídeos falharam. Isto é atribuído à incapacidade do software para encontrar o rosto.

1. Preparação de amostras e Participante Recrutamento

  1. Prepare bebida ou moleamostras de alimentos.
    1. Prepare soluções sabores intensificados leiteiros com leite a 2% e sugeridas de Costello e Clark (2009) 22, bem como outros sabores. Prepare as seguintes soluções: (1) O leite sem sabor (2% de redução de gordura do leite); (2) de água sem sabor (água potável); (3) extrato de baunilha sabor do leite (0,02 g / ml) (imitação sabor clara baunilha); e (4) sabor salgado no leite (0,004 g / ml sal iodado).
      Nota: Estas soluções são usadas apenas para fins de demonstração.
    2. Despeje metade alíquotas onça (~ 15 g) de cada solução em duas onças copos de amostra de plástico transparente e boné com código de cores tampas.
      Nota: Recomenda-se usar copos transparentes; no entanto, é a critério do pesquisador.
  2. a recrutar participantes do campus ou a comunidade local para participar do estudo.
    Nota: o tamanho da amostra de participantes necessário para um estudo é a critério do investigador. Recomendamos um intervalo de 10 a 50 participantes. Obter o consentimento sujeito humano antes da participação no estudo.

2. Preparação de quarto painel para captura de vídeo

Nota: Este protocolo é para a captura de dados em um laboratório de análise sensorial. Este protocolo é fazer com que a captura de dados AFEA útil para uma configuração cabine sensorial.

  1. Use cabines individuais com um monitor touchscreen na frente deles (nível de face) para manter o seu foco para a frente e para evitar olhando para baixo.
  2. Use cadeiras de altura ajustáveis ​​com apoio para as costas.
    Nota: Estes são essenciais para permitir aos participantes para ser ajustado verticalmente e colocado numa gama adequada para a captura de vídeo. Use cadeiras fixas (sem recurso ao rolamento) com suporte de altura ajustável para trás assim que os movimentos do participante são reduzidos.
  3. Definir iluminação superior a "100% a luz do dia" para melhor facial de captura de vídeo emocional (Iluminante 6504K; R = 206; G = 242; B = 255).
    Nota: Para evitar sombreamento intenso, iluminação frontal difusa é ideai, enquanto a intensidade da luz ou a cor não é tão relevante 20. Em última análise, cabe ao critério do investigador, indivíduo protocolo / metodologia e ambiente para controlar a iluminação para a captura.
  4. Apor uma câmera ajustável acima do monitor touchscreen para a gravação.
    1. Use uma câmera com uma resolução de pelo menos 640 x 480 pixels (ou superior) 20. Discutir as capacidades de câmera necessárias com o fornecedor de software antes da compra e instalação 20. Nota: A relação de aspecto não é importante 20.
    2. Definir velocidade câmera captura até 30 quadros por segundo (ou outra velocidade padrão) para a consistência.
    3. Conectar e garantir meios de software de gravação está configurado para a câmera para gravar e guardar vídeos participantes.

3. Ajuste de participantes e orientações verbais

  1. Ter apenas um participante por vez avaliar as amostras no estande sensorial.
    Nota: Os testes mais deum participante, ao mesmo tempo, pode interferir com o ambiente de teste e perturbar a concentração do participante ou criar polarização.
  2. Após a chegada, dar aos participantes instruções verbais sobre o processo e os procedimentos operacionais padrão.
    1. Têm os participantes sentam-se para cima e contra o encosto da cadeira.
    2. Ajuste a altura da cadeira, a posição da cadeira (distância da câmera), e ângulo da câmera para que o rosto do participante é capturado no centro da gravação de vídeo, sem sombras no queixo ou ao redor dos olhos.
      Nota: Na cabine sensorial, a cabeça do participante é de aproximadamente 20-24 polegadas de distância da câmera e o monitor com a face centrada no feed de vídeo da câmera.
    3. Instrua os participantes a permanecer sentados enquanto posicionado e focado virada para a tela do monitor. Além disso, instruir os participantes abster-se de quaisquer movimentos bruscos de consumo pós-amostra durante o período de avaliação de 30 segundos por amostra. Instruir o participante para consumir toda a bebida ou amostra de alimento liquefeito e engolir.
    4. Instruir o participante para mover rapidamente o copo de amostra abaixo do queixo e para baixo para a mesa imediatamente após a amostra está na boca. Este é eliminar oclusão facial. Lembrá-los para manter olhando para o monitor.
      Nota: O suporte de amostra para entregar a amostra é a critério do investigador. Pode ser utilizada uma palha ou copo. Independentemente disso, a oclusão facial inicial é inevitável, porque o cara vai ser ocluído ou distorcida devido ao consumo.
  3. Instruir o participante a seguir as instruções que aparecem no monitor touchscreen. NOTA: As instruções são automaticamente sequenciados como programado no software sensorial automatizado.

4. Processo Participante individual para captura de vídeo

  1. Confirmar câmera de vídeo está otimamente captura rosto do participante, enquanto o participante está sentadoconfortavelmente na cabine (antes da apresentação da amostra), exibindo o monitor de computador em que a captura de vídeo é exibido. Iniciar a gravação clicando no botão de gravação no monitor do computador.
  2. Instrua os participantes a saborear água para limpar o seu paladar.
  3. Fornecer tratamentos, um de cada vez, começando com uma linha de base ou o tratamento testemunha (água sem sabor). Identificar cada amostra por um cartão de Índice de cor única colocada no topo de cada amostra em relação ao código de cor da amostra para identificação do tratamento da amostra dentro do vídeo.
    Nota: orientação programada no monitor touchscreen instrui os participantes. As instruções dirigir o participante através de uma série de passos normalizados para cada amostra de tratamento.
  4. Via o monitor touchscreen, orientar o participante a:
    1. Mantenha-se a cor associada cartão de índice pré-consumo para a identificação das amostras no vídeo.
      Nota: A placa de cor é uma maneira os pesquisadores podem identificar tratamentos no vídeo umnd marcar o período de tempo apropriado (hora zero) para avaliação da amostra.
    2. Depois de se manter a placa brevemente, colocar a placa de volta na bandeja.
    3. Totalmente consumir a amostra e esperar cerca de 30 segundos, aplicada por meio da orientação programados no monitor, enquanto enfrenta para a câmera.
      Nota: O período de amostragem controlada 30 seg engloba um intervalo de tempo adequado para todo o período de avaliação de amostragem (ou seja, mostrando o cartão de índice, abrindo uma amostra (de retirar a tampa), o consumo e captura emocional).
    4. Digite sua pontuação aceitabilidade hedônica no monitor touchscreen (1 = não gostam muito, 2 = não gostam muito, 3 = não gostam moderadamente, 4 = não gostam ligeiramente, 5 = nem como nem desagrado, 6 = como ligeiramente, 7 = como moderadamente, 8 = gosto muito, 9 = como extremamente).
    5. Enxaguar a boca com água potável antes do próximo processo de amostra.

5. Avaliar automatizadas Opções de análise Expressão Facial

Nota: Existem muitos programas de software de análise de expressão facial. Comandos de software e funções podem variar. É importante seguir as orientações de utilização do fabricante e manual de referência 20.

  1. Guarde as gravações em um formato de mídia e transferir para o software de análise de expressão facial automatizado.
  2. Analisar vídeos participantes usando software de análise facial automatizado.
    1. Dê um duplo clique no ícone do software no desktop do computador.
    2. Uma vez que o programa está aberto, clique em "Arquivo", selecione "Novo ...", e selecione "Project ..."
    3. Na janela pop-up, o nome do projeto e salvar o projeto.
    4. Adicionar participantes para o projeto, clicando no ícone "Adicionar participantes" (Pessoa com um sinal (+)). Mais participantes podem ser adicionados, repetindo este passo.
    5. Adicionar vídeos do participante para o respectivo participante para análise.
      1. No lado esquerdo da tela, clique no ícone do wi rolo de filmeth um sinal de mais (+) para adicionar um vídeo para analisar.
      2. Clique no botão "lupa" sob o participante de interesse para ver o vídeo para adicionar.
  3. Analisar vídeos frame-by-frame em configurações de análise de calibração contínua do software.
    1. Clique no ícone de lápis para ajustar as configurações na parte inferior da janela, sob a guia "Configurações" para cada vídeo participante.
      1. Set "Modelo Face" ao general. Defina "classificações suavizar" para Sim. Defina "Sample Rate" para cada frame.
      2. Defina "Rotação de imagem" para No. Set "calibração contínua" para Sim. Defina "calibração selecionado" para Nenhum.
    2. Salve as configurações do projeto.
    3. Pressione o ícone análise de lotes (o mesmo símbolo de alvo-like vermelho e preto) para analisar os vídeos do projeto.
    4. Salvar os resultados, uma vez a análise for concluída.
      Nota: Existem outras configurações de vídeo no software se researcsua preferência garante outro método de análise.
    5. Considere vídeos falhas se oclusões faciais graves ou a incapacidade de mapear o rosto persistir durante a janela de pós-consumo específico (Figura 1). Além disso, se o modelo de falha de dados vai dizer "FIT_FAILED" ou "FIND_FAILED" nos arquivos de saída exportadas (Figura 2). Isto representa dados perdidos desde que o software não pode classificar ou analisar as emoções dos participantes.
      Nota: AFEA traduz o movimento dos músculos faciais para neutro, feliz, aborrecido, triste, irritado, surpreso e assustado em uma escala de 0 (não expresso) a 1 (totalmente expresso) para cada emoção.
  4. Exportar a saída de dados AFEA como arquivos de log (.txt) para análise posterior.
    1. Uma vez que as análises forem concluídas, exportar todo o projecto.
      1. Clique em "Arquivo", "Export", "projeta exportar os resultados".
      2. Quando uma janela se abrirá, escolha o local de onde as exportações should ser salvo e salvar os arquivos de log (.txt) para uma pasta.
      3. Converter cada vida log participante para uma planilha de dados (.csv ou .xlsx) para extrair dados relevantes.
        1. Abra o software de planilha de dados e selecione a guia "Dados".
        2. Na guia "Dados", no grupo "Obter dados externos", clique em "From Text".
        3. Na "barra de endereços", localizar, clique duas vezes no arquivo de texto participante para importar, e siga as instruções do assistente de tela.
        4. Continuar o processo de exportação para todos os arquivos participantes relevantes.

6. vídeos Timestamp Participante para Análise de Dados

  1. Usando o software AFEA, rever manualmente vídeo de cada participante e identificar o tempo de pós-consumo zero para cada amostra. Grave o timestamp em uma planilha de dados. Pós-consumo é definido quando o copo de amostra está abaixo do queixo do participante e não mais occlui o rosto.
    Nota: A colocação da hora é crítico para a avaliação. O ponto em que a taça não obstrui o rosto é a recomendação ideal e marcas de tempo precisa ser consistente para todos os participantes.
  2. Salve a planilha de dados timestamp (.csv) como referência para extrair dados relevantes a partir de vídeos.
    Nota: vídeos participante também pode ser codificado internamente no software como "Marcação de eventos".

Análise emocional 7. Time Series

Nota: Considere a "linha de base" para ser o controlo (isto é, água sem sabor neste exemplo). O pesquisador tem a capacidade de criar um "estímulo tratamento de linha de base" diferente ou um "tempo de linha de base, sem estímulo" para comparação pareada dependente dos interesses da investigação. O método proposto contas para um estado "default" por meio de um teste estatístico emparelhado. Em outras palavras, o processo utiliza o bloqueio estatística (isto é,um teste emparelhado) para ajustar a aparência padrão de cada participante e, portanto, reduz a variabilidade entre os participantes.

  1. Extrair dados relevantes a partir dos arquivos exportados (.csv ou .xlsx).
    1. Identificar um prazo relevante para a avaliação do estudo (segundos).
    2. extrair manualmente os dados respectivos (quadro tempo) a partir dos arquivos participantes exportados consultoria a hora participante (hora zero).
    3. Compilar dados de tratamento de cada participante (número de participante, o tratamento, a duração do vídeo original, e da emoção de resposta) por emoção (feliz, neutro, triste, irritado, surpreso, assustado e revoltado) para o quadro de seleção tempo (segundos) em uma nova planilha de dados para análise futura (Figura 3).
    4. Continue esse processo para todos os participantes.
  2. Identificar o tempo correspondente a zero a partir do ficheiro de data e hora para cada par participante-tratamento e ajustar o tempo de vídeo para um verdadeiro tempo "0" para a comparação directa ( Figura 5).
    Nota: Os dados de participantes é coletado em um vídeo contínuo, portanto, cada tratamento "tempo zero" é diferente (ou seja, o tempo de vídeo água sem sabor zero é 02: 13.5 e leite sem sabor vídeo tempo zero é 03: 15.4). Na Figura 4 Devido ao diferente tratamento "zeros tempo", os tempos de vídeo precisa ser reajustado e realinhado para começar a "0: 00.0" ou outra hora de início padrão, a fim de comparação tempo direto de dados de resposta emocional de tratamento.
  3. Para cada participante, emoção e ponto de tempo ajustado, extrair o tratamento combinado (por exemplo, o leite sem sabor) e tratamento de controlo (por exemplo, água sem sabor) pontuação emocional quantitativa. Em outras palavras, alinhar o tratamento e controlo de séries temporais de um participante de respostas para cada emoção (Figura 5).
  4. Compilar todas as informações do participante (participante, o tempo ajustado, e tratamento emparelhado(Por exemplo, água sem sabor e sem sabor leite) em cada ponto de tempo (Figura 6).
    Nota: Os passos abaixo demonstram os passos para um teste Wilcox emparelhado com a mão. A maioria dos programas de software de análise de dados fará isso automaticamente. Recomenda-se a discutir o processo de análise estatística com um estatístico.
  5. Uma vez que as amostras são redefinidas e alinhada com os novos tempos de vídeo ajustados, comparar diretamente entre os resultados emocionais de uma respectiva amostra e controle (água sem sabor) usando sequenciais emparelhado testes de Wilcoxon não paramétrico em todo os participantes (Figura 7).
    Nota: O novo alinhamento de tempo das amostras permitirá a comparação direta dentro do 5 segundos pós-consumo período de tempo. Se uma observação emparelhado não está presente em um tratamento, solte o participante de que a comparação ponto de tempo.
    1. Calcular a diferença entre o controle ea respectiva amostra para cada comparação emparelhado usando spreadshe dadossoftware de gerenciamento et.
      Nota: A comparação vai ser dependente da velocidade de imagem seleccionada para análise emocional no software. O protocolo demonstra 30 comparações individuais por segundo por 5 segundos (período de tempo selecionado).
      Nota: Use Figura 7 como referência para colunas e degraus.
      1. Subtrair o valor do leite (por exemplo, leite sem sabor) a partir do valor de controlo (por exemplo, água sem sabor) para determinar a diferença. No software de gestão de folha de cálculo de dados numa nova coluna intitulada "diferença do tratamento", introduzir "= (C2) - (D2)", onde "C2" é os valores emocionais de controlo e "D2" é os valores emocionais de tratamento seleccionado. Continue esse processo para todos os pontos de tempo.
      2. Calcular o valor absoluto da diferença de tratamento. No software de gerenciamento de planilha de dados em uma nova coluna, digite "= ABS (E2)", onde "E2" é a diferença do tratamento. Continue esse processo paratodos os pontos de tempo.
      3. Determinar a ordem de classificação da diferença de tratamento. No software de gerenciamento de planilha de dados em uma nova coluna, digite "= RANK (G2, $ G $ 2: $ G $ 25, 1)" onde "G2" é a diferença absoluta e "1" é "ascendente". Continue esse processo para todos os pontos de tempo.
      4. Determinar a classificação assinada a ordem de classificação na planilha. Mudar o sinal para negativo se a diferença de tratamento foi negativo (Coluna I).
      5. Calcular a soma positiva (= SUMIF (I2: I25, "> 0", I2: I25) e soma negativa = SUMIF (I2: I25, "<0", I2: I25) dos valores de classificação.
      6. Determinar a estatística de teste. A estatística de teste é a soma do valor absoluto mais baixo.
      7. Consultar tabelas estatísticas para Wilcoxon Signed como teste estatístico, utilizando o número de observações incluídas no tempo específico e um valor alfa seleccionado para determinar o valor crítico.
      8. Se a estatística de teste é menor do que o valor crítico rejeitar tele hipótese nula. Se for maior, aceitar a hipótese nula.
  6. Representar graficamente os resultados no gráfico de tratamento associado (ou seja, o leite sem sabor em comparação com a água sem sabor) para os momentos em que a hipótese nula é rejeitada. Usar o sinal da diferença para determinar qual o tratamento tem a maior emoção (Figura 8).
    1. No software de gestão de folha de cálculo de dados, criar um gráfico utilizando os valores da presença ou ausência de significância.
      1. Clique em "Inserir" tab.
      2. Selecione "Line"
      3. Botão direito do mouse na caixa de gráfico.
      4. Clique em "selecionar dados" e siga as instruções na tela para selecionar e gráfico de dados relevantes (Figura 8).
        Nota: Os gráficos vai retratar resultados emocionais, onde a amostra ou controle é maior e significativo. Gráfico dependente, a emoção é maior naquele momento específico, permitindo a capacidade de discernir como as emoções dos participantesevoluem ao longo do período de 5 segunda vez entre duas amostras.
        Nota: Apoio estatístico com um estatístico é altamente recomendado para extrair dados relevantes. Desenvolvimento de codificação estatística é necessária para analisar os resultados emocionais.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

O método propõe um protocolo padrão para coleta de dados AFEA. Se as etapas de protocolo sugerido forem seguidas, inutilizável saída de dados emocional (Figura 1) resultante da coleta de dados pobres (Figura 2: A; imagem da esquerda) pode ser limitada. Análise de séries temporais não pode ser utilizada se os arquivos de log (.txt) predominantemente conter "FIT_FAILED" e "FIND_FAILED" como esta é fornecer dados errados (Figura 1). Além disso, o método inclui um protocolo para a comparação estatística entre os dois tratamentos de saída de dados emocional ao longo de um período de tempo para estabelecer um perfil emocional. análise de séries temporais podem fornecer tendências emocionais ao longo do tempo e pode proporcionar uma dimensão de valor acrescentado aos resultados de aceitabilidade hedônicos. Além disso, análise de séries temporais podem mostrar alterações nos níveis emocionais ao longo do tempo, o que é valioso durante a experiência de comer.

(Figura 9). resultados hedônicos inferir que não houve quaisquer diferenças de aceitabilidade entre o leite sem sabor, água sem sabor e essência de baunilha sabor do leite. No entanto, análise de séries temporais AFEA indicado leite sem sabor gerado menos nojo (p <0,025; 0 seg), surpreendeu (p <0,025; 0-2,0 seg), menos triste (p <0,025; 2,0-2,5 seg) e menos neutro (p <0,025; ~ 3,0-3,5 seg) respostas do que os de água sem sabor (Figura 10). Além disso, o extrato de baunilha sabor do leite introduzido expressões mais felizes pouco antes de 5.0 segundos (p <0,025) e menos triste (p <0,025; 2,0-3,0 e 5,0 seg) do que a água sem sabor (Figura 11). Baunilha, como um odor, tem sido associada com os termos "relaxada", "sereno", "tranquilizados", "alegria", &# 34;. Bem-estar "," agradavelmente surpreendido "23 e" agradável "24 sabor salgado no leite tiveram menor (p <0,05) os escores médios de aceitabilidade hedônicos (não gostava moderadamente) (Figura 9) e sabor salgado no leite gerou mais desgosto (p <0,025) mais tarde (3,0-5,0 segundos) do que a água sem sabor (Figura 12). salgado Intense tem sido associada com desgosto e surpreendeu 25, 26. No entanto, alguns estudos têm indicado que o sabor salgado não provoca resposta facial 7, 27 -29.

figura 1
Figura 1. Exemplo de captura de dados sub-óptima devido à incompatibilidade participante com software AFEA resultando em perda de pontos de resposta de dados emocionais brutas nos arquivos de saída exportados [FIT_FAILED; FIND_FAILED]. Falhas de vídeo ocorrer quando oclusões faciais graves ou a incapacidade de mapear a persi rosto STS durante a janela de pós-consumo especificado. Por favor clique aqui para ver uma versão maior desta figura.

Figura 2
Figura 2. Exemplo de captura de dados sub-óptima devido à modelagem de software participante. A figura apresenta captura de dados sub-óptima devido ao software participante incompatibilidade modelagem e fracasso de mapeamento rosto para determinar a resposta emocional (A). Exemplo de modelagem de ajuste bem sucedido e capacidade de capturar resposta emocional do participante (B). Por favor clique aqui para ver uma versão maior desta figura.

6fig3.jpg "/>
Figura 3. Exemplo de dados dos participantes extraídos compilados em uma nova planilha de dados. Dados de participantes (número de participante, tratamento, tempo de vídeo original, e resposta emoção) é identificado por emoção (feliz, neutro, triste, irritado, surpreso, assustado e revoltado ) para o seleto período de tempo (em segundos). Esta planilha é utilizado para análises subsequentes. Por favor clique aqui para ver uma versão maior desta figura.

Figura 4
Figura 4. Exemplo de dados dos participantes extraídos compilados para análise posterior. Os dados extraídos participantes (A1 e B1) é compilado (A2 e B2), representada graficamente (A3 e B3) e alinhados (A4 e B4) como um visual para comparação direta. Hátempo pectiva zero para o controle (A4: Surpreendido Unflavored água) e tratamento (B4: Surpreendido Unflavored leite) são exibidos para comparar os resultados emocionais surpreendido. Este exemplo representa e identifica o tempo correspondente a zero a partir do arquivo timestamp para cada par participante-tratamento. Por favor clique aqui para ver uma versão maior desta figura.

Figura 5
.. Figura 5. Exemplo de dados dos participantes extraídos com prazo ajustado os dados do participante extraído é apresentado com prazo ajustado com um verdadeiro "tempo zero" (A1 e B1) O ajuste do tempo permite a comparação directa entre um controle (A: Surpreendido sem sabor água) e um tratamento (B2: surpreendido Unfla vored leite) (A2 e B2). Este exemplo representa e identifica o verdadeiro "tempo zero" correspondente (ajustado) do arquivo timestamp para cada par participante-tratamento. Por favor clique aqui para ver uma versão maior desta figura.

Figura 6
Figura 6. Exemplo de o processo de compilação de dados de todos os participantes. O participante, o tempo ajustado, e tratamento combinado (por exemplo, água sem sabor e leite sem sabor) em cada ponto de tempo é compilado para se preparar para a análise estatística. Por favor clique aqui para ver uma versão maior desta figura.

ES / ftp_upload / 54046 / 54046fig7.jpg "/>
Figura exemplo planilha 7. Os dados comparando um controle (sem sabor Água) e um tratamento (Unflavored Milk), utilizando testes de Wilcoxon entre os participantes em um ponto de tempo específico. O número representa uma comparação direta entre os resultados emocionais de uma respectiva amostra eo controle (água sem sabor ) usando sequencial emparelhado testes não paramétrico de Wilcoxon em todo os participantes. por favor clique aqui para ver uma versão maior desta figura.

Figura 8
Figura 8. Exemplo de planilha de dados para representar graficamente os resultados se (p <0,025) no gráfico tratamento associado (ou seja, o leite sem sabor em comparação com a água sem sabor). Resultados do sequencial emparelhado testes não paramétrico de Wilcoxon em toda a particints são representados graficamente para os tempos em que a hipótese nula é rejeitada. Por favor clique aqui para ver uma versão maior desta figura.

Figura 9
Figura 9. aceitabilidade média (hedônicos) marca de água sem sabor, leite sem sabor, o extrato de baunilha sabor do leite e sabor salgado em soluções de leite de bebidas. A aceitabilidade foi com base em uma escala hedônica de 9 pontos (1 = não gostam muito, 5 = nem como nem desagrado, 9 = como extremamente, média +/- SD) 1. Tratamento significa com diferentes expoentes diferem significativamente no gosto (p <0,05). leite sem sabor, água e baunilha sabor sem sabor no leite não foram diferentes (p> 0,05) nos valores médios de aceitabilidade e foram classificados como "gostei ligeiramente". sabor salgado no leite teve um menor (p <0.05) as pontuações médias de aceitabilidade (não gostei moderadamente). Por favor clique aqui para ver uma versão maior desta figura.

Figura 10
Figura 10. Tempo de gráficos da série de emoções classificados na análise de dados de expressão facial automatizado mais de 5,0 segundos, comparando o leite sem sabor e água sem sabor. Com base em testes de Wilcoxon sequenciais emparelhados não paramétricas entre o leite sem sabor e água sem sabor (baseline), os resultados são plotados no respectivo gráfico de tratamento Se a mediana tratamento é mais elevada e de maior significância (p <0,025) para cada emoção. A presença de uma linha indica uma diferença significativa (p <0,025) no ponto de tempo específico em que a média é maior, enquanto que a ausência de uma linha indica que não há diferença em um ponto de tempo específico (p> 0,025). Ausênciade linhas em leite sem sabor (A) não revela nenhuma categorização emocional em comparação com a água sem sabor (p <0,025) durante 5,0 segundos. Na água sem sabor (B), os resultados emocionais em relação ao leite sem sabor revelam nojo (linha carmesim) a 0 seg, surpreendeu (linha laranja) ocorre entre 0-1,5 seg, triste (linha verde) ocorre cerca de 2,5 segundos e neutro (vermelho line) ocorre cerca de 3 -. 3,5 seg (p <0,025) por favor clique aqui para ver uma versão maior desta figura.

Figura 11
Figura 11. Tempo gráficos da série de emoções classificados com base em dados de análise de expressão facial automatizado sobre 5,0 segundos comparando baunilha sabor em leite e água sem sabor (baseline). Com base sequencial emparelhado testes não paramétrico de Wilcoxon entreextrato de baunilha sabor em leite e água sem sabor, os resultados são plotados no respectivo gráfico de tratamento se mediana de tratamento é maior e de maior significância (p <0,025) para cada emoção. A presença de uma linha indica uma diferença significativa (p <0,025) no ponto de tempo específico em que a média é maior, enquanto que a ausência de uma linha indica que não há diferença em um ponto de tempo específico (p> 0,025). Extrato de baunilha sabor do leite (A) mostra feliz pouco antes de 5 segundos (linha azul), enquanto a água sem sabor (B) exibe mais triste em torno de 2-2,5 e 5 seg (linha verde) (p <0,025). Por favor clique aqui para ver uma versão maior desta figura.

Figura 12
Figura 12. gráficos de séries temporais de emoções classificados com base na expres faciais automatizadosdados de análise sion mais de 5,0 segundo comparando sabor salgado no leite e água sem sabor. Com base em testes de Wilcoxon sequenciais emparelhados não paramétricos entre sabor salgado em leite e água sem sabor (baseline), os resultados são plotados no respectivo gráfico de tratamento se mediana de tratamento é maior e de maior significância (p <0,025) para cada emoção. A presença de uma linha indica uma diferença significativa (p <0,025) no ponto de tempo específico em que a média é maior, enquanto que a ausência de uma linha indica que não há diferença em um ponto de tempo específico (p> 0,025). Sabor salgado no leite (A) tem aversão significativa a partir de 3 - 5 segundos (linha vermelho), enquanto a água sem sabor (B) tem nojo no início (linha vermelho) e mais neutra a partir de 2 - 5 segundos (linha vermelha) (p <0,025 ). por favor clique aqui para ver uma versão maior desta figura.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

AFEA aplicação na literatura relacionada com alimentos e bebidas é muito limitado 1-11. O pedido de alimentos é novo, criando uma oportunidade para o estabelecimento de metodologia e dados de interpretação. Arnade (2013) 7 encontrada grande variabilidade individual entre a resposta emocional individual ao leite com chocolate e leite branco com área sob a curva de análise e análise de variância. No entanto, mesmo com a variabilidade participante, os participantes gerou uma resposta feliz mais tempo, enquanto triste e revoltado teve resposta menor tempo 7. Em um estudo separado usando alta e baixa concentração de sabores básicos, Arnade (2013) 7, constatou que as diferenças na resposta emocional entre os sabores básicos, bem como entre dois níveis de intensidade de sabor básicos (alta e baixa intensidade), não eram tão significativa como seria de esperar, questionando assim a precisão da análise metodologia AFEA e de dados atual. Avaliação sensorial dos alimentos e das bebidas é um complexo e Dynaprocesso de resposta mic 30. Variações temporais pode ocorrer ao longo de processamento oral e deglutição, assim, potencialmente influenciar a aceitabilidade dos estímulos ao longo do tempo 30. Por esta razão, pode benéfico para medir a resposta avaliador ao longo de toda a experiência de comer. Tempos de processamento orais específicas têm sido sugeridas (contato inicial com a língua, mastigação, deglutição, etc.) 31, mas nenhum são padronizados e os tempos são em grande parte dependente do projeto e discrição do investigador 30.

A análise de séries temporais emocional proposto foi capaz de detectar alterações emocionais e diferenças estatísticas entre o controle (água sem sabor) e respectivos tratamentos. Além disso, os perfis emocionais associados com a aceitação pode ajudar na antecipação de comportamento relacionado aos alimentos e bebidas. Os resultados mostram que o tempo distinguíveis existem tendências série com AFEA relacionadas com sabores no leite (Figuras 10 11, e 12). As assistências análise de séries temporais em diferenciar a aceitabilidade dos alimentos em toda uma população, integrando as emoções caracterizadas (Figura 10, 11 e 12), bem como apoiar as tendências de aceitabilidade hedônicos (Figura 9). Leitch et al. 8 observaram diferenças entre adoçantes e a linha de base de água por meio de análise de séries temporais (5 seg), e também descobriram que a utilização de gráficos de séries temporais previsto uma melhor interpretação dos dados e resultados. Além disso, alterações emocionais pode ser observado ao longo do tempo e as diferenças de tratamento resposta emocional pode ser determinada a diferentes pontos de tempo ou intervalos. Por exemplo, Leitch et al. 8 observaram que as emoções de aproximação (com raiva, feliz e surpreso) foram observadas entre as comparações adoçante de água artificiais, mas foram observadas em momentos diferentes ao longo janela de observação a 5 seg. Contudo,Leitch et al. 8 não estabelecer direcionalidade de expressão, o que torna difícil compreender a diferença emocional entre o controle (água) e o tratamento (chá sem açúcar), utilizando a sua interpretação gráfica e apresentação. A metodologia de análise de séries temporais modificado e melhorado apresentado em nosso estudo permite a direcionalidade diferença estatística. A direcionalidade e os resultados de plotagem permite aos pesquisadores visualizar onde ocorrem alterações emocionais estatisticamente relevantes sobre o período de tempo selecionado.

Reduzindo as falhas de análise de vídeo é essencial para atingir dados válidos e efetivamente usando tempo e recursos pessoais. As etapas críticas e passos de resolução de problemas no protocolo incluem a otimização do ambiente sensorial participante (iluminação, vídeo ângulo da câmera, altura da cadeira, instruções de orientação participante completas, etc.). Além disso, os participantes devem ser selecionados e excluídos se cair em um inc softwarecategoria OMPATIBILIDADE (ou seja, óculos de lentes grossas emoldurados, rostos muito barbudos e tom de pele) (Figura 2). Estes factores vão influenciar AFEA modelagem fit, categorização emocional e saída de dados. Se uma parte significativa da produção de dados de um participante consiste em "FIT_FAILED" e "FIND_FAILED", os dados devem ser reavaliados para inclusão na análise de séries temporais (Figura 1). Análise de séries temporais não pode ser utilizada se os arquivos de log de ​​saída de dados predominantemente conter "FIT_FAILED" e "FIND_FAILED" como esta é fornecer dados errados (Figura 1). Sombreamento no rosto, devido às opções de iluminação pode inibir gravemente a qualidade de captura de vídeo, resultando em coleção de vídeo pobres. Para evitar sombreamento intenso, iluminação frontal difusa é ideal quando a intensidade da luz ou a cor não é tão relevante 20. Iluminação superior intensa deve ser reduzida, uma vez que pode promover sombras na face 20. Um fundo escuro por trás doparticipante é recomendado 20. É sugerido do fabricante do software AFEA para colocar a configuração em frente a uma janela para têm luz difusa iluminação 20. Além disso, se estiver usando um monitor de computador, duas luzes podem ser colocados em cada lado do rosto do usuário para a iluminação e sombra redução de 20. Além disso, luzes de fotografia profissional pode ser usado para neutralizar ambiente indesejável iluminação 20. Em última análise, cabe ao critério do investigador, indivíduo protocolo / metodologia e ambiente para controlar a iluminação para a captura. Recomenda-se para discutir o ambiente de captura de dados e as ferramentas com o fornecedor de software antes da compra e instalação. Além disso, a altura da cadeira e ângulo da câmera são importantes para ajustar individualmente para cada participante. O participante deve ser confortável, mas a uma altura em que a câmera é em linha reta no rosto. Uma tentativa de reduzir o ângulo da câmera no rosto é incentivado para otimizar o AFEA captura de vídeo. Por último, é imperativo para dar instruções verbais aos participantes antes da amostragem. o comportamento dos participantes durante a captura de vídeo pode limitar a coleta de dados devido à oclusão facial, movimentos e evitar câmera.

Por tamanho da amostra participante necessário para um estudo, os autores recomendam um intervalo de 10 a 50 participantes. Embora um pequeno número irá fornecer quase nenhum poder estatístico, pelo menos 2 participantes são necessários em geral para análise de séries temporais. Participante variabilidade é alta, e na fase inicial desta pesquisa não há nenhuma orientação para oferecer com o tamanho da amostra. O tamanho da amostra irá variar dependendo de sabores, intensidade do sabor, e esperado aceitabilidade tratamento. As amostras com menores diferenças de sabor exigirá mais participantes. A 30 segundo período de amostragem controlada engloba um intervalo de tempo adequado para o período de avaliação de toda a amostragem (ou seja, mostrando o cartão de índice, abrindo uma amostra (de retirar a tampa), Consção e captura emocional). Toda a 30 segundos não é utilizado na análise de dados. O benefício deste 30 segundo tempo de captura é designado que o investigador pode decidir o tempo de avaliação pertinente para ser usado na análise de dados. A janela de tempo de 30 segundo pode ajudar na escolha de um período de tempo de interesse durante uma amostra de vídeo durante a codificação ou timestamping vídeos. Em última análise, a janela de tempo é a critério do investigador. No nosso exemplo, usamos a 5 seg janela de amostragem pós-consumo. Além disso, a presente metodologia define o tempo de zero quando o copo de amostra não tapa a face (copo no queixo). É extremamente importante para diminuir o tempo entre o consumo e copo de amostra de oclusão facial devido à breve e mudança emoções. Devido à oclusão facial copo de amostra o tempo inicial, em que a amostra entra em contacto com a lingueta é dados não fiáveis ​​(ver Figura 1). Portanto, o ponto onde o copo não oclui a face é a óptima recomendaçõn. Timestamps precisa ser consistente para todos os participantes. O cartão da cor é uma maneira conveniente para os investigadores a identificar tratamentos no vídeo e marcar o período de tempo apropriado (hora zero) para avaliação da amostra. Os cartões de cor são especialmente úteis se os tratamentos estão em ordem aleatória e servir como uma validação adicional de identificação da amostra no vídeo contínuo.

Limitações desta técnica existir como participantes podem não seguem as direcções ou sombreamento inevitável no rosto do participante pode causar falhas face fino modelo (Figura 2). No entanto, as etapas críticas sugeridas oferecer maneiras de mitigar e reduzir essas interferências. Além disso, análise de séries temporais não vai ler exportados arquivos de log com arquivos contendo predominantemente "FIT_FAILED" e "FIND_FAILED" (Figura 1). Estes arquivos não podem ser recuperadas e não será capaz de ser incluído na análise de séries temporais. Além disso, o consumo de alimentos e BeveraGES pode ainda alterar a estrutura facial, de tal forma a distorcer a categorização emocional. alimentos duros ou mastigável exigem extensa movimentação mandibular. O uso de um canudo e sucção associada, também provoca a oclusão facial (palha) e distorce a face (sucção). Esta observação é baseada em dados preliminares de nossa pesquisa de laboratório. O modelo facial software não pode discernir as diferenças entre mascar (ou chupar) e expressões motoras associadas com a categorização emocional. Com amostras de alimentos e bebidas, a oportunidade para oclusão facial é maior do que a visualização de vídeos e imagens. Os participantes devem levar a amostra para a face e remover o recipiente a partir da face interrompendo, assim, o modelo de software e reduzindo potencialmente valiosa informação emocional (Ver Figura 1). Como mencionado anteriormente, as emoções acontecem rapidamente e por um curto período. É importante para reduzir a oclusão facial, num esforço para capturar emoções. A metodolo propostagia faz comparações de tratamentos em um trigésimo de segundo para encontrar mudanças nos padrões emocionais e mudanças de duração emocional ao longo do tempo. Com a metodologia proposta, os padrões de longevidade emocional são importantes. Infelizmente, os problemas de categorização emocionais podem ocorrer. Mais notavelmente há um problema categorizar feliz e desgosto 6, 9, 32, 33, 34. Muitas vezes, isso é devido aos participantes que mascaram sua aversão ou sentimento surpreendido por sorrir 6, 32, 33, 34, que pode ser devido a um "sociais regra de exibição "32. Além disso, o software AFEA é limitado a sete categorias emocionais (neutros, feliz, triste, com medo, surpresa, raiva e nojo). resposta emocional para alimentos e bebidas pode ser mais complexa do que a classificação AFEA corrente de emoções universais e categorização pode ser diferente, em resposta a um alimento ou bebida estímulos. Manual de codificação usando FACS tem sido aplicada a gustofacial e respostas olfactofacial de sabores básicos euma variedade de odores e parecia ser sensível o suficiente para detectar diferenças de tratamento em relação a AUS 32. FACS é tedioso e consome muito tempo, no entanto, a aplicação no tempo de ausência ou presença de UA pode ser útil para ajudar com respostas complexas que AFEA pode não classificar corretamente ou se os resultados emocionais são inesperados. Embora os dados de séries temporais permite classificações faciais para ocorrer simultaneamente e com expressão significativa, o cuidado deve ser usado com traduzindo resultados em uma única emoção devido à complexidade emocional.

A técnica metodologia e análise de dados proposto pode ser aplicado a outras bebidas e alimentos moles. software AFEA foi capaz de identificar emoções para aromatizados e amostras sem sabor. A metodologia proposta e análise temporal pode ajudar com a caracterizar respostas implícitas, assim, fornecendo novos avanços em respostas emocionais e comportamentos de uma população relativa aos géneros alimentícios. As aplicações futuras de thé técnica pode expandir-se para outras categorias de bebidas ou alimentos macios. Nós demonstramos metodologia para atingir captura de vídeo para uma resposta emocional e metodologia de análise de dados. Nosso objetivo é criar uma abordagem padrão tanto para a captura AFEA emocional e análise de séries temporais emocional. A abordagem método tem demonstrado sucesso em nossa pesquisa. Esperamos expandir e aplicar esta abordagem para avaliar a resposta emocional aos alimentos e bebidas ea relação à escolha e comportamentos.

Subscription Required. Please recommend JoVE to your librarian.

Materials

Name Company Catalog Number Comments
2% Reduced Fat Milk Kroger Brand, Cincinnati, OH or DZA Brands, LLC, Salisbury, NC na for solutions
Drinking Water Kroger Brand, Cincinnati, OH na for solutions
Imitation Clear Vanilla Flavor Kroger Brand, Cincinnati, OH na for solutions
Iodized Salt Kroger Brand, Cincinnati, OH na for solutions
FaceReader 6 Noldus Information Technology, Wageningen, The Netherlands na For Facial Analysis
Sensory Information Management System (SIMS) 2000 Sensory Computer Systems, Berkeley Heights, NJ Version 6 For Sensory Data Capture
Rhapsody Acuity Brands Lighting, Inc., Conyers, GA For Environment Illumination
R Version  R Core Team 2015 3.1.1 For Statistical Analysis
Microsoft Office Microsoft na For Statistical Analysis
JMP Statistical Analysis Software (SAS) Version 9.2, SAS Institute, Cary, NC na For Statistical Analysis
Media Recorder 2.5 Noldus Information Technology, Wageningen, The Netherlands na For capturing participants sensory evaluation
Axis M1054 Camera Axis Communications, Lund, Sweden na
Beverage na Beverage or soft food for evaluation

DOWNLOAD MATERIALS LIST

References

  1. De Wijk, R. A., Kooijman, V., Verhoeven, R. H. G., Holthuysen, N. T. E., De Graaf, C. Autonomic nervous system responses on and facial expressions to the sight, smell, and taste of liked and disliked foods. Food Qual Prefer. 26 (2), 196-203 (2012).
  2. De Wijk, R. A., He, W., Mensink, M. G. J., Verhoeven, R. H. G., De Graaf, C. ANS responses and facial expression differentiate between the taste of commercial breakfast drinks. PLoS ONE. 9 (4), 1-9 (2014).
  3. He, W., Boesveldt, S., De Graaf, C., De Wijk, R. A. Behavioural and physiological responses to two food odours. Appetite. 59 (2), 628 (2012).
  4. He, W., Boesveldt, S., De Graaf, C., De Wijk, R. A. Dynamics of autonomic nervous system responses and facial expressions to odors. Front Psychol. 5 (110), 1-8 (2014).
  5. Danner, L., Sidorkina, L., Joechl, M., Duerrschmid, K. Make a face! Implicit and explicit measurement of facial expressions elicited by orange juices using face reading technology. Food Qual Prefer. 32 (2014), 167-172 (2013).
  6. Danner, L., Haindl, S., Joechl, M., Duerrschmid, K. Facial expression and autonomous nervous system responses elicited by tasting different juices. Food Res Int. 64 (2014), 81-90 (2014).
  7. Arnade, E. A. Measuring consumer emotional response to tastes and foods through facial expression analysis [thesis]. , Virginia Tech. Blacksburg. 1-187 (2013).
  8. Leitch, K. A., Duncan, S. E., O'Keefe, S., Rudd, R., Gallagher, D. L. Characterizing consumer emotional response to sweeteners using an emotion terminology questionnaire and facial expression analysis. Food Res Int. 76, 283-292 (2015).
  9. Crist, C. A., et al. Application of emotional facial analysis technology to consumer acceptability using a basic tastes model. Technical Abstracts and Proceedings of the 2014 Institute of Food Technologists Annual Meeting, 2014 Jun 21 - 24, New Orleans, LA, , (2014).
  10. Garcia-Burgos, D., Zamora, M. C. Facial affective reactions to bitter-tasting foods and body mass index in adults. Appetite. 71 (2013), 178-186 (2013).
  11. Garcia-Burgos, D., Zamora, M. C. Exploring the hedonic and incentive properties in preferences for bitter foods via self-reports, facial expressions and instrumental behaviours. Food Qual Prefer. 39 (2015), 73-81 (2015).
  12. Lewinski, P., Fransen, M. L., Tan, E. S. H. Predicting advertising effectiveness by facial expressions in response to amusing persuasive stimuli. J. Neurosci. Psychol. Econ. 7 (1), 1-14 (2014).
  13. Ekman, P., Friesen, W. V. Facial action coding system: A technique for the measurement of facial movement. , Consulting Psychologists Press. Palo Alto, California. (1978).
  14. Viola, P., Jones, M. Rapid object detection using a boosted cascade of simple features. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern. 1, 511-518 (2001).
  15. Sung, K. K., Poggio, T. Example-based learning for view-based human face detection. IEEE Trans. Pattern Anal. Mach. Intell. 20 (1), 39-51 (1998).
  16. FaceReader 5™ Technical Specifications. , Noldus Information Technology. Wageningen, The Netherlands. Available from: http://www.webshop.noldus.com/media/techspec/facereader _techspec.pdf (2014).
  17. Cootes, T., Taylor, C. Statistical models of appearance for computer vision: Technical report. , University of Manchester, Wolfson Image Analysis Unit, Imaging Science and Biomedical Engineering. (2000).
  18. Bishop, C. M. Neural networks for pattern recognition. , Oxford University Press. New York. (1995).
  19. Lewinski, P., den Uyl, T. M., Butler, C. Automated facial coding: validation of basic emotions and FACS AUs in FaceReader. J. Neurosci. Psychol. Econ. 7 (4), 227-236 (2014).
  20. Noldus Information Technology. FaceReader Reference Manual Version 6. , Wageningen, The Netherlands. (2014).
  21. Alves, N. T., Fukusima, S. S., Aznar-Casanova, J. A. Models of brain asymmetry in emotional processing. Psychol Neurosci. 1 (1), 63-66 (2008).
  22. Costello, M., Clark, S. Preparation of samples for instructing students and staff in dairy products evaluation (Appendix F). The sensory evaluation of dairy foods. Clark, S., Costello, M., Drake, M., Bodyfelt, F. , 2nd, Springer. New York. 551-560 (2009).
  23. Porcherot, C., et al. How do you feel when you smell this? Optimization of a verbal measurement of odor-elicited emotions. Food Qual Prefer. 21, 938-947 (2010).
  24. Warrenburg, S. Effects of fragrance on emotions: Moods and physiology. Chem. Senses. 30, i248-i249 (2005).
  25. Bredie, W. L. P., Tan, H. S. G., Wendin, K. A comparative study on facially expressed emotions in response to basic tastes. Chem. Percept. 7 (1), 1-9 (2014).
  26. Wendin, K., Allesen-Holm, B. H., Bredie, L. P. Do facial reactions add new dimensions to measuring sensory responses to basic tastes? Food Qual Prefer. 22, 346-354 (2011).
  27. Rosenstein, D., Oster, H. Differential facial responses to four basic tastes in newborns. Child Dev. 59 (6), 1555-1568 (1988).
  28. Rosenstein, D., Oster, H. Differential facial responses to four basic tastes in newborns. What the face reveals: Basic and applied studies of spontaneous expression using the facial action coding system (FACS). P, E. kman, E, R. osenberg , Oxford University Press, Inc. New York. 302-327 (1997).
  29. Rozin, P., Fallon, A. E. A perspective on disgust. Psychol. Rev. 94 (1), 23-41 (1987).
  30. Delarue, J., Blumenthal, D. Temporal aspects of consumer preferences. Curr. Opin. Food Sci. 3, 41-46 (2015).
  31. Sudre, J., Pineau, N., Loret, C., Marin, N. Comparison of methods to monitor liking of food during consumption. Food Qual Prefer. 24 (1), 179-189 (2012).
  32. Weiland, R., Ellgring, H., Macht, M. Gustofacial and olfactofacial responses in human adults. Chem. Senses. 35 (9), 841-853 (2010).
  33. Ekman, P. Universal and cultural differences in facial expressions of emotion. Nebraska symposium on motivation. Cole, J. , University of Nebraska Press. Lincoln (NE). 207-283 (1971).
  34. Griemel, E., Macht, M., Krumhuber, E., Ellgring, H. Facial and affective reactions to tastes and their modulation by sadness and joy. Physiol Behav. 89 (2), 261-269 (2006).

Tags

Comportamento Edição 114 Análise de Expressão Facial Avaliação Sensorial Emoção bebidas Ciência dos Alimentos Análise de Séries Dairy
Protocolo para Recolha de Dados e Análise Aplicada à Tecnologia Análise Expressão Facial automatizada e Análise Temporal de Avaliação Sensorial
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Crist, C. A., Duncan, S. E.,More

Crist, C. A., Duncan, S. E., Gallagher, D. L. Protocol for Data Collection and Analysis Applied to Automated Facial Expression Analysis Technology and Temporal Analysis for Sensory Evaluation. J. Vis. Exp. (114), e54046, doi:10.3791/54046 (2016).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter