Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Protocole de collecte de données et d'analyse appliquée à la technologie d'analyse de l'expression du visage automatisé et analyse temporelle pour l'évaluation sensorielle

Published: August 26, 2016 doi: 10.3791/54046

Summary

Un protocole pour la capture et l'analyse statistique de la réponse émotionnelle d'une population de boissons et d'aliments liquéfié dans un laboratoire d'analyse sensorielle en utilisant un logiciel d'analyse d'expression faciale automatisée est décrite.

Introduction

analyse de l'expression du visage automatique (AFEA) est un outil d'analyse prospective pour caractériser les réponses émotionnelles à des boissons et des aliments. analyse émotionnelle peut ajouter une dimension supplémentaire aux méthodologies existantes sensorielles scientifiques, les pratiques d'évaluation des aliments et évaluations à l'échelle hédonique généralement utilisé à la fois dans les milieux de la recherche et de l'industrie. analyse émotionnelle pourrait fournir une mesure supplémentaire qui révèle une réponse plus précise aux aliments et aux boissons. Notation hédonique peut comprendre le biais des participants en raison de l' échec d'enregistrer les réactions 1.

la recherche AFEA a été utilisé dans de nombreuses applications de recherche, y compris les jeux d'ordinateur, le comportement de l'utilisateur, l'éducation / pédagogie et des études de psychologie sur l'empathie et la tromperie. La plupart des recherches de la nourriture associée a mis l'accent sur la caractérisation réponse émotionnelle à la qualité des aliments et le comportement humain avec de la nourriture. Avec la récente tendance à obtenir un aperçu des comportements alimentaires, un nombre croissant de rapports de la littérature utilisent des AFEApour caractériser la réponse émotionnelle humaine associés aux aliments, boissons et odorants 1-12.

AFEA est dérivé de l'action du système de codage facial (FACS). Le système de codage d'action du visage (FACS) discrimine les mouvements du visage , caractérisé par des unités d'action (AUS) sur une échelle d'intensité de 5 points 13. L'approche FACS exige des experts d'examen formés, le codage manuel, temps d'évaluation significative, et fournit des options limitées d'analyse des données. AFEA a été développé comme une méthode d'évaluation rapide pour déterminer les émotions. AFEA logiciel repose sur les mouvements du visage musculaire, les bases de données du visage, et des algorithmes pour caractériser la réponse émotionnelle 14-18. Le logiciel AFEA utilisé dans cette étude a atteint un «indice FACS d'un accord de 0,67 en moyenne, à la fois sur l'Ensemble de Varsovie de Emotional Photos Facial Expression (WSEFEP) et Amsterdam dynamique Visage expressif Set (ADFES), qui est proche d'un accord type de 0,70 pour le codage manuel "19 20. En outre, la littérature de la psychologie comprend heureux, surpris et en colère que les émotions "approche" (vers stimuli) et triste, effrayé, et dégoûté que les émotions de «sevrage» (loin de stimuli aversif) 21.

Une limitation du logiciel AFEA courant pour caractériser les émotions associées à des aliments est l'interférence des mouvements du visage associés à la mastication et la déglutition ainsi que d'autres mouvements de motricité globale, tels que les mouvements de la tête extrêmes. Le logiciel cible des mouvements plus petits visage musculaires, la position relative et le degré de mouvement, basé sur plus de 500 points de muscle sur le visage 16,17. Chewing mouvements interfèrent avec la classification des expressions. Cette limiteation peut être traitée en utilisant des aliments liquéfiés. Cependant, d'autres défis méthodologiques peuvent également diminuer la sensibilité de la vidéo et de l'analyse AFEA y compris l'environnement de données de collecte, de la technologie, des instructions de chercheur, le comportement des participants, et participant attributs.

Une méthodologie standard n'a pas été mis au point et vérifié pour la capture vidéo optimale et l'analyse des données en utilisant AFEA pour une réponse émotionnelle à des aliments et des boissons dans un environnement de laboratoire d'évaluation sensorielle. De nombreux aspects peuvent affecter l'environnement de capture vidéo, y compris l'éclairage, ombrage en raison de l'éclairage, les directions des participants, le comportement des participants, la hauteur des participants, ainsi que, la hauteur de la caméra, appareil photo pêche à la ligne, et les réglages de l'équipement. En outre, les méthodes d'analyse des données sont incohérentes et manquent d'une méthodologie standard pour l'évaluation de la réponse émotionnelle. Ici, nous allons démontrer notre procédure d'exploitation standard pour la capture de données de données et de traitement émotionnel dans des résultats significatifs à l'aide de boissons (lait aromatisé, le lait et l'eau unflavored unflavored) pour l'évaluation. À notre connaissance , un seul examen par les pairs publication, de notre groupe de laboratoire, a utilisé des séries chronologiques pour l' interprétation des données pour l' analyse des émotions 8; Cependant, la méthode a été mise à jour pour notre méthode présentée. Notre objectif est de développer une méthodologie améliorée et cohérente pour aider à la reproductibilité dans un laboratoire d'évaluation sensorielle. Pour la démonstration, l'objectif du modèle d'étude est d'évaluer si AFEA pourrait compléter l'évaluation de l'acceptabilité hédonique traditionnelle du lait aromatisé, le lait et l'eau unflavored unflavored. Le but de ce protocole vidéo est d'aider à établir la méthodologie de AFEA, normaliser les critères de capture vidéo dans un laboratoire d'évaluation sensorielle (réglage de la cabine sensorielle), et illustrent une méthode pour émotionnelle analyse temporelle des données d'une population.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Déclaration éthique: Cette étude a été pré-approuvée par Tech Institutional Review Board Virginia (CISR) (CISR 14-229) avant de démarrer le projet.

Attention: la recherche du sujet humain nécessite le consentement préalable à la participation. En plus de l'approbation de la CISR, consentement à l'utilisation d'images fixes ou vidéo est également nécessaire avant de libérer des images pour l'impression, la vidéo ou l'imagerie graphique. De plus, les allergènes alimentaires sont divulgués avant l'essai. Les participants sont invités avant le début du panneau si elles ont des allergies ou d'intolérance, d'autres préoccupations.

Remarque: Critères d'exclusion: analyse de l'expression du visage automatique est sensible aux lunettes épaisses encadrées, des visages très barbus et tonicité de la peau. Les participants qui ont ces critères sont incompatibles avec l'analyse de logiciels en raison d'un risque accru de vidéos qui ont échoué. Cela est attribué à l'incapacité du logiciel pour trouver le visage.

1. Préparation des échantillons et Recrutement des participants

  1. Préparer une boisson ou doucedes échantillons d'aliments.
    1. Préparer des arômes intensification des solutions de produits laitiers à l' aide de 2% de lait et a suggéré de Costello et Clark (2009) 22 ainsi que d' autres saveurs. Préparer les solutions suivantes: (1) le lait unflavored (2% réduit de lait écrémé); (2) l'eau unflavored (eau potable); (3) la saveur de l'extrait de vanille dans le lait (0,02 g / ml) (imitation de vanille claire saveur); et (4) saveur salée dans le lait (0,004 g / ml de sel iodé).
      Remarque: Ces solutions sont utilisées uniquement à des fins de démonstration.
    2. Verser la moitié once aliquotes (~ 15 g) de chaque solution dans 2 oz transparentes tasses d'échantillons en plastique et une casquette avec un code couleur des couvercles.
      Remarque: Il est recommandé d'utiliser des gobelets transparents; cependant, il est à la discrétion du chercheur.
  2. Recruter des participants du campus ou de la communauté locale à participer à l'étude.
    Note: La taille de l'échantillon des participants nécessaires à une étude est à la discrétion du chercheur. Nous recommandons une gamme de 10 à 50 participants. Obtenir le consentement sujet humain avant de participer à l'étude.

2. Préparation de la chambre Panel pour la capture de la vidéo

Remarque: Ce protocole est pour la capture de données dans un laboratoire d'évaluation sensorielle. Ce protocole est de faire la capture de données AFEA utile pour un réglage de la cabine sensorielle.

  1. Utiliser des cabines individuelles avec un moniteur à écran tactile en face d'eux (niveau du visage) pour garder leur attention vers l'avant et pour empêcher regardant vers le bas.
  2. Utilisez des chaises réglables en hauteur avec support lombaire.
    Remarque: Ces éléments sont essentiels pour permettre aux participants d'être ajustés et placés dans une gamme appropriée pour la capture vidéo verticalement. Utilisez des chaises fixes (pas de fonction de roulement) avec le soutien de la hauteur du dossier réglable afin que les mouvements du participant sont réduits.
  3. Régler l'éclairage aérien à "100% jour" pour optimale du visage capture vidéo émotionnelle (Illuminant 6504K; R = 206; G = 242; B = 255).
    Remarque: Pour éviter l'observation intense, éclairage frontal diffus est ideal tandis que l'intensité de la lumière ou de couleur ne sont pas aussi pertinents 20. En fin de compte, il est à la discrétion du chercheur, individuel protocole / méthodologie et de l'environnement pour contrôler l'éclairage pour la capture.
  4. Apposer une caméra réglable au-dessus du moniteur à écran tactile pour l'enregistrement.
    1. Utilisez un appareil photo avec une résolution d'au moins 640 x 480 pixels (ou plus) 20. Discutez des capacités de la caméra nécessaires avec le fournisseur de logiciels avant l' achat et l' installation 20. Remarque: Le rapport d'aspect est pas important 20.
    2. Réglez l'appareil photo Vitesse de capture à 30 images par seconde (ou une autre vitesse standard) pour la cohérence.
    3. Connectez-vous et assurer les médias logiciel d'enregistrement est configuré pour la caméra pour enregistrer et enregistrer des vidéos des participants.

3. Ajustement des participants et des instructions verbales

  1. Avoir un seul participant à la fois évaluer les échantillons dans la cabine sensorielle.
    Remarque: Tester plus deun participant en même temps peut interférer avec l'environnement de test et de perturber la concentration du participant ou de créer partialité.
  2. À l'arrivée, donner aux participants des instructions verbales au sujet du processus et des procédures normalisées d'exploitation.
    1. Demandez aux participants assis droit et contre le dos de la chaise.
    2. Régler la hauteur de la chaise, la position de la chaise (distance de la caméra), et l'angle de la caméra afin que le visage du participant est capturé dans le centre de l'enregistrement vidéo, sans ombres sur le menton ou autour des yeux.
      Remarque: Dans la cabine sensorielle, la tête du participant est d'environ 20-24 pouces de la caméra et le moniteur avec la face centrée dans l'alimentation de la caméra vidéo.
    3. Demandez aux participants de rester assis comme positionné et focalisé tourné vers l'affichage du moniteur. De plus, demandez aux participants de s'abstenir de tout mouvement brusque de la consommation post-échantillon pendant la période d'évaluation de 30 secondes par échantillon. Demander au participant de consommer la totalité de la boisson ou de l'échantillon alimentaire liquéfié et avaler.
    4. Demander au participant de se déplacer rapidement l'échantillon tasse sous le menton et en bas à la table immédiatement après que l'échantillon est dans la bouche. Ceci est d'éliminer l'occlusion du visage. Rappelez-leur de continuer à chercher vers l'écran.
      Remarque: Le porte-échantillon pour fournir l'échantillon est à la discrétion du chercheur. Une paille ou de coupe peuvent être utilisés. Peu importe, l'occlusion faciale initiale est inévitable parce que le visage sera occlus ou déformée en raison de la consommation.
  3. Demander au participant de suivre les instructions telles qu'elles apparaissent sur l'écran tactile. Remarque: Les instructions sont automatiquement séquences comme programmé dans le logiciel automatisé sensorielle.

4. Processus de participant individuel pour Capture vidéo

  1. Confirmer caméra vidéo est optimale capturer le visage des participants alors que le participant est assisconfortablement dans la cabine (avant la présentation de l'échantillon) en regardant l'écran d'ordinateur sur lequel la capture vidéo est affichée. Commencez l'enregistrement en cliquant sur le bouton d'enregistrement sur l'écran d'ordinateur.
  2. Demandez aux participants de boire de l'eau pour nettoyer leur palais.
  3. Fournir des traitements un à la fois, en commençant par une ligne de base ou d'un traitement de contrôle (eau sans saveur). Identifier chaque échantillon par une carte d'index de couleur unique, placé sur le dessus de chaque échantillon se rapportant au code de couleur de l'échantillon pour l'identification du traitement de l'échantillon dans la vidéo.
    Remarque: l'orientation programmée sur l'écran tactile indique les participants. Les instructions directes du participant par le biais d'une série de mesures normalisées pour chaque échantillon de traitement.
  4. Via l'écran tactile, diriger le participant à:
    1. Maintenez la couleur associée carte d'index pré-consommation pour l'identification de l'échantillon dans la vidéo.
      Note: La carte de couleur est une manière dont les chercheurs peuvent identifier des traitements dans la vidéo unnd marquer le laps de temps approprié (temps zéro) pour l'évaluation de l'échantillon.
    2. Après avoir occupé la carte brièvement, placez la carte de retour sur le plateau.
    3. consomment entièrement l'échantillon et attendre environ 30 secondes, appliquées par la direction programmée sur l'écran, tout en faisant face à la caméra.
      Remarque: La période d'échantillonnage contrôlé 30 sec comprend un laps de temps suffisant pour l' ensemble de la période d'évaluation d'échantillonnage (c. -à- montrant la carte d'index, l' ouverture d' un échantillon (enlever le couvercle), la consommation, et la capture émotionnelle).
    4. Entrez leur score d'acceptabilité hédonique sur l'écran tactile (1 = déteste extrêmement, 2 = n'aiment pas beaucoup, 3 = aversion modérée, 4 = aversion légèrement, 5 = ni comme ni aversion, 6 = comme légèrement, 7 = comme modérément, 8 = comme beaucoup, 9 = comme extrêmement).
    5. Rincer la bouche avec de l'eau potable avant que le processus de l'échantillon suivant.

5. Évaluation des options d'analyse du visage d'expression automatisé

Note: De nombreux logiciels d'analyse de l'expression du visage existent. les commandes du logiciel et les fonctions peuvent varier. Il est important de suivre les directives d'utilisation du fabricant et manuel de référence 20.

  1. Enregistrer les enregistrements dans un format de média et de transférer vers le logiciel d'analyse de l'expression du visage automatisé.
  2. Analyser les vidéos des participants en utilisant un logiciel automatisé d'analyse du visage.
    1. Double-cliquez sur l'icône du logiciel sur le bureau de l'ordinateur.
    2. Une fois que le programme est ouvert, cliquez sur "Fichier", sélectionnez "Nouveau ...", et sélectionnez "Projet ..."
    3. Dans la fenêtre pop-up, nommez le projet et enregistrez le projet.
    4. Ajouter les participants au projet en cliquant sur l'icône "Ajouter participants" (personne ayant une signe (+)). Plus de participants peuvent être ajoutés en répétant cette étape.
    5. Ajouter la vidéo de participant au participant respectif pour analyse.
      1. Sur le côté gauche de l'écran cliquez sur l'icône de la bobine de film wie un signe plus (+) pour ajouter une vidéo à analyser.
      2. Cliquez sur le "loupe" sous le participant de l'intérêt pour parcourir la vidéo à ajouter.
  3. Analyser des vidéos image par trame dans les paramètres d'analyse d'étalonnage continus dans le logiciel.
    1. Cliquez sur l'icône de crayon pour ajuster les paramètres en bas de la fenêtre, sous l'onglet "Paramètres" pour chaque vidéo de participant.
      1. Set "Model Face" au général. Réglez "classifications Lisser" Oui. Set "Sample Rate" à chaque trame.
      2. Set "Rotation de l'image" au numéro Set "d'étalonnage continu" Oui. Set "étalonnage sélectionné" Aucun.
    2. Enregistrer les paramètres du projet.
    3. Appuyez sur l'icône de l'analyse des lots (le même symbole de cible comme le rouge et noir) pour analyser les vidéos de projet.
    4. Enregistrer les résultats une fois que l'analyse est terminée.
      Remarque: D'autres paramètres vidéo existent dans le logiciel si researcsa préférence justifie une autre méthode d'analyse.
    5. Considérez vidéos échecs si occlusions faciales graves ou l'incapacité à cartographier le visage persiste pendant la fenêtre post-consommation spécifiée (Figure 1). En outre, si le modèle échoue données vont dire "FIT_FAILED" ou "FIND_FAILED" dans les fichiers de sortie exportés (Figure 2). Cela représente des données perdues depuis le logiciel ne peut pas classer ou analyser les émotions des participants.
      Note: AFEA traduit le mouvement des muscles faciaux au neutre, heureux, dégoûté, triste, en colère, surpris et effrayé sur une échelle de 0 (pas exprimé) à 1 (entièrement exprimé) pour chaque émotion.
  4. Export de la sortie de données de AFEA que les fichiers journaux (.txt) pour une analyse plus approfondie.
    1. Une fois les analyses terminées, exporter l'ensemble du projet.
      1. Cliquez sur "Fichier", "Exporter", "Résultats du projet d'exportation".
      2. Lorsqu'une fenêtre ouvre, choisissez l'emplacement de l'endroit où les exportations Should être sauvegardé et enregistrer les fichiers journaux (.txt) dans un dossier.
      3. Convertissez chaque vie du journal des participants à une feuille de calcul de données (.csv ou .xlsx) pour extraire les données pertinentes.
        1. Ouvrez le logiciel de feuille de calcul de données et sélectionnez l'onglet "Data".
        2. Dans l'onglet "Data", dans le groupe "Données externes", cliquez sur "From Text".
        3. Dans la "barre d'adresse", localiser, double-cliquez sur le fichier texte participant à importer, et suivez les instructions de l'assistant d'écran.
        4. Poursuivre le processus d'exportation pour tous les dossiers des participants concernés.

6. Timestamp Participant Vidéos pour l'analyse des données

  1. Utilisation du logiciel AFEA, examiner manuellement la vidéo de chaque participant et identifier le temps de post-consommation nulle pour chaque échantillon. Notez l'horodatage dans une feuille de calcul de données. Post-consommation est définie lorsque la coupelle d'échantillon est sous le menton du participant et non plus ocinclut le visage.
    Remarque: le placement de l'estampille temporelle est essentielle pour l'évaluation. Le point où la coupe n'obture le visage est la recommandation optimale et horodatages doivent être cohérents pour tous les participants.
  2. Enregistrez la feuille de données d'horodatage (.csv) comme référence pour extraire les données pertinentes à partir de vidéos.
    Note: les vidéos des participants peuvent également être codées en interne dans le logiciel comme «un événement marquant le".

7. Time Series Analysis Emotional

Remarque: Considérez la "base" pour le contrôle (eau unflavored dans cet exemple). Le chercheur a la possibilité de créer un autre "traitement de base stimulus» ou un «temps de référence sans stimulus» pour comparaison par paires dépendant de l'intérêt de l'enquête. La méthode des comptes pour un état «par défaut» proposé par l'aide d'un test statistique appariés. En d' autres termes, la procédure utilise le blocage statistique (c. -à-un test apparié) pour ajuster pour l'apparence par défaut de chaque participant et réduit donc la variabilité entre les participants.

  1. Extraire les données pertinentes à partir des fichiers exportés (.csv ou .xlsx).
    1. Identifier un laps de temps pertinent pour l'évaluation de l'étude (en secondes).
    2. extraire manuellement les données respectives (délai) à partir des dossiers des participants exportés consultation l'horodatage des participants (temps zéro).
    3. Compiler les données de traitement de chaque participant (numéro de participant, le traitement, le temps de la vidéo originale, et la réponse de l'émotion) par l'émotion (heureux, neutre, triste, en colère, surpris, effrayé, et dégoûté) pour le cadre de sélection de temps (en secondes) dans une nouvelle feuille de calcul de données pour une analyse ultérieure (figure 3).
    4. Continuez ce processus pour tous les participants.
  2. Identifier le temps zéro correspondant à partir du fichier d'horodatage pour chaque paire participant-traitement et ajuster le temps de la vidéo à un vrai temps "0" pour une comparaison directe ( Figure 5).
    Remarque: Les données des participants sont collectées dans une vidéo continue donc chaque traitement "temps zéro" est différent (eau unflavored temps vidéo zéro est 02: 13.5 et le lait unflavored temps vidéo zéro est 03: 15.4). Figure 4 En raison de la différence traitement "zéros de temps", les temps de vidéo doivent être réajustées et réaligné pour commencer à "0: 00.0" ou une autre heure de départ standard afin de comparaison en temps direct des données de réponse émotionnelle de traitement.
  3. Pour chaque participant, l' émotion, et le point de temps ajusté, extraire le traitement associé (par exemple, le lait unflavored) et le traitement de contrôle (par exemple, l' eau unflavored) note émotionnelle quantitative. En d' autres termes, aligner le traitement et le contrôle de la série de réponses pour chaque émotion (figure 5) le temps d'un participant.
  4. Compiler les informations de tous les participants (participant, temps ajusté, et le traitement associé(Par exemple, l' eau et le lait unflavored unflavored) à chaque point de temps (figure 6).
    Remarque: Les étapes ci-dessous montrent les étapes pour un test Wilcox jumelé à la main. La plupart des logiciels d'analyse de données feront automatiquement. Il est recommandé de discuter du processus d'analyse statistique avec un statisticien.
  5. Une fois que les échantillons sont remis à zéro et aligné avec les nouvelles heures de vidéo ajustées, comparer directement entre les résultats émotionnels d'un échantillon respectif et le contrôle (eau unflavored) en utilisant séquentielles apparié tests de Wilcoxon non paramétrique à travers les participants (figure 7).
    Remarque: Le nouveau alignement temporel des échantillons permettra une comparaison directe dans le post-consommation laps de temps de 5 secondes. Si une observation jumelé est pas présent dans un traitement, laisser tomber le participant de cette comparaison du point de temps.
    1. Calculer la différence entre le témoin et l'échantillon respectif pour chaque comparaison par paires à l'aide de données spreadshelogiciel de gestion et.
      Note: La comparaison dépendra de la fréquence de trame sélectionnée pour l'analyse émotionnelle dans le logiciel. Le protocole montre 30 comparaisons individuelles par seconde pendant 5 secondes (période sélectionnée).
      Remarque: Utilisez la figure 7 comme une référence pour les colonnes et les étapes.
      1. Soustraire la valeur du lait (par exemple, le lait non aromatisé) à partir de la valeur de la commande (par exemple, l' eau unflavored) pour déterminer la différence. Dans le logiciel de gestion de la feuille de données dans une nouvelle colonne intitulée «différence de traitement", entrez "= (C2) - (D2)", où "C2" sont les valeurs émotionnelles de contrôle et "D2" sont les valeurs émotionnelles de traitement sélectionné. Continuez ce processus pour tous les points de temps.
      2. Calculer la valeur absolue de la différence de traitement. Dans le logiciel de gestion de la feuille de données dans une nouvelle colonne, entrez "= ABS (E2)", où "E2" est la différence de traitement. Continuez ce processus pourtous les points temporels.
      3. Déterminer l'ordre de classement de la différence de traitement. Dans le logiciel de gestion de la feuille de données dans une nouvelle colonne, entrez "= RANK (G2, $ G $ 2: $ G $ 25, 1)" où "G2" est la différence absolue et "1" est "ascendante". Continuez ce processus pour tous les points de temps.
      4. Déterminer le rang signé de l'ordre de rang sur la feuille de calcul. Changer le signe négatif si la différence de traitement était négatif (colonne I).
      5. Calculer la somme positive (= SUMIF (I2: I25, "> 0", I2: I25) et somme négative = SUMIF (I2: I25, "<0", I2: I25) des valeurs de rang.
      6. Déterminer la statistique de test. La statistique de test est la somme de la valeur absolue inférieure.
      7. Consultez les tableaux statistiques pour Wilcoxon Classé test statistique en utilisant le nombre d'observations incluses au moment spécifique et une valeur alpha sélectionnée pour déterminer la valeur critique.
      8. Si la statistique de test est inférieure à la valeur critique rejette til hypothèse nulle. Si elle est supérieure, d'accepter l'hypothèse nulle.
  6. Graphiquement les résultats sur le graphique de traitement associé (c. -à- lait unflavored par rapport à l' eau unflavored) pour les moments où l'hypothèse nulle est rejetée. Utiliser le signe de la différence afin de déterminer quel traitement a la plus grande émotion (figure 8).
    1. Dans le logiciel de gestion de feuille de calcul de données, créer un graphique en utilisant les valeurs de la présence ou de l'absence de signification.
      1. Cliquez sur "Insérer" onglet.
      2. "Line" Select
      3. Clic droit sur la zone de graphique.
      4. Cliquez sur "sélectionner des données" et suivez les invites pour sélectionner et représenter graphiquement des données pertinentes (figure 8).
        Remarque: Les graphiques seront dépeignent des résultats émotionnels où l'échantillon ou le contrôle est plus élevé et significatif. dépendante graphique, l'émotion est plus élevée à ce moment précis permettant la capacité de discerner comment les émotions de participantsévoluer au cours de la période de 5 secondes entre deux échantillons.
        Note: Le support statistique avec un statisticien est fortement recommandé d'extraire les données pertinentes. Développement de codage statistique est nécessaire pour analyser les résultats émotionnels.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

La méthode propose un protocole standard pour la collecte de données AFEA. Si les étapes de protocole proposées sont suivies, la sortie de données émotionnelle inutilisable (Figure 1) résultant de la collecte des données pauvres (Figure 2: A; Gauche Image) peut être limitée. Analyse des séries temporelles ne peut pas être utilisé si les fichiers journaux (.txt) contiennent principalement "FIT_FAILED" et "FIND_FAILED" comme cela est de mauvaises données (figure 1). En outre, le procédé comprend un protocole de comparaison statistique directe entre deux traitements de sortie de données émotionnelle sur une période de temps pour établir un profil émotionnel. L'analyse des séries peut fournir des tendances émotionnelles au fil du temps et peut donner une dimension de valeur ajoutée aux résultats d'acceptabilité hédoniques. En outre, l'analyse des séries chronologiques peut montrer les changements dans les niveaux émotionnels au fil du temps, ce qui est précieux au cours de l'expérience de manger.

(figure 9). résultats hédoniques déduisent qu'il n'y avait pas de différences d'acceptabilité entre le lait unflavored, l'eau sans saveur et l'arôme de l'extrait de vanille dans le lait. Cependant, AFEA analyse des séries temporelles a indiqué le lait unflavored généré moins dégoûté (p <0,025; 0 sec), surpris (p <0,025; 0-2,0 sec), moins triste (p <0,025; 2,0-2,5 sec) et moins neutre (p <0,025; ~ 3,0-3,5 s) de réponses que l' eau a fait unflavored (figure 10). En outre, l' extrait de vanille saveur dans le lait introduit des expressions plus heureux juste avant 5,0 secondes (p <0,025) et moins triste (p <0,025; 2,0-3,0 et 5,0 sec) que l' eau unflavored (Figure 11). Vanilla, comme une odeur, a été associé aux termes "détendue", "serein", "rassuré", "bonheur", &# 34;. Le bien-être "," agréablement surpris "23 et" agréable "24 saveur salée dans le lait était plus faible (p <0,05) signifie des scores d'acceptabilité hédoniques (détestée modérément) (figure 9) et de la saveur salée dans le lait généré plus de dégoût (p <0,025) plus tard (3,0-5,0 sec) que l' eau unflavored (Figure 12). salée intense a été associée avec dégoût et surpris 25, 26. Cependant, certaines études ont indiqué que la saveur salée ne suscite pas de réponse du visage 7, 27 -29.

Figure 1
Figure 1. Exemple de capture de données sous-optimale en raison de l' incompatibilité avec le logiciel participant AFEA , entraînant la perte de points de réponse de données émotionnelles brutes dans les fichiers de sortie exportés [FIT_FAILED; FIND_FAILED]. Échecs vidéo se produisent lorsque des occlusions faciales graves ou l'incapacité à cartographier la persi visage m au cours de la fenêtre post-consommation spécifiée. S'il vous plaît cliquer ici pour voir une version plus grande de cette figure.

Figure 2
Figure 2. Exemple de capture de données sous-optimale en raison de la modélisation du logiciel participant. La figure présente la saisie des données sous-optimale grâce au logiciel de modélisation participant incompatibilité et l' échec de la cartographie du visage pour déterminer la réponse émotionnelle (A). Exemple de modélisation de forme réussie et la capacité de capturer la réponse émotionnelle des participants (B). S'il vous plaît cliquer ici pour voir une version plus grande de cette figure.

6fig3.jpg "/>
Figure 3. Exemple de données des participants extraits compilés dans une nouvelle feuille de données. De données des participants (nombre de participants, le traitement, le temps de la vidéo originale, et la réponse de l' émotion) est identifié par l' émotion (heureux, neutre, triste, en colère, surpris, effrayé, et dégoûté ) pour la période de sélection (secondes). Cette feuille de calcul est utilisée pour des analyses ultérieures. S'il vous plaît cliquer ici pour voir une version plus grande de cette figure.

Figure 4
Figure 4. Exemple de données des participants extraits compilés pour une analyse ultérieure. Les données extraites des participants (A1 et B1) est compilé (A2 et B2), la représentation graphique (A3 et B3) et aligné (A4 et B4) comme un visuel pour une comparaison directe. Les restemps pective zéro pour le contrôle (A4: Surprised Unflavored eau) et de traitement (B4: Surprised Unflavored lait) sont affichées pour comparer les résultats émotionnels surpris. Cet exemple représente et identifie le temps zéro correspondant à partir du fichier d'horodatage pour chaque paire participant-traitement. S'il vous plaît cliquer ici pour voir une version plus grande de cette figure.

Figure 5
.. Figure 5. Exemple de données des participants extraites avec délai ajusté Les données des participants extrait est présenté avec délai ajusté avec un véritable "temps zéro" (A1 et B1) Le réglage de l' heure permet une comparaison directe entre un contrôle (A: Surprised Unflavored eau) et un traitement (B2: Surpris Unfla vored lait) (A2 et B2). Cet exemple représente et identifie le véritable "temps zéro" correspondant (ajusté) à partir du fichier d'horodatage pour chaque paire participant-traitement. S'il vous plaît cliquer ici pour voir une version plus grande de cette figure.

Figure 6
Figure 6. Exemple du processus de compilation des données de tous les participants. Le participant, le temps ajusté, et le traitement associé (par exemple, l' eau unflavored et le lait unflavored) à chaque point de temps est compilé pour se préparer à l' analyse statistique. S'il vous plaît cliquer ici pour voir une une plus grande version de ce chiffre.

es / ftp_upload / 54046 / 54046fig7.jpg "/>
Figure 7. Exemple de données de feuille de calcul comparant un contrôle (Unflavored eau) et un traitement (Unflavored lait) en utilisant des tests de Wilcoxon à travers les participants à un point de temps spécifique. Ce chiffre représente une comparaison directe entre les résultats émotionnels d'un échantillon respectif et le contrôle (eau unflavored ) à l' aide séquentielle apparié tests de Wilcoxon non paramétriques à travers les participants. S'il vous plaît cliquer ici pour voir une version plus grande de cette figure.

Figure 8
Figure 8. Exemple de la feuille de calcul de données pour représenter graphiquement les résultats si (p <0,025) sur le graphique de traitement associé (c. -à- lait unflavored comparée à l' eau unflavored). Les résultats des tests séquentiels jumelés Wilcoxon non paramétriques à travers le particints sont tracées pour les temps où l'hypothèse nulle est rejetée. S'il vous plaît cliquer ici pour voir une version plus grande de cette figure.

Figure 9
Figure 9. acceptabilité moyenne (hédoniques) marque d'eau unflavored, lait unflavored, extrait de vanille saveur dans le lait et la saveur salée dans les solutions de boissons au lait. Acceptabilité a été basé sur une échelle hédonique de 9 points (1 = aversion extrême, 5 = ni comme ni aversion, 9 = comme extrêmement; moyenne +/- SD) 1. Le traitement avec des moyens différents exposants diffèrent sensiblement par goût (p <0,05). lait Unflavored, l'eau et la vanille unflavored saveur de l'extrait dans le lait ne sont pas différents (p> 0,05) dans les scores moyens d'acceptabilité et ont été classés comme "aimait légèrement". saveur salée dans le lait avait un plus faible (p <0.05) les scores moyens d'acceptabilité (détestées modérément). S'il vous plaît cliquer ici pour voir une version plus grande de cette figure.

Figure 10
Figure 10. séries chronologiques graphiques des émotions petites sur les données d'analyse d'expression du visage automatisé plus de 5,0 secondes comparant le lait unflavored et de l' eau unflavored. Sur la base de tests de Wilcoxon séquentielles appariés non paramétriques entre le lait unflavored et de l' eau unflavored (de base), les résultats sont tracés sur le graphique de traitement respective si la médiane de traitement est plus élevé et une plus grande importance (p <0,025) pour chaque émotion. Présence d'une ligne indique une différence significative (p <0,025) au point de temps spécifique où la médiane est plus élevée, tandis que l'absence d'une ligne indique pas de différence à un point de temps spécifique (p> 0,025). Absencede lignes dans le lait unflavored (A) ne révèle aucune catégorisation émotionnelle par rapport à l' eau unflavored (p <0,025) sur 5,0 secondes. Dans l'eau unflavored (B), les résultats émotionnels par rapport au lait unflavored révèlent dégoûté (ligne rouge) à 0 sec, surpris (ligne orange) se produit entre 0 à 1,5 sec, triste (ligne verte) se produit environ 2,5 sec, et neutre (rouge ligne) se produit autour de 3 -. 3,5 s (p <0,025) S'il vous plaît cliquer ici pour voir une version plus grande de cette figure.

Figure 11
Figure 11. Temps série graphiques des émotions classées sur la base de données d'analyse de l' expression du visage automatique sur 5,0 secondes comparant arôme de vanille extrait dans le lait et l' eau unflavored (ligne de base). Sur la base séquentielle appariés tests de Wilcoxon non paramétriques entreextrait de vanille saveur dans le lait et l'eau unflavored, les résultats sont tracés sur le graphique de traitement respectif si le traitement médian est plus élevé et une plus grande importance (p <0,025) pour chaque émotion. Présence d'une ligne indique une différence significative (p <0,025) au point de temps spécifique où la médiane est plus élevée, tandis que l'absence d'une ligne indique pas de différence à un point de temps spécifique (p> 0,025). Extrait de vanille saveur dans le lait (A) montre heureux juste avant 5 sec (ligne bleue) , tandis que l' eau unflavored (B) affiche plus triste autour de 2 à 2,5 et 5 sec (ligne verte) (p <0,025). S'il vous plaît cliquer ici pour voir une une plus grande version de ce chiffre.

Figure 12
Figure 12. Temps série graphiques des émotions petites basées sur expres visage automatisésdonnées d'analyse de sion plus 5,0 secondes comparant saveur salée dans le lait et l' eau unflavored. Sur la base de tests séquentiels appariés non paramétriques de Wilcoxon entre saveur salée dans le lait et l' eau unflavored (de base), les résultats sont reportés sur le graphique de traitement respectif si le traitement médian est plus élevé et d' une plus grande signification (p <0,025) pour chaque émotion. Présence d'une ligne indique une différence significative (p <0,025) au point de temps spécifique où la médiane est plus élevée, tandis que l'absence d'une ligne indique pas de différence à un point de temps spécifique (p> 0,025). Saveur salée dans le lait (A) a dégoût significative de 3 - 5 secondes (ligne rouge) , tandis que l' eau unflavored (B) a dégoût au début (ligne rouge) et plus neutre de 2 - 5 secondes (ligne rouge) (p <0,025 ). S'il vous plaît cliquer ici pour voir une version plus grande de cette figure.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

AFEA application dans la littérature liée à la nourriture et des boissons est très limitée 1-11. L'application à l'alimentation est nouvelle, créant ainsi une opportunité pour établir la méthodologie et l'interprétation des données. Arnade (2013) 7 ont trouvé une grande variabilité individuelle entre réponse émotionnelle individuelle au lait au chocolat et le lait blanc en utilisant l' aire sous l'analyse et de l' analyse de la variance courbe. Cependant, même avec la variabilité des participants, les participants ont généré une réponse heureuse plus tout triste et dégoûté avait le temps de réponse plus court 7. Dans une étude séparée en utilisant des concentrations élevées et basses de goûts de base, Arnade (2013) 7, a constaté que les différences dans la réponse émotionnelle chez les goûts de base, ainsi que entre deux niveaux d'intensités gustatives de base (intensité élevée et faible), ne sont pas aussi importants comme prévu, questionnant ainsi la précision de la méthodologie de l'AFEA et l'analyse des données en cours. L'évaluation sensorielle des aliments et boissons est un complexe et dynaprocessus de réponse mic 30. Les changements temporels peuvent se produire tout au long du traitement par voie orale et de la déglutition ainsi potentiellement influencer l'acceptabilité des stimuli au fil du temps 30. Pour cette raison, il peut bénéfique pour mesurer la réponse de l'évaluateur tout au long de l'expérience de manger ensemble. Spécifiques des temps de traitement par voie orale ont été proposées (premier contact avec la langue, de la mastication, la déglutition, etc.) 31, mais aucun ne sont normalisés et les temps sont largement tributaires du projet et la discrétion du chercheur 30.

La émotionnelle analyse des séries chronologiques proposé a été en mesure de détecter les changements émotionnels et les différences statistiques entre le contrôle (eau unflavored) et les traitements respectifs. De plus, les profils émotionnels associés à l'acceptabilité peuvent aider à anticiper les comportements liés aux aliments et aux boissons. Les résultats montrent que le temps de distinguer les tendances de la série existent avec AFEA liées aux saveurs dans le lait (Figures 10 11 et 12). Les temps d' analyse de la série aide à différencier l' acceptabilité des aliments pour une population en intégrant les émotions caractérisées (figure 10, 11 et 12) ainsi que l' appui des tendances d'acceptabilité hédoniques (figure 9). Leitch et al. 8 différences observées entre les édulcorants et la ligne de base de l' eau à l' aide de l' analyse des séries chronologiques (5 sec), et a également constaté que l'utilisation de graphiques de séries temporelles fourni pour une meilleure interprétation des données et des résultats. De plus, les changements émotionnels peuvent être observés au fil du temps et les différences de traitement de réponse émotionnels peuvent être déterminés à des moments différents ou des intervalles. Par exemple, Leitch et al. 8 a observé que les émotions d'approche ( en colère, heureux et surpris) ont été observées entre les comparaisons édulcorant d'eau artificielles , mais ont été observés à des moments différents au cours de la fenêtre d'observation de 5 sec. cependant,Leitch et al. 8 n'a pas établi directionnalité d'expression, ce qui rend difficile de comprendre la différence émotionnelle entre le contrôle (eau) et le traitement (thé non sucré) en utilisant leur interprétation graphique et de présentation. La méthode d'analyse des séries chronologiques modifié et amélioré présenté dans notre étude permet de statistiques différence directionnalité. La directionnalité et les résultats de traçage permet aux chercheurs de visualiser où les changements émotionnels statistiquement pertinents se produisent au cours de la période sélectionnée.

Réduire les échecs d'analyse vidéo est essentielle pour atteindre des données valides et efficacement en utilisant les ressources de temps et de personnel. Les étapes critiques et les étapes de dépannage du protocole comprennent l' optimisation de l'environnement sensoriel des participants (éclairage, vidéo angle de la caméra, la hauteur de la chaise, les instructions d'orientation des participants approfondies, etc.). En outre, les participants devraient être examinés et exclues si elles tombent dans un logiciel inccatégorie OMPATIBILITÉ (c. -à- verres épais encadrées, des visages très barbus et le ton de la peau) (figure 2). Ces facteurs vont influencer la modélisation AFEA ajustement, la catégorisation émotionnelle, et la sortie de données. Si une partie importante de la production de données d'un participant se compose de "FIT_FAILED" et "FIND_FAILED", les données devraient être réévaluées pour l' inclusion dans l'analyse des séries chronologiques (Figure 1). Analyse des séries temporelles ne peut pas être utilisé si les fichiers journaux de sortie de données contiennent principalement "FIT_FAILED" et "FIND_FAILED" comme cela est de mauvaises données (figure 1). Shadowing sur le visage en raison de paramètres d'éclairage peut sérieusement compromettre la qualité vidéo de capture, résultant dans la collecte vidéo pauvres. Pour éviter l' observation intense, éclairage frontal diffus est idéal tandis que l'intensité de la lumière ou de couleur ne sont pas aussi pertinents 20. Éclairage de tête intense devrait être réduite car elle peut favoriser les ombres sur le visage 20. Un fond sombre derrière laparticipant est recommandé 20. Il est suggéré par le fabricant du logiciel AFEA pour placer la configuration en face d'une fenêtre pour la lumière du jour diffuse l' éclairage 20. En outre, si vous utilisez un écran d'ordinateur, deux feux peuvent être placés de chaque côté du visage de l'utilisateur pour l' éclairage et l' ombre réduction de 20. En outre, les feux de photo professionnels peuvent être utilisés pour lutter contre l' environnement indésirable éclairage 20. En fin de compte, il est à la discrétion du chercheur, individuel protocole / méthodologie et de l'environnement pour contrôler l'éclairage pour la capture. Il est recommandé de discuter de l'environnement de capture de données et les outils avec le fournisseur de logiciels avant l'achat et l'installation. En outre, la hauteur de la chaise et l'angle de la caméra sont importantes pour régler individuellement pour chaque participant. Le participant doit être confortable, mais à une hauteur où la caméra est droite sur le visage. Une tentative de réduire l'angle de la caméra sur la face est encouragée pour optimiser le AFEA capture vidéo. Enfin, il est impératif de donner des instructions verbales aux participants avant l'échantillonnage. le comportement des participants lors de la capture vidéo peut limiter la collecte de données due à l'occlusion du visage, les mouvements, et la caméra évitement.

Pour participant taille de l'échantillon nécessaire pour une étude, les auteurs recommandent une gamme de 10 à 50 participants. Bien qu'un petit nombre fournira presque pas de puissance statistique, au moins 2 participants sont nécessaires en général pour l'analyse des séries chronologiques. Participant de la variabilité est élevée, et dans les premiers stades de cette recherche il n'y a pas d'orientation à offrir avec la taille de l'échantillon. Taille de l'échantillon variera en fonction de l'intensité des arômes, de l'arôme et l'acceptabilité du traitement prévu. Les échantillons avec des différences de goût plus petits, il faudra plus de participants. La période de 30 secondes d'échantillonnage contrôlé englobe une durée adéquate pour la période d'évaluation de l' échantillonnage entière de temps (c. -à- montrant la carte d'index, l' ouverture d' un échantillon (enlever le couvercle), la consommationtion, et la capture émotionnelle). La totalité de 30 secondes ne sont pas utilisées dans l'analyse des données. L'avantage de cette désignée deuxième temps de 30 capture est que le chercheur peut décider du temps d'évaluation pertinente à utiliser dans l'analyse des données. La fenêtre de 30 secondes de temps peut aider à sélectionner un laps de temps d'intérêt pendant un échantillon vidéo pendant le codage ou horodater vidéos. En fin de compte, la fenêtre de temps est à la discrétion du chercheur. Dans notre exemple, nous avons utilisé le 5 sec fenêtre d'échantillonnage post-consommation. En outre, la méthodologie actuelle définit le temps zéro lorsque la coupelle d'échantillon n'obture la face (coupe au niveau du menton). Il est extrêmement important de réduire le temps entre la consommation et la coupelle d'échantillon occlusion faciale due à informer et à l'évolution des émotions. En raison de la coupelle d' échantillon occlusion du visage le temps initial où l'échantillon est en contact avec la langue est des données non fiables (voir Figure 1). Par conséquent, le point où la coupe n'obture le visage est le recommandatio optimaln. Timestamps doivent être cohérentes pour tous les participants. La carte de couleur est un moyen pratique pour les chercheurs d'identifier des traitements dans la vidéo et marquent le laps de temps approprié (temps zéro) pour l'évaluation de l'échantillon. Les cartes de couleur sont particulièrement utiles si les traitements sont dans un ordre aléatoire et constituent une validation supplémentaire d'identification de l'échantillon dans la vidéo en continu.

Existent Les limites de cette technique que les participants ne peuvent pas suivre la direction ou l' observation inévitable sur le visage du participant peut provoquer des défaillances visage de l' ajustement du modèle (Figure 2). Cependant, les étapes critiques proposées offrent des moyens d'atténuer et de réduire ces interférences. En outre, l' analyse des séries chronologiques ne lira pas exporté les fichiers journaux avec des fichiers contenant principalement "FIT_FAILED" et "FIND_FAILED" (Figure 1). Ce fichier ne peut pas être récupéré et ne sera pas en mesure d'être inclus dans l'analyse des séries chronologiques. En outre, la consommation d'aliments et de Boissogements peut encore modifier la structure du visage de manière à déformer la catégorisation émotionnelle. aliments durs ou tendres exigent beaucoup de mouvements de la mâchoire. L'utilisation d'une paille et la succion associé, provoque également l'occlusion du visage (paille) et déforme le visage (aspiration). Cette observation est basée sur des données préliminaires de notre recherche en laboratoire. Le modèle facial de logiciel ne peut pas discerner les différences entre la mastication (ou sucer) et expressions moteurs associés à la catégorisation émotionnelle. Avec des échantillons d'aliments et de boissons, la possibilité pour l'occlusion du visage est supérieure à celle de la visualisation des vidéos et des images. Les participants doivent apporter l'échantillon sur le visage et retirer le récipient de la face interrompant ainsi le modèle de logiciel et de réduire l' information émotionnelle précieux (voir Figure 1) potentiellement. Comme mentionné précédemment, les émotions se produisent rapidement et pour une courte durée. Il est important de réduire l'occlusion du visage dans un effort pour capturer les émotions. Le MÉTHODOL proposélogie rend les comparaisons de traitement à un trentième de seconde pour trouver des changements dans les habitudes émotionnelles et des changements dans la durée émotionnelle à travers le temps. Avec la méthodologie proposée, les modèles de la longévité émotionnelle sont importants. Malheureusement, des problèmes de catégorisation émotionnels peuvent se produire. Plus particulièrement il y a un problème catégorisant heureux et dégoût 6, 9, 32, 33, 34. Souvent, cela est dû aux participants masquant leur dégoût ou un sentiment surpris de sourire 6, 32, 33, 34 qui pourrait être due à un «social règle d'affichage "32. En outre, le logiciel AFEA est limité à sept catégories émotionnelles (neutres, heureux, triste, effrayé, surpris, fâché et dégoûté). réponse émotionnelle à des aliments et des boissons peut être plus complexe que la classification AFEA actuelle des émotions universelles et catégorisation peut être différent en réponse à un aliment ou de boisson stimuli. Manuel de codage en utilisant FACS a été appliquée à gustofacial et les réponses olfactofacial des goûts de base etun assortiment d'odeurs et semblait être assez sensible pour détecter des différences de traitement en ce qui concerne AUs 32. FACS est fastidieux et prend du temps très, cependant, l'application temporelle de l'absence ou la présence d'UA peut être utile pour aider avec des réponses complexes qui AFEA pourrait ne pas classer correctement ou si les résultats émotionnels sont inattendus. Bien que les données de séries chronologiques permet classifications du visage pour se produisent simultanément et avec une expression significative, la prudence devrait être utilisée avec des résultats traduisant en une seule émotion en raison de la complexité émotionnelle.

La technique d'analyse des données et la méthodologie proposée peut être appliquée à d'autres aliments et boissons non alcoolisées. logiciel AFEA a été en mesure d'identifier les émotions aromatisées et des échantillons non aromatisées. La méthodologie proposée et l'analyse temporelle peut aider à caractériser les réponses implicites fournissant ainsi de nouvelles avancées dans les réponses émotionnelles et les comportements d'une population relatives aux denrées alimentaires. Les applications futures de thest la technique peut se développer dans d'autres catégories de boissons ou des aliments mous. Nous avons démontré la méthodologie pour atteindre la capture vidéo pour une réponse émotionnelle et de la méthodologie d'analyse des données. Nous visons à créer une approche standard pour la fois émotionnelle capture AFEA et émotionnelle analyse des séries chronologiques. L'approche de la méthode a connu le succès dans notre recherche. Nous espérons étendre et d'appliquer cette approche pour évaluer la réponse émotionnelle à des aliments et des boissons et de la relation avec le choix et les comportements.

Subscription Required. Please recommend JoVE to your librarian.

Materials

Name Company Catalog Number Comments
2% Reduced Fat Milk Kroger Brand, Cincinnati, OH or DZA Brands, LLC, Salisbury, NC na for solutions
Drinking Water Kroger Brand, Cincinnati, OH na for solutions
Imitation Clear Vanilla Flavor Kroger Brand, Cincinnati, OH na for solutions
Iodized Salt Kroger Brand, Cincinnati, OH na for solutions
FaceReader 6 Noldus Information Technology, Wageningen, The Netherlands na For Facial Analysis
Sensory Information Management System (SIMS) 2000 Sensory Computer Systems, Berkeley Heights, NJ Version 6 For Sensory Data Capture
Rhapsody Acuity Brands Lighting, Inc., Conyers, GA For Environment Illumination
R Version  R Core Team 2015 3.1.1 For Statistical Analysis
Microsoft Office Microsoft na For Statistical Analysis
JMP Statistical Analysis Software (SAS) Version 9.2, SAS Institute, Cary, NC na For Statistical Analysis
Media Recorder 2.5 Noldus Information Technology, Wageningen, The Netherlands na For capturing participants sensory evaluation
Axis M1054 Camera Axis Communications, Lund, Sweden na
Beverage na Beverage or soft food for evaluation

DOWNLOAD MATERIALS LIST

References

  1. De Wijk, R. A., Kooijman, V., Verhoeven, R. H. G., Holthuysen, N. T. E., De Graaf, C. Autonomic nervous system responses on and facial expressions to the sight, smell, and taste of liked and disliked foods. Food Qual Prefer. 26 (2), 196-203 (2012).
  2. De Wijk, R. A., He, W., Mensink, M. G. J., Verhoeven, R. H. G., De Graaf, C. ANS responses and facial expression differentiate between the taste of commercial breakfast drinks. PLoS ONE. 9 (4), 1-9 (2014).
  3. He, W., Boesveldt, S., De Graaf, C., De Wijk, R. A. Behavioural and physiological responses to two food odours. Appetite. 59 (2), 628 (2012).
  4. He, W., Boesveldt, S., De Graaf, C., De Wijk, R. A. Dynamics of autonomic nervous system responses and facial expressions to odors. Front Psychol. 5 (110), 1-8 (2014).
  5. Danner, L., Sidorkina, L., Joechl, M., Duerrschmid, K. Make a face! Implicit and explicit measurement of facial expressions elicited by orange juices using face reading technology. Food Qual Prefer. 32 (2014), 167-172 (2013).
  6. Danner, L., Haindl, S., Joechl, M., Duerrschmid, K. Facial expression and autonomous nervous system responses elicited by tasting different juices. Food Res Int. 64 (2014), 81-90 (2014).
  7. Arnade, E. A. Measuring consumer emotional response to tastes and foods through facial expression analysis [thesis]. , Virginia Tech. Blacksburg. 1-187 (2013).
  8. Leitch, K. A., Duncan, S. E., O'Keefe, S., Rudd, R., Gallagher, D. L. Characterizing consumer emotional response to sweeteners using an emotion terminology questionnaire and facial expression analysis. Food Res Int. 76, 283-292 (2015).
  9. Crist, C. A., et al. Application of emotional facial analysis technology to consumer acceptability using a basic tastes model. Technical Abstracts and Proceedings of the 2014 Institute of Food Technologists Annual Meeting, 2014 Jun 21 - 24, New Orleans, LA, , (2014).
  10. Garcia-Burgos, D., Zamora, M. C. Facial affective reactions to bitter-tasting foods and body mass index in adults. Appetite. 71 (2013), 178-186 (2013).
  11. Garcia-Burgos, D., Zamora, M. C. Exploring the hedonic and incentive properties in preferences for bitter foods via self-reports, facial expressions and instrumental behaviours. Food Qual Prefer. 39 (2015), 73-81 (2015).
  12. Lewinski, P., Fransen, M. L., Tan, E. S. H. Predicting advertising effectiveness by facial expressions in response to amusing persuasive stimuli. J. Neurosci. Psychol. Econ. 7 (1), 1-14 (2014).
  13. Ekman, P., Friesen, W. V. Facial action coding system: A technique for the measurement of facial movement. , Consulting Psychologists Press. Palo Alto, California. (1978).
  14. Viola, P., Jones, M. Rapid object detection using a boosted cascade of simple features. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern. 1, 511-518 (2001).
  15. Sung, K. K., Poggio, T. Example-based learning for view-based human face detection. IEEE Trans. Pattern Anal. Mach. Intell. 20 (1), 39-51 (1998).
  16. FaceReader 5™ Technical Specifications. , Noldus Information Technology. Wageningen, The Netherlands. Available from: http://www.webshop.noldus.com/media/techspec/facereader _techspec.pdf (2014).
  17. Cootes, T., Taylor, C. Statistical models of appearance for computer vision: Technical report. , University of Manchester, Wolfson Image Analysis Unit, Imaging Science and Biomedical Engineering. (2000).
  18. Bishop, C. M. Neural networks for pattern recognition. , Oxford University Press. New York. (1995).
  19. Lewinski, P., den Uyl, T. M., Butler, C. Automated facial coding: validation of basic emotions and FACS AUs in FaceReader. J. Neurosci. Psychol. Econ. 7 (4), 227-236 (2014).
  20. Noldus Information Technology. FaceReader Reference Manual Version 6. , Wageningen, The Netherlands. (2014).
  21. Alves, N. T., Fukusima, S. S., Aznar-Casanova, J. A. Models of brain asymmetry in emotional processing. Psychol Neurosci. 1 (1), 63-66 (2008).
  22. Costello, M., Clark, S. Preparation of samples for instructing students and staff in dairy products evaluation (Appendix F). The sensory evaluation of dairy foods. Clark, S., Costello, M., Drake, M., Bodyfelt, F. , 2nd, Springer. New York. 551-560 (2009).
  23. Porcherot, C., et al. How do you feel when you smell this? Optimization of a verbal measurement of odor-elicited emotions. Food Qual Prefer. 21, 938-947 (2010).
  24. Warrenburg, S. Effects of fragrance on emotions: Moods and physiology. Chem. Senses. 30, i248-i249 (2005).
  25. Bredie, W. L. P., Tan, H. S. G., Wendin, K. A comparative study on facially expressed emotions in response to basic tastes. Chem. Percept. 7 (1), 1-9 (2014).
  26. Wendin, K., Allesen-Holm, B. H., Bredie, L. P. Do facial reactions add new dimensions to measuring sensory responses to basic tastes? Food Qual Prefer. 22, 346-354 (2011).
  27. Rosenstein, D., Oster, H. Differential facial responses to four basic tastes in newborns. Child Dev. 59 (6), 1555-1568 (1988).
  28. Rosenstein, D., Oster, H. Differential facial responses to four basic tastes in newborns. What the face reveals: Basic and applied studies of spontaneous expression using the facial action coding system (FACS). P, E. kman, E, R. osenberg , Oxford University Press, Inc. New York. 302-327 (1997).
  29. Rozin, P., Fallon, A. E. A perspective on disgust. Psychol. Rev. 94 (1), 23-41 (1987).
  30. Delarue, J., Blumenthal, D. Temporal aspects of consumer preferences. Curr. Opin. Food Sci. 3, 41-46 (2015).
  31. Sudre, J., Pineau, N., Loret, C., Marin, N. Comparison of methods to monitor liking of food during consumption. Food Qual Prefer. 24 (1), 179-189 (2012).
  32. Weiland, R., Ellgring, H., Macht, M. Gustofacial and olfactofacial responses in human adults. Chem. Senses. 35 (9), 841-853 (2010).
  33. Ekman, P. Universal and cultural differences in facial expressions of emotion. Nebraska symposium on motivation. Cole, J. , University of Nebraska Press. Lincoln (NE). 207-283 (1971).
  34. Griemel, E., Macht, M., Krumhuber, E., Ellgring, H. Facial and affective reactions to tastes and their modulation by sadness and joy. Physiol Behav. 89 (2), 261-269 (2006).

Tags

Comportement numéro 114 du visage Analyse d'expression évaluation sensorielle Émotion Boisson Food Science Time Series Analysis Dairy
Protocole de collecte de données et d&#39;analyse appliquée à la technologie d&#39;analyse de l&#39;expression du visage automatisé et analyse temporelle pour l&#39;évaluation sensorielle
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Crist, C. A., Duncan, S. E.,More

Crist, C. A., Duncan, S. E., Gallagher, D. L. Protocol for Data Collection and Analysis Applied to Automated Facial Expression Analysis Technology and Temporal Analysis for Sensory Evaluation. J. Vis. Exp. (114), e54046, doi:10.3791/54046 (2016).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter