Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Protocollo per la raccolta di dati e analisi applicata a Automated viso Tecnologia Espressione Analisi e analisi temporale per la valutazione organolettica

Published: August 26, 2016 doi: 10.3791/54046

Summary

Un protocollo per l'acquisizione e l'analisi statistica risposta emotiva di una popolazione di bevande e alimenti liquidi in un laboratorio valutazione sensoriale utilizzando il software di analisi automatizzata espressione facciale è descritto.

Introduction

Automatizzata analisi espressione del viso (AFEA) è uno strumento di analisi prospettica per la caratterizzazione di risposte emotive alle bevande e alimenti. analisi emozionale può aggiungere una dimensione extra al metodologie esistenti Scienze Sensoriali, pratiche di valutazione, il cibo e le valutazioni di scala edonica tipicamente utilizzato sia in ambienti della ricerca e dell'industria. analisi emozionale potrebbe fornire una metrica supplementare che rivela una risposta più precisa di cibi e bevande. Punteggio edonico può includere pregiudizi partecipante a causa di mancanza di registrare le reazioni 1.

la ricerca AFEA è stato utilizzato in molte applicazioni di ricerca, tra cui giochi per computer, il comportamento degli utenti, Istruzione / Pedagogia, e gli studi di psicologia su empatia e l'inganno. La maggior parte della ricerca alimentare associata si è concentrata sulla caratterizzazione di risposta emotiva alla qualità del cibo e del comportamento umano con il cibo. Con la recente tendenza ad acquisire intuizioni comportamenti alimentari, un numero crescente di dati di letteratura uso di AFEAper caratterizzare la risposta emotiva umana associata a cibi, bevande e odoranti 1-12.

AFEA deriva dal viso Azione Coding System (FACS). Il sistema di codifica azione facciale (FACS) discrimina i movimenti facciali caratterizzati da unità di azione (AUS) su una scala di intensità 5 punti 13. L'approccio FACS richiede esperti revisione addestrati, codifica manuale, significativo tempo di valutazione, e fornisce le opzioni di analisi di dati limitati. AFEA è stato sviluppato come un metodo di valutazione rapida per determinare emozioni. AFEA software si basa sul movimento facciale muscolare, i database del viso, e gli algoritmi per caratterizzare la risposta emotiva 14-18. Il software AFEA utilizzato in questo studio ha raggiunto un "indice di FACS di contratto di 0,67, in media, sia sul Varsavia Set di Emotional viso Pictures espressione (WSEFEP) e Amsterdam dinamica Espressione del viso Set (ADFES), che è vicino a un accordo standard di 0,70 per codifica manuale "19 20. Inoltre, la letteratura psicologia comprende felice, sorpresa, e arrabbiato come emozioni "approccio" (verso stimoli) e triste, spaventato, e disgustato come emozioni "ritiro" (lontano da stimoli avversi) 21.

Una limitazione del software AFEA corrente per caratterizzare emozioni associate con gli alimenti è interferenza da movimenti facciali associati masticazione e deglutizione, nonché altri movimenti motorie, come movimenti della testa estreme. Il software si rivolge a movimenti più piccoli facciali muscolari, posizione in materia e grado di movimento, sulla base di oltre 500 punti muscolari sul viso 16,17. movimenti masticare interferiscono con la classificazione di espressioni. Questo limitezione può essere affrontata utilizzando alimenti liquefatti. Tuttavia, altre sfide metodologia può anche diminuire la sensibilità di video e l'analisi AFEA compresi dell'ambiente raccolta dei dati, la tecnologia, le istruzioni ricercatore, il comportamento dei partecipanti, e partecipante attributi.

Una metodologia standard non è stato sviluppato e verificato per la cattura video ottimale e l'analisi dei dati utilizzando AFEA per la risposta emotiva a cibi e bevande in un ambiente di laboratorio di valutazione sensoriale. Molti aspetti possono influenzare l'ambiente di acquisizione video, tra cui l'illuminazione, ombra a causa di illuminazione, le indicazioni dei partecipanti, il comportamento dei partecipanti, l'altezza dei partecipanti, così come, altezza macchina fotografica, pesca macchina fotografica, e le impostazioni di attrezzature. Inoltre, le metodologie di analisi dei dati sono incoerenti e mancano di una metodologia standard per la valutazione della risposta emotiva. Qui, dimostreremo la nostra procedura standard per l'acquisizione dei dati ed elaborazione dei dati emotivi in ​​risultati significativi utilizzando le bevande (latte aromatizzato, latte unflavored e acqua unflavored) per la valutazione. A nostra conoscenza un solo peer reviewed pubblicazione, dal nostro gruppo laboratorio, ha utilizzato le serie temporali per l'interpretazione dei dati per l'analisi delle emozioni 8; tuttavia, il metodo è stato aggiornato da nostro metodo presentato. Il nostro obiettivo è quello di sviluppare una metodologia migliore e coerente per aiutare con la riproducibilità in laboratorio di valutazione sensoriale. Per la dimostrazione, l'obiettivo del modello di studio è quello di valutare se AFEA potesse completare la verifica tradizionale edonistico accettabilità del latte aromatizzato, latte unflavored e acqua insapore. L'intenzione di questo protocollo video è quello di contribuire a creare una metodologia AFEA, uniformare i criteri di acquisizione video in un laboratorio di valutazione sensoriale (impostazione cabina sensoriale), e illustrare un metodo per l'analisi dei dati temporali emotiva di una popolazione.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Etica Dichiarazione: Questo studio è stato precedentemente approvati dal Virginia Tech Institutional Review Board (IRB) (IRB 14-229) prima di iniziare il progetto.

Attenzione: sperimentazione umana richiede un consenso informato prima della partecipazione. Oltre ad approvazione IRB, il consenso per l'utilizzo di fotografie o immagini video è necessario anche prima di rilasciare le immagini per la stampa, video o immagini grafiche. Inoltre, gli allergeni alimentari sono comunicati prima del test. Ai partecipanti è richiesto prima dell'inizio del pannello se hanno tutte le intolleranze, allergie o altri problemi.

Nota: CRITERI DI ESCLUSIONE: automatizzata analisi di espressione del viso è sensibile alle spessi occhiali incorniciati, volti pesantemente barbuti e il tono della pelle. I partecipanti che hanno questi criteri sono incompatibili con l'analisi del software a causa di un aumento del rischio di video falliti. Questo è attribuito all'incapacità del software per trovare il volto.

1. Preparazione del campione e partecipante reclutamento

  1. Preparare bevanda o softcampioni di prodotti alimentari.
    1. Preparare sapori intensificato soluzioni caseari utilizzando 2% latte e suggerite da Costello e Clark (2009) 22, nonché altri sapori. Preparare le seguenti soluzioni: (1) il latte unflavored (2% ridotta di grassi del latte); (2) l'acqua insapore (acqua potabile); (3) sapore di estratto di vaniglia nel latte (0,02 g / ml) (imitazione chiaro sapore di vaniglia); e (4) sapore salato nel latte (0,004 g / ml sale iodato).
      Nota: Queste soluzioni sono utilizzate solo a scopo dimostrativo.
    2. Versare metà oncia aliquote (~ 15 g) di ogni soluzione in due once coppe dei campioni di plastica trasparente e tappo con codice colore coperchi.
      Nota: Si consiglia di utilizzare le tazze trasparenti; tuttavia, è a discrezione del ricercatore.
  2. Reclutare i partecipanti del campus o della comunità locale a partecipare allo studio.
    Nota: dimensione del campione partecipante necessario per uno studio è a discrezione del ricercatore. Si consiglia una serie di 10 a 50 partecipanti. Ottenere il consenso soggetto umano prima della partecipazione allo studio.

2. Preparazione di Sala Panel per acquisizione video

Nota: Questo protocollo è per l'acquisizione di dati in un laboratorio di valutazione sensoriale. Questo protocollo è quello di rendere l'acquisizione di dati AFEA utile per un ambiente cabina sensoriale.

  1. Utilizzare singole cabine con un monitor touchscreen di fronte a loro (livello viso) per mantenere la loro attenzione avanti e prevenire guardando verso il basso.
  2. Utilizzare sedie regolabili in altezza con supporto per la schiena.
    Nota: Questi sono essenziali per consentire ai partecipanti di essere regolato in senso verticale e collocati in una gamma adatta per la cattura video. Utilizzare sedie stazionarie (senza funzione di laminazione) con supporto altezza dello schienale regolabile in modo i movimenti dei partecipanti sono ridotti.
  3. Set illuminazione ambientale al "100% la luce del giorno" per ottimale del viso cattura video emozionale (Lampade a 6504K; R = 206; G = 242; B = 255).
    Nota: per evitare ombre intenso, l'illuminazione frontale diffusa è ideAl mentre l'intensità della luce o il colore non è così rilevante 20. In definitiva, è a discrezione del ricercatore, individuale protocollo / metodologia, e l'ambiente per controllare l'illuminazione per la cattura.
  4. Fissare una telecamera regolabile sopra il monitor touch screen per la registrazione.
    1. Utilizzare una fotocamera con una risoluzione di almeno 640 x 480 pixel (o superiore) 20. Discutere le funzionalità della fotocamera richiesti con il fornitore di software prima di acquisto e l'installazione di 20. Nota: Il rapporto di aspetto non è importante 20.
    2. Impostare la velocità di acquisizione della fotocamera a 30 fotogrammi al secondo (o altre velocità standard) per la coerenza.
    3. Collegare e garantire supporto software di registrazione è impostato per la fotocamera per registrare e salvare i video partecipanti.

3. Regolazione dei partecipanti e istruzioni verbali

  1. Avere un solo partecipante alla volta di valutare i campioni nella cabina sensoriale.
    Nota: Test più diun partecipante allo stesso tempo può interferire con l'ambiente di test e disturbare la concentrazione del partecipante o creare bias.
  2. All'arrivo, ai partecipanti istruzioni verbali sul processo e le procedure operative standard.
    1. Hanno i partecipanti siedono verso l'alto e contro la parte posteriore della sedia.
    2. Regolare l'altezza sedia, la posizione della sedia (distanza dalla fotocamera), e l'angolo di macchina fotografica in modo che il volto del partecipante viene catturato nel centro della registrazione video, senza ombre sul mento e intorno agli occhi.
      Nota: Nella cabina sensoriale, la testa del partecipante è di circa 20 - 24 pollici di distanza dalla telecamera e il monitor con il volto al centro del feed video della telecamera.
    3. Istruire i partecipanti a rimanere seduti come posizionato e messo a fuoco rivolto verso il display del monitor. Inoltre, istruire i partecipanti ad astenersi da movimenti improvvisi dei consumi post-campione durante il periodo di valutazione di 30 secondi per campione. Istruire il partecipante a consumare l'intero bevanda o campione alimentare liquefatto e deglutire.
    4. Istruire il partecipante per spostare rapidamente il recipiente per campioni sotto il mento e verso il tavolo immediatamente dopo che il campione è in bocca. Questo è quello di eliminare l'occlusione del viso. Ricordare loro di continuare a guardare verso il monitor.
      Nota: Il vettore campione di consegnare il campione è a discrezione del ricercatore. Una paglia o tazza possono essere utilizzati. Indipendentemente da ciò, l'occlusione del viso iniziale è inevitabile, perché il volto sarà occlusa o distorto a causa di consumo.
  3. Istruire il partecipante di seguire le istruzioni che appaiono sul monitor touchscreen. Nota: Le istruzioni sono in sequenza automaticamente come programmato nel software sensoriale automatizzato.

4. Processo singolo partecipante per acquisizione video

  1. Confermare la videocamera è in modo ottimale catturando volto del partecipante, mentre il partecipante è sedutocomodamente nella cabina (prima della presentazione del campione) per la visualizzazione del monitor del computer su cui viene visualizzata la cattura video. Iniziare la registrazione facendo clic sul pulsante di registrazione sul monitor del computer.
  2. Istruire i partecipanti a sorseggiare l'acqua per pulire il loro palato.
  3. Fornire trattamenti uno alla volta, a partire da una base o un trattamento di controllo (acqua unflavored). Identificare ogni campione da un cartoncino unico colore posto sulla parte superiore di ogni campione nel codice di colore del campione di identificazione trattamento del campione all'interno del video.
    Nota: una guida programmata sul monitor touchscreen istruisce i partecipanti. Le istruzioni dirigono partecipante attraverso una serie di passaggi standardizzati per ciascun campione trattamento.
  4. Via il monitor touch screen, direttamente al partecipante di:
    1. Tenere la carta indice di colore associato pre-consumo per l'identificazione dei campioni nel video.
      Nota: La cartella colori è un modo i ricercatori possono individuare i trattamenti nel video unND segnare il lasso di tempo adeguato (tempo zero) per la valutazione del campione.
    2. Dopo aver tenuto la scheda per breve tempo, posizionare la carta sul vassoio.
    3. Completamente consumano il campione e attendere circa 30 secondi, forzate attraverso la guida programmato sul monitor, mentre di fronte verso la telecamera.
      Nota: Il periodo di campionamento controllato 30 sec abbraccia un arco di tempo adeguato per l'intero periodo di valutazione di campionamento (cioè, mostrando il cartoncino, aprendo un campione (togliendo il coperchio), il consumo, e la cattura emotiva).
    4. Inserire il loro punteggio accettabilità edonico sul monitor touch screen (1 = non piace molto, 2 = non piace molto, 3 = non amano moderatamente, 4 = non amano un po ', 5 = né come né antipatia, 6 = come un po', 7 = come moderatamente, 8 = piace molto, 9 = come estremamente).
    5. Sciacquare la bocca con acqua potabile prima del successivo processo di campionamento.

5. Valutare automatizzati Opzioni di analisi Espressione del viso

Nota: Esistono molti programmi software di analisi di espressione del viso. comandi software e funzioni possono variare. E 'importante seguire le linee guida di utente del produttore e manuale di riferimento 20.

  1. Salva le registrazioni in un formato multimediale e trasferire al software di analisi automatizzata espressione facciale.
  2. Analizzare i video partecipanti utilizzando software di analisi automatizzata del viso.
    1. Fare doppio clic sull'icona del software sul desktop del computer.
    2. Una volta che il programma è aperto, fai clic su "File", selezionare "Nuovo ..." e selezionare "Progetto ..."
    3. Nella finestra pop-up, un nome al progetto e salvare il progetto.
    4. Aggiungere i partecipanti al progetto facendo clic sull'icona "Aggiungi partecipanti" (Persona con un segno (+)). Altri partecipanti possono essere aggiunti ripetendo questo passaggio.
    5. Aggiungere il video del partecipante al rispettivo partecipante per l'analisi.
      1. Sul lato sinistro dello schermo fare clic sull'icona della connessione wi bobina filmesimo un segno più (+) per aggiungere un video da analizzare.
      2. Fare clic su "lente di ingrandimento" sotto il partecipante di interesse per passare in rassegna il video da aggiungere.
  3. Analizzare video frame-by-frame in Impostazioni di analisi calibrazione continui nel software.
    1. Fare clic sull'icona della matita per regolare le impostazioni nella parte inferiore della finestra, sotto la scheda "Impostazioni" per ogni video partecipante.
      1. Impostare "Face Model" al generale. Impostare "classificazioni levigare" Sì. Impostare "Sample Rate" per ogni fotogramma.
      2. Impostare "Rotazione Immagine" su No. Impostare "taratura continua" Sì. Impostare "calibrazione selezionato" Nessuno.
    2. Salvare le impostazioni di progetto.
    3. Premere l'icona di analisi dei lotti (lo stesso obiettivo-come simbolo rosso e nero) per analizzare i video del progetto.
    4. Salvare i risultati una volta che l'analisi è stata completata.
      Nota: Esistono altri impostazioni video nel software, se researcla sua preferenza garantisce un altro metodo di analisi.
    5. Considerare video fallimenti se gravi occlusioni del viso o l'incapacità di mappare la faccia persiste durante la finestra di post-consumo specifico (Figura 1). Inoltre, se il modello non riesce dati dirà "FIT_FAILED" o "FIND_FAILED" nei file di output esportati (Figura 2). Questo rappresenta i dati persi dal momento che il software non è in grado di classificare e analizzare le emozioni del partecipante.
      Nota: AFEA traduce il movimento dei muscoli facciali in folle, felice, disgustato, triste, arrabbiato, sorpreso e spaventato, in una scala da 0 (non espresso) a 1 (completamente espresso) per ogni emozione.
  4. Esportare l'uscita dei dati AFEA come file di log (txt) per ulteriori analisi.
    1. Una volta che le analisi sono completi, esportare l'intero progetto.
      1. Fai clic su "File", "Export", "Esportare i risultati del progetto".
      2. Quando si apre una finestra, scegliere la posizione di dove le esportazioni Should essere salvati e salvare i file di log (txt) in una cartella.
      3. Convertire ogni vita log partecipante di un foglio di calcolo di dati (.csv o .xlsx) per estrarre dati rilevanti.
        1. Aprire un foglio elettronico di dati e selezionare la scheda "Dati".
        2. Nella scheda "Dati", nel gruppo "Carica dati esterni", fai clic su "Da testo".
        3. Nella "barra degli indirizzi", individuare, fare doppio clic sul file di testo partecipante da importare e seguire le istruzioni della procedura guidata schermo.
        4. Continuare il processo di esportazione per tutti i file partecipante pertinente.

6. Video timestamp Partecipante per l'analisi dei dati

  1. Utilizzando il software AFEA, rivedere manualmente il video di ciascun partecipante e identificare il tempo di post-consumo zero per ogni campione. Registrare il timestamp in un foglio di calcolo di dati. Post-consumo è definito quando la coppa del campione è al di sotto del mento del partecipante e non più occlude il volto.
    Nota: Il posizionamento del timestamp è critica per la valutazione. Il punto in cui la coppa non è più occlude la faccia è la raccomandazione ottimale e timestamp devono essere coerenti per tutti i partecipanti.
  2. Salvare il foglio di calcolo di dati timestamp (.csv) come riferimento per l'estrazione di dati rilevanti dal video.
    Nota: i video partecipante può anche essere codificati internamente nel software come "Evento di marcatura".

7. Serie Tempo Analisi Emozionale

Nota: Si consideri la "base" per il controllo (ossia, acqua unflavored in questo esempio). Il ricercatore ha la capacità di creare un diverso "stimolo trattamento di base" o un "tempo di base, senza stimolo" per il confronto accoppiato dipende gli interessi delle indagini. Il metodo proposto conti per uno stato di "default" utilizzando un test statistico accoppiato. In altre parole, la procedura utilizza blocco statistica (cioè,un test accoppiato) per regolare per l'aspetto predefinito di ogni partecipante e quindi riduce la variabilità tra i partecipanti.

  1. Estrarre i dati rilevanti dai file esportati (.csv o .xlsx).
    1. Identificare un lasso di tempo rilevante per la valutazione studio (secondi).
    2. estrarre manualmente rispettivi dati (lasso di tempo) dai file esportati partecipante consulenza il timestamp partecipante (tempo zero).
    3. Compilare i dati di trattamento di ogni partecipante (il numero dei partecipanti, il trattamento, il tempo del video originale, e la risposta emozione) per emozione (felice, neutro, triste, arrabbiato, sorpreso, spaventato, e disgustato) per la cornice di selezione di tempo (in secondi) in un nuovo foglio di dati per future analisi (Figura 3).
    4. Continuare questo processo per tutti i partecipanti.
  2. Identificare il tempo corrispondente a zero dal file timestamp per ogni coppia partecipante-trattamento e regolare il tempo video a un tempo vero "0" per confronto diretto ( Figura 5).
    Nota: i dati partecipante viene raccolta in un video continua quindi ogni trattamento "tempo zero" è diverso (cioè, acqua unflavored video tempo zero è 02: 13.5 e latte unflavored video in tempo zero è 03: 15.4). Nella Figura 4 A causa della diversa trattamento "zeri tempo", i tempi di video devono essere riadattato e riallineato per iniziare a "0: 00.0", o altro orario di inizio di serie in modo che il confronto tempo diretto dei dati di risposta emotiva di trattamento.
  3. Per ogni partecipante, emozione, e punto di tempo impostato, estrarre il trattamento associato (ad esempio, il latte unflavored) e il trattamento di controllo (ad esempio, acqua unflavored) quantitativa punteggio emotivo. In altre parole, allineare trattamento e controllo serie temporale di un partecipante di risposte per ogni emozione (Figura 5).
  4. Compilare tutte le informazioni del partecipante (partecipanti, tempo impostato, e il trattamento in coppia(Ad esempio, acqua unflavored e latte unflavored) in ogni momento (Figura 6).
    Nota: Le seguenti procedure illustrano i passaggi per una prova Wilcox accoppiato a mano. La maggior parte dei programmi software di analisi dei dati farà questo automaticamente. Si consiglia di discutere il processo di analisi statistica con uno statistico.
  5. Una volta che i campioni sono reset e in linea con i tempi nuovi video di regolate, confrontare direttamente tra i risultati emotive di un rispettivo campione e il controllo (acqua unflavored) utilizzando sequenziali abbinato test non parametrico Wilcoxon attraverso i partecipanti (Figura 7).
    Nota: Il nuovo allineamento temporale dei campioni permetterà un confronto diretto all'interno del post-consumo arco di tempo di 5 secondi. Se un'osservazione associato non è presente in un trattamento, escludere il partecipante da quel punto di tempo di confronto.
    1. Calcolare la differenza tra il controllo e il rispettivo campione per ciascun confronto accoppiato usando spreadshe datisoftware di gestione et.
      Nota: Il confronto sarà dipendente dal frame rate selezionato per l'analisi emozionale nel software. Il protocollo dimostra 30 singoli confronti al secondo per 5 secondi (intervallo di tempo selezionato).
      Nota: Utilizzare la Figura 7 come riferimento per colonne e passi.
      1. Sottrarre il valore del latte (ad esempio, il latte unflavored) dal valore del controllo (ad esempio, acqua unflavored) per determinare la differenza. Nel software di gestione dei fogli di calcolo dei dati in una nuova colonna intitolata "Trattamento Difference", inserire "= (C2) - (D2)", dove "C2" è i valori emozionali di controllo e "D2" è i valori emozionali di trattamento selezionato. Continuare questo processo per tutti i punti di tempo.
      2. Calcolare il valore assoluto della differenza di trattamento. Nel software di gestione dei fogli di calcolo dei dati in una nuova colonna, digitare "= ABS (E2)", dove "E2" è la differenza di trattamento. Continuare questo processo pertutti i punti di tempo.
      3. Determinare l'ordine di classificazione della differenza di trattamento. Nel software di gestione dei fogli di calcolo dei dati in una nuova colonna, immettere "= RANK (G2, $ G $ 2: $ G $ 25, 1)" dove "G2" è la differenza assoluta e "1" è "ascendente". Continuare questo processo per tutti i punti di tempo.
      4. Determinare il rango firmata della graduatoria sul foglio di calcolo. Modificare il segno negativo se la differenza di trattamento è stato negativo (colonna I).
      5. Calcolare la somma positiva (= SUMIF (I2: I25, "> 0", I2: I25) e somma negativa = SUMIF (I2: I25, "<0", I2: I25) dei valori di rango.
      6. Determinare la statistica test. La statistica test è il valore assoluto più basso somma.
      7. Consultare le tabelle statistiche per Wilcoxon classifica Statistica test utilizzando il numero di osservazioni inclusi al momento specifico e un valore alfa selezionato per determinare il valore critico.
      8. Se la statistica test è inferiore al valore critico respingere tegli ipotesi nulla. Se è maggiore, accettare l'ipotesi nulla.
  6. Grafico i risultati sul grafico di trattamento associato (ad esempio, il latte unflavored rispetto all'acqua unflavored) per i tempi in cui l'ipotesi nulla viene rifiutata. Utilizzare il segno della differenza per determinare quale trattamento ha maggiore emozione (Figura 8).
    1. Nel software di gestione foglio dati, creare un grafico utilizzando i valori di presenza o assenza di significato.
      1. Fai clic su "Inserisci" scheda.
      2. Selezionare "Line"
      3. Fare clic destro sulla casella del grafico.
      4. Fare clic su "selezionare i dati" e seguire le istruzioni sullo schermo per selezionare e grafico i dati rilevanti (Figura 8).
        Nota: I grafici si ritraggono risultati emozionali in cui il campione o il controllo è più alta e significativa. Grafico dipendente, l'emozione è più alta in quel momento specifico che permette la capacità di discernere come le emozioni dei partecipantievolvere nel periodo di 5 secondi tra due campioni.
        Nota: Supporto statistico con uno statistico è altamente raccomandato per estrarre i dati rilevanti. Sviluppo di codifica statistica è necessario per analizzare i risultati emotivi.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Il metodo si propone un protocollo standard per la raccolta dei dati AFEA. Se sono seguiti passi protocollo suggerito, inutilizzabile emotivo in uscita (Figura 1) derivanti dalla raccolta dei dati poveri (Figura 2: A; foto a sinistra) può essere limitata. Analisi di serie temporali non può essere utilizzato se i file di log (txt) prevalentemente contengono "FIT_FAILED" e "FIND_FAILED" in quanto si tratta di dati cattivi (Figura 1). Inoltre, il metodo comprende un protocollo per confronto statistico diretto tra due trattamenti di uscita dati emotiva su un arco di tempo per stabilire un profilo emozionale. analisi di serie temporali in grado di fornire le tendenze emotive nel corso del tempo e in grado di fornire una dimensione di valore aggiunto ai risultati di accettabilità edonistici. Inoltre, l'analisi di serie temporali in grado di mostrare i cambiamenti nei livelli emotivi nel corso del tempo, che è prezioso durante l'esperienza di mangiare.

(Figura 9). risultati edonistici deducono che non c'erano differenze di accettabilità tra latte unflavored, acqua insapore e sapore estratto di vaniglia nel latte. Tuttavia, l'analisi di serie temporali AFEA indicato latte unflavored generato meno disgustato (p <0,025; 0 sec), sorpreso (p <0,025; 0-2,0 sec), meno triste (p <0,025; 2,0-2,5 sec) e meno neutrale (p <0,025; ~ 3,0-3,5 sec) le risposte che ha fatto acqua unflavored (Figura 10). Inoltre, il sapore estratto di vaniglia nel latte introdotto espressioni più felici prima di 5,0 secondi (p <0.025) e meno triste (p <0,025; 2.0-3.0 e 5.0 sec) di acqua insapore (Figura 11). Vaniglia, come un odore, è stata associata con i termini "rilassato", "sereno", "rassicurato", "felicità", &# 34;. Benessere "," piacevolmente sorpresi "23 e" piacevole "24 sapore salato nel latte avuto inferiore (p <0.05), si intendono i punteggi di accettabilità edonistici (antipatia moderatamente) (Figura 9) e il sapore salato del latte generato più disgusto (p <0,025) dopo (3.0-5.0 sec) di acqua insapore (Figura 12). salato intenso è stato associato con disgusto e sorpresa 25, 26. Tuttavia, alcuni studi hanno dichiarato che sapore salato non suscita la risposta del viso 7, 27 -29.

Figura 1
Figura 1. Esempio di acquisizione dei dati non ottimale a causa di incompatibilità con il software partecipante AFEA con conseguente perdita di punti di risposta dati emotivi grezzi nei file di output esportati [FIT_FAILED; FIND_FAILED]. Fallimenti video si verificano quando gravi occlusioni del viso o l'incapacità di mappare la Persi faccia STS durante la finestra di post-consumo specificato. Fai clic qui per vedere una versione più grande di questa figura.

figura 2
Figura 2. Esempio di acquisizione dei dati non ottimale a causa di software di modellazione partecipante. La figura presenta l'acquisizione dei dati non ottimale a causa di software di modellazione partecipante di incompatibilità e il fallimento di mappatura volto a determinare la risposta emotiva (A). Esempio di modellazione in forma di successo e la capacità di catturare la risposta emotiva del partecipante (B). Clicca qui per vedere una versione più grande di questa figura.

6fig3.jpg "/>
Figura 3. Esempio di dati dei partecipanti estratti compilati in un nuovo foglio di dati. I dati Partecipante (numero dei partecipanti, il trattamento, il tempo del video originale, e la risposta emozione) è identificato per emozione (felice, neutro, triste, arrabbiato, sorpreso, spaventato, e disgustato ) per il periodo di tempo di selezione (secondi). Questo foglio di calcolo è utilizzato per le successive analisi. Si prega di cliccare qui per vedere una versione più grande di questa figura.

Figura 4
Figura 4. Esempio di dati dei partecipanti estratti compilati per la successiva analisi. I dati estratti partecipanti (A1 e B1) viene compilato (A2 e B2), graficamente (A3 e B3) e allineato (A4 e B4) come visiva per confronto diretto. i restempo Pective zero per il controllo (A4: Sorpreso Unflavored acqua) e il trattamento (B4: Sorpreso Unflavored latte) vengono visualizzati per confrontare i risultati emotivi sorpreso. Questo esempio rappresenta ed identifica il tempo corrispondente a zero dal file timestamp per ogni coppia partecipante-trattamento. Si prega di cliccare qui per vedere una versione più grande di questa figura.

Figura 5
.. Figura 5. Esempio di dati dei partecipanti estratti con telaio tempo impostato I dati partecipante estratto è presentato con arco di tempo regolato con un vero e proprio "tempo zero" (A1 e B1) la regolazione dell'ora permette la comparazione diretta tra un comando (A: Sorpreso unflavored acqua) e un trattamento (B2: Sorpreso Unfla vored Latte) (A2 e B2). Questo esempio rappresenta e identifica il vero "tempo zero" corrispondente (rettificato) dal file timestamp per ogni coppia partecipante-trattamento. Si prega di cliccare qui per vedere una versione più grande di questa figura.

Figura 6
Figura 6. Esempio di processo per la compilazione dei dati di tutti i partecipanti. Il partecipante, tempo impostato, e il trattamento in coppia (ad esempio, l'acqua insapore e latte unflavored) in ogni punto è compilato per prepararsi per l'analisi statistica. Clicca qui per visualizzare un grande versione di questa figura.

es / ftp_upload / 54046 / 54046fig7.jpg "/>
Figura esempio fogli di calcolo 7. I dati di confronto di un controllo (Unflavored acqua) e un trattamento (Unflavored Milk) utilizzando test Wilcoxon tra i partecipanti in un punto determinato momento. La figura rappresenta un confronto diretto fra i risultati emotive di un rispettivo campione e il controllo (acqua unflavored ) utilizzando sequenziale accoppiato test Wilcoxon non parametrici attraverso i partecipanti. clicca qui per vedere una versione più grande di questa figura.

Figura 8
Figura 8. Esempio di foglio di calcolo di dati per rappresentare graficamente i risultati, se (p <0,025) sul grafico trattamento associato (ad esempio, il latte unflavored rispetto all'acqua unflavored). I risultati del test sequenziale accoppiati Wilcoxon non parametrici in tutto il PARTECIPAnti sono rappresentati graficamente per i tempi in cui l'ipotesi nulla viene rifiutata. Cliccate qui per vedere una versione più grande di questa figura.

Figura 9
Figura 9. Significa accettabilità (edonistici) realizza il calcio di acqua unflavored, latte unflavored, sapore di estratto di vaniglia nel latte e sapore salato nelle soluzioni di latte per bevande. L'accettabilità era basata su una scala edonica a 9 punti (1 = non piace molto, 5 = né come né antipatia, 9 = come estremamente; media +/- SD) 1. Il trattamento con mezzi diversi apici differiscono significativamente a piacimento (p <0.05). latte unflavored, acqua e vaniglia unflavored sapore estratto nel latte non erano differenti (p> 0,05) in punteggi medi di accettabilità e sono stati votati come "è un po '". sapore salato nel latte aveva un inferiore (p <0.05) significa punteggi di accettabilità (antipatia moderatamente). Clicca qui per vedere una versione più grande di questa figura.

Figura 10
Figura 10. grafici serie storiche delle emozioni classificati sui dati di analisi di espressione facciale automatizzati oltre 5,0 secondi confronto latte unflavored e acqua insapore. Sulla base sequenziale test non parametrici Wilcoxon appaiati tra il latte unflavored e acqua unflavored (baseline), i risultati sono tracciate sul rispettivo grafico di trattamento se la mediana trattamento è più elevata e maggiore significatività (p <0,025) per ogni emozione. Presenza di una riga indica una differenza significativa (p <0,025) per il punto temporale specifico in cui la mediana è maggiore, mentre l'assenza di una riga indica alcuna differenza in un punto temporale specifico (p> 0,025). Assenzadi linee nel latte unflavored (A) non rivela categorizzazione emozionale rispetto all'acqua insapore (p <0,025) rispetto 5,0 secondi. In acqua unflavored (B), i risultati emozionali rispetto al latte unflavored rivelano disgustato (linea porpora) a 0 sec, sorpreso verifica (linea arancione) tra 0-1,5 sec, triste (linea verde) si verifica circa 2,5 sec, e neutro (rosso line) si verifica circa 3 -. 3,5 sec (p <0,025) clicca qui per vedere una versione più grande di questa figura.

Figura 11
Figura 11. grafici serie storiche emozioni classificati sulla base di dati di analisi espressione facciale automatizzati oltre 5,0 secondi confronto vaniglia sapore estratto in latte e acqua unflavored (baseline). Sulla base sequenziale accoppiati test non parametrici Wilcoxon travaniglia sapore estratto in latte e acqua unflavored, i risultati sono tracciate sul rispettivo grafico di trattamento se il trattamento mediana è più alta e di maggior significato (p <0,025) per ogni emozione. Presenza di una riga indica una differenza significativa (p <0,025) per il punto temporale specifico in cui la mediana è maggiore, mentre l'assenza di una riga indica alcuna differenza in un punto temporale specifico (p> 0,025). Vaniglia sapore estratto nel latte (A) mostra felice appena prima di 5 secondi (linea blu), mentre l'acqua unflavored (B) mostra più triste intorno 2-2,5 e 5 sec (linea verde) (p <0,025). Clicca qui per visualizzare un grande versione di questa figura.

Figura 12
Figura 12. grafici serie storiche emozioni classificato sulla base expres facciali automatizzatidati di analisi sione più di 5,0 secondi confronto sapore salato in latte e acqua unflavored. Sulla base sequenziale test di Wilcoxon non parametrici accoppiati tra sapore salato in latte e acqua unflavored (baseline), i risultati sono tracciati sul rispettivo grafico di trattamento se il trattamento mediana è più alta e di una maggiore significatività (p <0,025) per ogni emozione. Presenza di una riga indica una differenza significativa (p <0,025) per il punto temporale specifico in cui la mediana è maggiore, mentre l'assenza di una riga indica alcuna differenza in un punto temporale specifico (p> 0,025). Sapore salato nel latte (A) ha una significativa disgusto da 3 - 5 secondi (linea cremisi), mentre l'acqua unflavored (B) ha disgusto all'inizio (linea porpora) e più neutrale da 2 - 5 secondi (linea rossa) (p <0,025 ). Si prega di cliccare qui per vedere una versione più grande di questa figura.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

AFEA applicazione in letteratura relative a cibo e bevande è molto limitata 1-11. L'applicazione al cibo è nuova, creando un'opportunità per stabilire la metodologia ed i dati di interpretazione. Arnade (2013) 7 trovato alta variabilità individuale tra risposta emotiva individuale di cioccolato al latte e bianco latte con area sotto la curva di analisi e l'analisi della varianza. Tuttavia, anche con la variabilità dei partecipanti, i partecipanti generato una risposta felice più a lungo mentre triste e disgustato ha avuto il tempo di risposta più brevi 7. In uno studio separato con alte e basse concentrazioni di sapori fondamentali, Arnade (2013) 7, ha scoperto che le differenze nella risposta emotiva tra sapori di base, così come tra i due livelli di intensità di gusto di base (alta e bassa intensità), non erano così significative come previsto, interrogando così la precisione della corrente metodologia AFEA e analisi dei dati. Valutazione sensoriale di cibi e bevande è un complesso e Dynaprocesso di risposta microfono 30. Cambiamenti temporali possono verificarsi durante il trattamento per via orale e la deglutizione quindi potenzialmente influenzare l'accettabilità degli stimoli nel tempo 30. Per questo motivo, può utile per misurare la risposta valutatore tutta l'intera esperienza di mangiare. Tempi di lavorazione orali specifici sono stati suggeriti (primo contatto con la lingua, la masticazione, deglutizione, ecc) 31, ma nessuno sono standardizzati e orari sono in gran parte dipende il progetto e la discrezione del ricercatore 30.

La proposta di analisi emozionale serie storica è stata in grado di rilevare i cambiamenti emotivi e le differenze statistiche tra il controllo (acqua unflavored) e rispettivi trattamenti. Inoltre, i profili emozionali associati alla accettabilità può essere di aiuto nel prevedere il comportamento relative a cibi e bevande. I risultati mostrano che il tempo distinguibili esistono tendenze serie con AFEA legati ai sapori nel latte (Figure 10 11, e 12). I assiste Tempo di analisi serie a differenziare accettabilità alimentare attraverso una popolazione integrando emozioni caratterizzati (Figura 10, 11, e 12), nonché a sostegno delle tendenze di accettabilità edonistici (figura 9). Leitch et al. 8 osservate differenze tra edulcoranti e la linea di base di acqua utilizzando l'analisi di serie temporali (5 sec), e hanno anche scoperto che l'utilizzo di grafici serie temporali previsto per una migliore interpretazione dei dati e dei risultati. Inoltre, cambiamenti emotivi possono essere osservati nel corso del tempo e le differenze di trattamento risposta emotiva può essere determinato in diversi momenti o intervalli. Ad esempio, Leitch et al. 8 ha osservato che sono state osservate le emozioni di approccio (arrabbiato, felice e sorpresa) tra i confronti dolcificante-acqua artificiali, ma sono stati osservati in tempi diversi sulla finestra di osservazione 5 sec. Però,Leitch et al. 8 non stabilire direzionalità di espressione, rendendo difficile capire la differenza emotiva tra il controllo (acqua) e il trattamento (tè senza zucchero) usando la loro interpretazione grafica e presentazione. La metodologia di analisi di serie temporali modificata e migliorata presentato nel nostro studio permette di direzionalità differenza statistica. La direzionalità e risultati plottaggio permette ai ricercatori di visualizzare dove statisticamente rilevanti cambiamenti emotivi si verificano nel periodo di tempo selezionato.

Ridurre gli errori di analisi video è essenziale per il raggiungimento di dati validi ed efficace utilizzo di tempo e di personale risorse. Passaggi critici e procedure di risoluzione nel protocollo comprendono ottimizzando l'ambiente sensoriale partecipante (illuminazione, angolo di videocamera, altezza della sedia, istruzioni di guida partecipante approfondite, etc.). Inoltre, i partecipanti dovrebbero essere sottoposti a screening e esclusi se cadono in un inc softwarecategoria OMPATIBILITÀ (vale a dire, gli occhiali spessi incorniciate, volti pesantemente barbuti e il tono della pelle) (Figura 2). Questi fattori influenzeranno AFEA modellazione in forma, categorizzazione emozionale, e l'uscita dei dati. Se una parte significativa di uscita dati del partecipante consiste nel "FIT_FAILED" e "FIND_FAILED", i dati devono essere rivalutati per l'inclusione nell'analisi serie temporale (Figura 1). Analisi di serie temporali non può essere utilizzato se i file di registro di uscita dati prevalentemente contengono "FIT_FAILED" e "FIND_FAILED" in quanto questo è un male dei dati (Figura 1). Shadowing sul viso a causa di impostazioni di illuminazione può seriamente inibire la qualità di acquisizione video, con conseguente collezione di video scarsa. Per evitare le ombre intenso, l'illuminazione frontale diffusa è l'ideale, mentre l'intensità della luce o il colore non è così rilevante 20. Illuminazione ambientale intensa dovrebbe essere ridotto in quanto può promuovere ombre sulla faccia 20. Uno sfondo scuro dietro lapartecipante è consigliato 20. Si suggerisce dal produttore del software AFEA di inserire la configurazione di fronte a una finestra per avere luce diurna diffusa illuminazione 20. Inoltre, se si utilizza un monitor di un computer, due luci possono essere posizionati su entrambi i lati del volto dell'utente per l'illuminazione e l'ombra riduzione del 20. Inoltre, le luci foto professionali possono essere utilizzati per contrastare ambiente indesiderabili illuminazione 20. In definitiva, è a discrezione del ricercatore, individuale protocollo / metodologia, e l'ambiente per controllare l'illuminazione per la cattura. Si consiglia di discutere l'ambiente di acquisizione dei dati e gli strumenti con il fornitore di software prima dell'acquisto e dell'installazione. Inoltre, altezza della sedia e l'angolo di macchina fotografica sono importanti per regolare singolarmente per ogni partecipante. Il partecipante deve essere confortevole, ma ad un'altezza in cui la fotocamera sia dritta sul viso. Un tentativo di ridurre l'angolo della telecamera sul viso è incoraggiato per ottimizzare l'AFcattura video EA. Infine, è indispensabile per dare istruzioni verbali ai partecipanti prima del campionamento. il comportamento dei partecipanti durante la cattura video può limitare la raccolta di dati a causa di un'occlusione del viso, i movimenti, e la prevenzione della fotocamera.

Per partecipante dimensione del campione necessaria per uno studio, gli autori suggeriscono un intervallo di 10 a 50 partecipanti. Anche se un piccolo numero fornirà quasi nessun potere statistico, almeno 2 partecipanti sono necessari, in generale, per l'analisi di serie temporali. variabilità partecipante è alto, e nelle prime fasi di questa ricerca non c'è una guida per offrire con dimensione del campione. La dimensione del campione può variare a seconda sapori, intensità di sapore, e prevede il trattamento accettabilità. I campioni con differenze di sapore più piccoli richiederanno più partecipanti. I 30 secondo periodo di campionamento controllato abbraccia un arco di tempo adeguato per il periodo di valutazione complessiva di campionamento (vale a dire, che mostra la scheda indice, l'apertura di un campione (togliere il coperchio), consumizione, e la cattura emotiva). L'intero 30 secondi non viene utilizzato nell'analisi dei dati. Il vantaggio di questo designato 30 secondi tempo di acquisizione è che il ricercatore può decidere il tempo di valutazione pertinente per essere usato in analisi dei dati. La finestra di tempo di 30 secondi può aiutare nella scelta di un lasso di tempo di interesse durante un campione video mentre la codifica o timestamping video. In ultima analisi, la finestra temporale è a discrezione del ricercatore. Nel nostro esempio, abbiamo usato il 5 sec finestra di campionamento post-consumo. Inoltre, la presente metodologia definisce il tempo zero quando la tazza per campioni non occlude la faccia (coppa al mento). E 'di fondamentale importanza per ridurre il tempo che intercorre tra consumi e coppa campione occlusione del viso a causa di breve e le emozioni che cambiano. A causa di campione occlusione facciale tazza momento iniziale in cui il campione entra in contatto con la lingua è dati inattendibili (vedere Figura 1). Pertanto, il punto in cui la coppa non occlude la faccia è la recommendatio ottimalen. Timestamp devono essere coerenti per tutti i partecipanti. La cartella colori è un modo conveniente per i ricercatori di identificare i trattamenti nel video e segnano il lasso di tempo adeguato (tempo zero) per la valutazione del campione. Le carte di colore sono particolarmente utili se i trattamenti sono in ordine casuale e servono come convalida supplementare di identificazione del campione nel video continua.

Limitazioni di questa tecnica esistono come partecipanti non possono seguire le indicazioni o shadowing inevitabile sul volto del partecipante possono causare guasti faccia modello in forma (Figura 2). Tuttavia, i passaggi critici proposti offrono modi per mitigare e ridurre queste interferenze. Inoltre, l'analisi di serie temporali non leggerà esportati i file di log con i file che contengono prevalentemente "FIT_FAILED" e "FIND_FAILED" (Figura 1). Questi file non può essere recuperato e non sarà in grado di essere inclusi nella analisi delle serie storiche. Inoltre, il consumo di cibo e Beverages può comunque alterare la struttura facciale in modo tale da distorcere la categorizzazione emozionale. cibi duri o gommosi richiedono ampie movimento della mascella. L'uso di una cannuccia e succhiare associati, provoca anche l'occlusione del viso (paglia) e distorce il volto (suzione). Questa osservazione si basa sui dati preliminari del nostro laboratorio di ricerca. Il modello del viso software non può discernere le differenze tra la masticazione (o succhiare) e le espressioni motorie associate alla categorizzazione emozionale. Con campioni di alimenti e bevande, la possibilità di occlusione del viso è superiore a quello del video e la visualizzazione delle immagini. I partecipanti devono portare il campione al viso e rimuovere il contenitore dalla faccia interrompendo così il modello del software e riducendo potenzialmente preziose informazioni emotive (vedi figura 1). Come accennato in precedenza, emozioni accadono velocemente e per una breve durata. È importante ridurre l'occlusione facciale nel tentativo di catturare emozioni. Il methodol propostologia rende il confronto di trattamento a un trentesimo di secondo per trovare cambiamenti nei modelli emotivi e cambiamenti nella durata emotivo attraverso il tempo. Con la metodologia proposta, i modelli di longevità emotiva sono importanti. Purtroppo, si possono verificare problemi di categorizzazione emozionale. In particolare c'è un problema categorizzazione felice e disgusto 6, 9, 32, 33, 34. Spesso, questo è dovuto ai partecipanti di mascheramento loro avversione o sentimento sorpreso sorridente 6, 32, 33, 34, che potrebbe essere a causa di un "social regola visualizzazione "32. Inoltre, il software AFEA è limitata a sette categorie emozionali (neutri, felice, triste, spaventato, sorpreso, arrabbiato e disgustato). risposta emotiva a cibi e bevande può essere più complessa di quanto la classificazione AFEA corrente di emozioni universali e categorizzazione può essere diverso in risposta a un alimento o bevanda stimoli. Manuale codifica utilizzando FACS è stata applicata a gustofacial e risposte olfactofacial di sapori fondamentali eun assortimento di odori e sembrava essere abbastanza sensibile per rilevare le differenze di trattamento per quanto riguarda AUS 32. FACS è noioso e richiede tempo molto, tuttavia, l'applicazione nel tempo di assenza o presenza di AUS può essere utile per aiutare con risposte complesse che AFEA potrebbe non classificare correttamente o se i risultati sono inaspettati emotivi. Mentre i dati di serie temporali consente per le classificazioni del viso a verificarsi contemporaneamente e con un'espressione significativa, deve essere usata cautela a tradurre i risultati in un'unica emozione a causa della complessità emotiva.

La tecnica metodologia e analisi dei dati proposto può essere applicato ad altre bevande e cibi morbidi. software AFEA è stato in grado di identificare le emozioni per aromatizzati e campioni unflavored. La metodologia proposta e analisi temporale può essere di aiuto con caratterizzare le risposte implicite in tal modo fornendo nuovi progressi nelle risposte emotive e comportamenti di una popolazione relative ai prodotti alimentari. Le future applicazioni di thè tecnica può espandersi in altre categorie di bevande o cibi morbidi. Abbiamo dimostrato la metodologia per raggiungere cattura video per la risposta emotiva e metodologia di analisi dei dati. Il nostro obiettivo è di creare un approccio standard sia per la cattura AFEA emotivo ed emozionale analisi di serie temporali. L'approccio metodo si è dimostrato il successo nella nostra ricerca. Ci auguriamo di poter ampliare e applicare questo approccio per valutare la risposta emotiva a cibi e bevande e il rapporto con la scelta e comportamenti.

Subscription Required. Please recommend JoVE to your librarian.

Materials

Name Company Catalog Number Comments
2% Reduced Fat Milk Kroger Brand, Cincinnati, OH or DZA Brands, LLC, Salisbury, NC na for solutions
Drinking Water Kroger Brand, Cincinnati, OH na for solutions
Imitation Clear Vanilla Flavor Kroger Brand, Cincinnati, OH na for solutions
Iodized Salt Kroger Brand, Cincinnati, OH na for solutions
FaceReader 6 Noldus Information Technology, Wageningen, The Netherlands na For Facial Analysis
Sensory Information Management System (SIMS) 2000 Sensory Computer Systems, Berkeley Heights, NJ Version 6 For Sensory Data Capture
Rhapsody Acuity Brands Lighting, Inc., Conyers, GA For Environment Illumination
R Version  R Core Team 2015 3.1.1 For Statistical Analysis
Microsoft Office Microsoft na For Statistical Analysis
JMP Statistical Analysis Software (SAS) Version 9.2, SAS Institute, Cary, NC na For Statistical Analysis
Media Recorder 2.5 Noldus Information Technology, Wageningen, The Netherlands na For capturing participants sensory evaluation
Axis M1054 Camera Axis Communications, Lund, Sweden na
Beverage na Beverage or soft food for evaluation

DOWNLOAD MATERIALS LIST

References

  1. De Wijk, R. A., Kooijman, V., Verhoeven, R. H. G., Holthuysen, N. T. E., De Graaf, C. Autonomic nervous system responses on and facial expressions to the sight, smell, and taste of liked and disliked foods. Food Qual Prefer. 26 (2), 196-203 (2012).
  2. De Wijk, R. A., He, W., Mensink, M. G. J., Verhoeven, R. H. G., De Graaf, C. ANS responses and facial expression differentiate between the taste of commercial breakfast drinks. PLoS ONE. 9 (4), 1-9 (2014).
  3. He, W., Boesveldt, S., De Graaf, C., De Wijk, R. A. Behavioural and physiological responses to two food odours. Appetite. 59 (2), 628 (2012).
  4. He, W., Boesveldt, S., De Graaf, C., De Wijk, R. A. Dynamics of autonomic nervous system responses and facial expressions to odors. Front Psychol. 5 (110), 1-8 (2014).
  5. Danner, L., Sidorkina, L., Joechl, M., Duerrschmid, K. Make a face! Implicit and explicit measurement of facial expressions elicited by orange juices using face reading technology. Food Qual Prefer. 32 (2014), 167-172 (2013).
  6. Danner, L., Haindl, S., Joechl, M., Duerrschmid, K. Facial expression and autonomous nervous system responses elicited by tasting different juices. Food Res Int. 64 (2014), 81-90 (2014).
  7. Arnade, E. A. Measuring consumer emotional response to tastes and foods through facial expression analysis [thesis]. , Virginia Tech. Blacksburg. 1-187 (2013).
  8. Leitch, K. A., Duncan, S. E., O'Keefe, S., Rudd, R., Gallagher, D. L. Characterizing consumer emotional response to sweeteners using an emotion terminology questionnaire and facial expression analysis. Food Res Int. 76, 283-292 (2015).
  9. Crist, C. A., et al. Application of emotional facial analysis technology to consumer acceptability using a basic tastes model. Technical Abstracts and Proceedings of the 2014 Institute of Food Technologists Annual Meeting, 2014 Jun 21 - 24, New Orleans, LA, , (2014).
  10. Garcia-Burgos, D., Zamora, M. C. Facial affective reactions to bitter-tasting foods and body mass index in adults. Appetite. 71 (2013), 178-186 (2013).
  11. Garcia-Burgos, D., Zamora, M. C. Exploring the hedonic and incentive properties in preferences for bitter foods via self-reports, facial expressions and instrumental behaviours. Food Qual Prefer. 39 (2015), 73-81 (2015).
  12. Lewinski, P., Fransen, M. L., Tan, E. S. H. Predicting advertising effectiveness by facial expressions in response to amusing persuasive stimuli. J. Neurosci. Psychol. Econ. 7 (1), 1-14 (2014).
  13. Ekman, P., Friesen, W. V. Facial action coding system: A technique for the measurement of facial movement. , Consulting Psychologists Press. Palo Alto, California. (1978).
  14. Viola, P., Jones, M. Rapid object detection using a boosted cascade of simple features. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern. 1, 511-518 (2001).
  15. Sung, K. K., Poggio, T. Example-based learning for view-based human face detection. IEEE Trans. Pattern Anal. Mach. Intell. 20 (1), 39-51 (1998).
  16. FaceReader 5™ Technical Specifications. , Noldus Information Technology. Wageningen, The Netherlands. Available from: http://www.webshop.noldus.com/media/techspec/facereader _techspec.pdf (2014).
  17. Cootes, T., Taylor, C. Statistical models of appearance for computer vision: Technical report. , University of Manchester, Wolfson Image Analysis Unit, Imaging Science and Biomedical Engineering. (2000).
  18. Bishop, C. M. Neural networks for pattern recognition. , Oxford University Press. New York. (1995).
  19. Lewinski, P., den Uyl, T. M., Butler, C. Automated facial coding: validation of basic emotions and FACS AUs in FaceReader. J. Neurosci. Psychol. Econ. 7 (4), 227-236 (2014).
  20. Noldus Information Technology. FaceReader Reference Manual Version 6. , Wageningen, The Netherlands. (2014).
  21. Alves, N. T., Fukusima, S. S., Aznar-Casanova, J. A. Models of brain asymmetry in emotional processing. Psychol Neurosci. 1 (1), 63-66 (2008).
  22. Costello, M., Clark, S. Preparation of samples for instructing students and staff in dairy products evaluation (Appendix F). The sensory evaluation of dairy foods. Clark, S., Costello, M., Drake, M., Bodyfelt, F. , 2nd, Springer. New York. 551-560 (2009).
  23. Porcherot, C., et al. How do you feel when you smell this? Optimization of a verbal measurement of odor-elicited emotions. Food Qual Prefer. 21, 938-947 (2010).
  24. Warrenburg, S. Effects of fragrance on emotions: Moods and physiology. Chem. Senses. 30, i248-i249 (2005).
  25. Bredie, W. L. P., Tan, H. S. G., Wendin, K. A comparative study on facially expressed emotions in response to basic tastes. Chem. Percept. 7 (1), 1-9 (2014).
  26. Wendin, K., Allesen-Holm, B. H., Bredie, L. P. Do facial reactions add new dimensions to measuring sensory responses to basic tastes? Food Qual Prefer. 22, 346-354 (2011).
  27. Rosenstein, D., Oster, H. Differential facial responses to four basic tastes in newborns. Child Dev. 59 (6), 1555-1568 (1988).
  28. Rosenstein, D., Oster, H. Differential facial responses to four basic tastes in newborns. What the face reveals: Basic and applied studies of spontaneous expression using the facial action coding system (FACS). P, E. kman, E, R. osenberg , Oxford University Press, Inc. New York. 302-327 (1997).
  29. Rozin, P., Fallon, A. E. A perspective on disgust. Psychol. Rev. 94 (1), 23-41 (1987).
  30. Delarue, J., Blumenthal, D. Temporal aspects of consumer preferences. Curr. Opin. Food Sci. 3, 41-46 (2015).
  31. Sudre, J., Pineau, N., Loret, C., Marin, N. Comparison of methods to monitor liking of food during consumption. Food Qual Prefer. 24 (1), 179-189 (2012).
  32. Weiland, R., Ellgring, H., Macht, M. Gustofacial and olfactofacial responses in human adults. Chem. Senses. 35 (9), 841-853 (2010).
  33. Ekman, P. Universal and cultural differences in facial expressions of emotion. Nebraska symposium on motivation. Cole, J. , University of Nebraska Press. Lincoln (NE). 207-283 (1971).
  34. Griemel, E., Macht, M., Krumhuber, E., Ellgring, H. Facial and affective reactions to tastes and their modulation by sadness and joy. Physiol Behav. 89 (2), 261-269 (2006).

Tags

Comportamento Analisi Espressione del viso la valutazione sensoriale Emozione bevande scienze alimentari Time Series Analysis prodotti lattiero-caseari
Protocollo per la raccolta di dati e analisi applicata a Automated viso Tecnologia Espressione Analisi e analisi temporale per la valutazione organolettica
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Crist, C. A., Duncan, S. E.,More

Crist, C. A., Duncan, S. E., Gallagher, D. L. Protocol for Data Collection and Analysis Applied to Automated Facial Expression Analysis Technology and Temporal Analysis for Sensory Evaluation. J. Vis. Exp. (114), e54046, doi:10.3791/54046 (2016).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter