Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Protokoll für die Datenerhebung und Analyse Applied zu Automatische Gesichtsausdruck Analysis Technologie und zeitliche Analyse für die sensorische Prüfung

Published: August 26, 2016 doi: 10.3791/54046

Summary

Ein Protokoll für die Erfassung und statistischen Analyse emotionale Reaktion der Bevölkerung zu Getränken und verflüssigte Nahrungsmittel in einem sensorischen Laborauswertung mit automatisierten Gesichtsausdruck Analyse-Software beschrieben.

Introduction

Automatische Gesichtsausdruck Analyse (AFEA) ist eine prospektive analytisches Werkzeug zur Charakterisierung von emotionalen Reaktionen auf Getränke und Nahrungsmittel. Emotional-Analyse kann eine zusätzliche Dimension zu den bestehenden sensorischen Wissenschaft Methoden, Lebensmittel Bewertungspraktiken und hedonischen Skala Bewertungen hinzufügen typischerweise sowohl in der Forschung und der Industrie-Einstellungen verwendet. Emotional Analyse könnte eine zusätzliche Metrik zur Verfügung stellen, die eine genauere Reaktion auf Nahrungsmittel und Getränke zeigt. Hedonic Scoring können Teilnehmer Bias umfassen im Falle eines Defekts Reaktionen 1 aufzuzeichnen.

AFEA Forschung hat sich in vielen Forschungsanwendungen einschließlich Computerspiele, Benutzerverhalten, Erziehung / Pädagogik und Psychologie Studien über Empathie und Betrug verwendet. Die meisten Lebensmittel-assoziierte Forschung hat sich auf die Charakterisierung emotionale Reaktion auf die Lebensmittelqualität und das menschliche Verhalten mit Lebensmitteln konzentriert. Mit der jüngsten Entwicklung in Einblicke in Essen Verhalten gewinnen, eine wachsende Zahl von Literaturberichten Verwendung von AFEAfür die menschliche emotionale Reaktion mit Lebensmitteln assoziiert zu charakterisieren, Getränken und Riechstoffe 1-12.

AFEA wird aus dem Facial Action Coding System (FACS) abgeleitet. Die Facial Action Coding System (FACS) unterscheidet Gesichtsbewegungen gekennzeichnet durch Betätigungseinheiten (AUs) auf einer 5-Punkte - Intensitätsskala 13. Die FACS-Ansatz erfordert trainierte Überprüfung Experten, manuelle Codierung, die wesentlichen Bewertungszeit und liefert begrenzten Datenanalysemöglichkeiten. AFEA wurde als schnelle Auswertungsverfahren entwickelt Emotionen zu bestimmen. AFEA Software stützt sich auf Gesichtsmuskelbewegungen, Gesichts Datenbanken und Algorithmen , um die emotionale Reaktion 14-18 zu charakterisieren. Die AFEA Software in dieser Studie verwendeten erreichte einen "FACS Index der Vereinbarung von 0,67 im Durchschnitt sowohl an der Warschauer Set Emotionale Gesichtsausdruck Bilder (WSEFEP) und Amsterdam Dynamische Gesichtsausdruck Set (ADFES), die auf eine Standardvereinbarung von 0,70 nahe für manuelle Codierung "19 20. Darüber hinaus enthält der Psychologie Literatur glücklich, überrascht und wütend als "Ansatz" Emotionen ( in Richtung Reize) und traurig, ängstlich, und angewidert als "Rückzug" Emotionen (weg von aversiven Stimuli) 21.

Eine Einschränkung der aktuellen AFEA Software für Emotionen, die mit Lebensmitteln assoziiert zu charakterisieren ist Interferenz von Gesichtsbewegungen im Zusammenhang mit Kauen und sowie andere grobmotorischen Bewegungen, wie extreme Kopfbewegungen zu schlucken. Die Software richtet sich kleinere Gesichtsmuskelbewegungen, bezüglich Position und Bewegungsgrad, basierend auf über 500 Muskel Punkte auf dem Gesicht 16,17. Kaubewegungen stören Klassifizierung von Ausdrücken. Diese Grenzeation kann unter Verwendung von verflüssigtem Lebensmittel behandelt werden. Jedoch können auch andere Methodik Herausforderungen auch Video-Empfindlichkeit und AFEA Analyse einschließlich der Datenerfassung Umwelt, Technologie, Forscher Anweisungen, Teilnehmerverhalten und Teilnehmer Attribute verringern.

Eine Standardmethode ist für eine optimale Videoerfassung und Datenanalyse entwickelt und verifiziert mit AFEA für emotionale Reaktion auf Nahrungsmittel und Getränke in einer sensorischen Beurteilung Laborbedingungen nicht. Viele Aspekte können das Video-Capture-Umgebung einschließlich Beleuchtung beeinflussen, durch Abschattung zu Beleuchtung, Teilnehmer Richtungen, Teilnehmerverhalten, Teilnehmerhöhe, sowie die Kamerahöhe, Kamera Angeln und Geräteeinstellungen. Darüber hinaus sind die Datenanalyse-Methoden inkonsistent und fehlt nach einer Standardmethode für emotionale Reaktion zu beurteilen. Hier werden wir unser Standardverfahren für die Erfassung emotionaler Daten und Verarbeitung von Daten in aussagekräftige Ergebnisse zeigen, mit Getränken (aromatisierter Milch, unflavored Milch und geschmacksneutralen Wasser) für die Bewertung. Unseres Wissens nur ein Peer - Review - Publikation aus unserem Labor - Gruppe, hat für Emotionen Analyse 8 Zeitreihen für die Interpretation der Daten verwendet wird ; jedoch hat das Verfahren für unsere stellten Verfahrens aktualisiert. Unser Ziel ist es, eine verbesserte und einheitliche Methodik zu helfen, mit der Reproduzierbarkeit in einer sensorischen Beurteilung Laborumgebung zu entwickeln. Zur Demonstration ist es das Ziel der Studie Modell zu bewerten, wenn AFEA traditionelle hedonischen Verträglichkeitsprüfung von aromatisierter Milch, unflavored Milch und geschmacksneutralen Wasser ergänzen könnte. Die Absicht dieses Video-Protokoll ist zu helfen AFEA Methodik etablieren, Video-Capture-Kriterien in einer sensorischen Beurteilung Labor (sensorische Stand-Einstellung), und zeigen ein Verfahren zur zeitlichen emotionale Datenanalyse einer Population zu standardisieren.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Ethik-Erklärung: Diese Studie wurde im Voraus genehmigt von Virginia Tech Institutional Review Board (IRB) (IRB 14-229) vor, das Projekt zu starten.

Achtung: Human Thema Forschung erfordert informierte Zustimmung vor der Teilnahme. Neben der IRB-Genehmigung, die Einwilligung zur Nutzung von Stand- oder Videobildern wird auch vor dem Loslassen keine Bilder für Print, Video oder Grafik-Bildgebung erforderlich. Zusätzlich Nahrungsmittelallergene sind vor der Prüfung bekannt gegeben. Die Teilnehmer werden vor dem Panel-Start gefragt, ob sie irgendwelche Intoleranz, Allergien oder andere Bedenken haben.

Hinweis: Ausschlusskriterien: Automatische Gesichtsausdruck Analyse zu dick gerahmte Brille empfindlich ist, stark bärtigen Gesichtern und Hautton. Die Teilnehmer, die diese Kriterien haben, sind nicht kompatibel mit Software-Analyse aufgrund eines erhöhten Risikos von Fehl Videos. Dies ist auf die Software der Unfähigkeit zurückzuführen, das Gesicht zu finden.

1. Probenvorbereitung und Teilnehmer Recruitment

  1. Bereiten Sie Getränk oder weichLebensmittelproben.
    1. Bereiten Sie verstärkt Milch Lösungen mit 2% Milch und schlug vor , Aromen von Costello und Clark (2009) 22 sowie andere Aromen. Bereiten Sie die folgenden Lösungen: (1) unflavored Milch (2% fettreduzierte Milch); (2) unflavored Wasser (Trinkwasser); (3) Vanille-Extrakt Geschmack in Milch (0,02 g / ml) (Nachahmung klar Vanille-Aroma); und (4) salzigen Geschmack in Milch (0,004 g / ml jodiertes Salz).
      Hinweis: Diese Lösungen sind nur zu Demonstrationszwecken verwendet.
    2. Gießen halbe Unze Aliquots (~ 15 g) jeder Lösung in 2 Unzen transparenten Kunststoff-Probenbecher und Deckel mit farbcodierten Deckel.
      Hinweis: Es wird empfohlen, transparente Becher zu verwenden; jedoch ist es dem Forscher nach eigenem Ermessen auf.
  2. Recruit Teilnehmer aus dem Campus oder der örtlichen Gemeinde, an der Studie teilzunehmen.
    Hinweis: Teilnehmer Stichprobengröße für eine Studie erforderlich ist bis in das Ermessen des Forschers. Wir empfehlen einen Bereich von 10 bis 50 Teilnehmer. Erhalten menschliche Subjekt Zustimmung vor, an der Studie Teilnahme.

2. Herstellung von Panel Raum für Video Capture

Hinweis: Dieses Protokoll für die Datenerfassung ist in einer sensorischen Beurteilung Labor. Dieses Protokoll ist AFEA Datenerfassung nützlich für eine sensorische Stand Einstellung zu machen.

  1. Verwenden Sie einzelne Kabinen mit einem Touchscreen-Monitor vor ihnen (Kopfhöhe) ihren Fokus nach vorne zu halten und zu verhindern, dass der Suche nach unten.
  2. Verwenden Sie höhenverstellbare Stühle mit Rückenlehne.
    Hinweis: Dies sind von wesentlicher Bedeutung für den Teilnehmern erlaubt, vertikal verstellt und in einem geeigneten Bereich für die Videoaufnahme platziert werden. Verwenden stationäre Stühle (kein Roll Feature) mit einstellbarer Rückenhöhe unterstützen, so dass die Teilnehmer die Bewegungen verringert werden.
  3. Stellen Sie Deckenbeleuchtung auf "100% Tageslicht" für eine optimale Gesichts emotionale Video-Capture (Lichtart 6504K; R = 206; G = 242; B = 255).
    Hinweis: Um starke Abschattung zu vermeiden, diffuse frontal Beleuchtung ist ideal , während die Lichtintensität oder Farbe ist nicht so relevant 20. Letztendlich ist es dem Ermessen des Forschers, individuelle Protokoll / Methodik und Umwelt bis zur Kontrolle von Licht für die Aufnahme.
  4. Affix eine einstellbare Kamera über dem Touchscreen-Monitor für die Aufnahme.
    1. Verwenden Sie eine Kamera mit einer Auflösung von mindestens 640 x 480 Pixel (oder höher) 20. Diskutieren Sie die gewünschte Kamera - Funktionen mit dem Software - Anbieter vor dem Kauf und der Installation 20. Hinweis: Das Seitenverhältnis 20 nicht wichtig ist.
    2. Stellen Sie die Kamera Aufnahmegeschwindigkeit auf 30 Bilder pro Sekunde (oder andere Standardgeschwindigkeit) für Konsistenz.
    3. Verbinden und gewährleisten Medien-Recording-Software ist auf die Kamera einrichten aufzeichnen und Teilnehmer-Videos speichern.

3. Teilnehmer Anpassung und Verbal Anfahrt

  1. Habe nur ein Teilnehmer zu einem Zeitpunkt, um die Proben in den sensorischen Stand zu bewerten.
    Hinweis: Testen mehr alsein Teilnehmer kann gleichzeitig mit der Testumgebung beeinträchtigen und stören die Konzentration des Teilnehmers oder Bias erstellen.
  2. Bei der Ankunft geben den Teilnehmern verbale Anweisungen über den Prozess und Standard-Betriebsverfahren.
    1. Haben die Teilnehmer gerade nach oben und gegen die Rückenlehne des Stuhls sitzen.
    2. Stellen Sie die Stuhlhöhe, Position des Stuhls (Abstand von der Kamera) und Kamerawinkel, so dass das Gesicht des Teilnehmers wird in der Mitte des Videoaufnahmen eingefangen, ohne Schatten am Kinn oder um die Augen.
      Hinweis: Bei der sensorischen Stand der Kopf des Teilnehmers ist in etwa 20 bis 24 Zoll weg von der Kamera und dem Monitor mit dem Gesicht in die Kamera-Video-Feed zentriert.
    3. Weisen Sie die Teilnehmer zu bleiben, wie positioniert sitzen und fokussiert auf die Monitoranzeige gegenüber. Zusätzlich anweisen Teilnehmer aus irgendwelchen plötzlichen Bewegungen nach Probenverbrauch während der 30 Sekunden Testzeitraum pro Probe zu verzichten. Weisen Sie den Teilnehmer das gesamte Getränk oder verflüssigte Lebensmittelprobe zu konsumieren und zu schlucken.
    4. Weisen Sie den Teilnehmer, um schnell die Probenschale unter dem Kinn zu bewegen und sich an den Tisch unmittelbar nach der Probe im Mund ist. Dies ist facial Okklusion zu beseitigen. Erinnern Sie sie sucht in Richtung Monitor zu halten.
      Hinweis: Der Probenträger, die Probe zu liefern dem Ermessen des Forschers liegt. Ein Stroh oder Becher verwendet werden. Unabhängig davon, anfängliche Gesichts Okklusion ist unvermeidbar, weil das Gesicht wird durch den Verbrauch verdeckt oder verzerrt werden.
  3. Weisen Sie den Teilnehmer, den Anweisungen folgen, wie sie auf dem Touchscreen-Monitor angezeigt. Hinweis: Die Befehle werden automatisch wie programmiert in die automatisierte sensorische Software sequenziert.

4. Individuelle Teilnehmer Prozess für Video Capture

  1. Bestätigen Videokamera optimal erfassen Teilnehmer Gesicht, während der Teilnehmer sitztbequem in der Kabine (vor der Probenpräsentation) durch den Computer-Monitor betrachten, auf dem das Video-Capture angezeigt wird. Starten Sie die Aufnahme durch die Aufnahmetaste auf dem Computermonitor klicken.
  2. Instruieren Teilnehmer Wasser zu schlürfen ihren Gaumen zu reinigen.
  3. Bieten Behandlungen ein zu einer Zeit, mit einem Ausgangswert oder Steuer Beginn der Behandlung (unflavored Wasser). Identifizieren Sie jede Probe durch eine einzigartige Karte farbige Index platziert auf der jeweils auf die Probe Farbcode für die Probenbehandlung Identifizierung innerhalb des Video im Zusammenhang Probe.
    Hinweis: Programmierte Führung auf dem Touchscreen-Monitor weist die Teilnehmer. Die Anweisungen leiten die Teilnehmer durch eine Reihe von standardisierten Schritten für jede Behandlungsprobe.
  4. Über den Touchscreen-Monitor, leiten die Teilnehmer:
    1. Halten Sie die zugehörigen Farbkarteikarte Pre-Verbrauch für die Probenidentifikation im Video oben.
      Hinweis: Die Farbkarte ist eine Möglichkeit, Forscher Behandlungen im Video ein identifizieren könnennd markieren Sie die entsprechende Zeitrahmen (Zeit Null) für die Probenauswertung.
    2. die Karte kurz, legen Sie die Karte wieder auf dem Tablett Nach dem Halten.
    3. Voll verbrauchen die Probe und warten Sie etwa 30 Sekunden durch die programmierte Führung auf dem Monitor durchgesetzt, während in Richtung der Kamera.
      Hinweis: Die 30 Sekunden kontrolliert Abtastperiode umfasst eine Zeitspanne ausreichend für die gesamte Stichprobenauswertungszeitraum (dh zeigt die Karteikarte, das Öffnen einer Probe (Entfernen des Deckels), Verbrauch und emotionale Capture).
    4. Geben Sie ihre hedonistische Akzeptanzergebnis auf dem Touchscreen-Monitor (1 = sehr mag nicht, nicht 2 = sehr gut, 3 = mäßig nicht mögen, 4 = etwas nicht mögen, 5 = weder wie noch Abneigung, 6 = wie leicht, 7 = wie mäßig, 8 = wie sehr, 9 = wie extrem).
    5. Mund mit Wasser ausspülen, bevor die nächste Probe Prozess zu trinken.

5. Auswertung Automatische Gesichtsausdruck Analyseoptionen

Hinweis: Viele Gesichtsausdruck Analyse-Software-Programme existieren. Software-Befehle und Funktionen variieren. Es ist wichtig , den Herstellerbenutzerrichtlinien und Referenzhandbuch 20 zu folgen.

  1. Speichern Sie Aufnahmen in einem Medien-Format und übertragen auf die automatisierte Gesichtsausdruck Analyse-Software.
  2. Analysieren Teilnehmer-Videos mit automatischer Gesichtsanalyse-Software.
    1. Klicken Sie doppelt auf das Software-Symbol auf dem Computer-Desktop.
    2. Sobald das Programm geöffnet ist, klicken Sie auf "Datei", wählen Sie "Neu ..." und wählen Sie "Projekt ..."
    3. Im Pop-up-Fenster, nennen Sie das Projekt und das Projekt speichern.
    4. In Teilnehmer in das Projekt, indem Sie auf die Schaltfläche "Hinzufügen Teilnehmer" Symbol (Person mit einem Zeichen (+)). Weitere Teilnehmer können durch Wiederholen Sie diesen Schritt hinzugefügt werden.
    5. In Teilnehmers Video in den jeweiligen Teilnehmer für die Analyse.
      1. Auf der linken Seite des Bildschirms klicken Sie auf das Symbol der Filmrolle with ein Pluszeichen (+) ein Video zu analysieren hinzuzufügen.
      2. Klicken Sie auf die "Lupe" unter der Teilnehmer von Interesse um das Video zu sehen hinzuzufügen.
  3. Analysieren Sie Videos Frame-by-Frame unter Dauer Kalibrierung Analyseeinstellungen in der Software.
    1. Klicken Sie auf das Stift-Symbol anpassen Einstellungen am unteren Rand des Fensters, unter der Registerkarte "Einstellungen" für jeden Teilnehmer Video.
      1. Set "Face Model" zu General. Set "Smoothen Klassifikationen" auf Ja. Stellen Sie "Sample Rate" zu jedem Frame.
      2. Stellen Sie "Bilddrehung" auf Nein gesetzt "Continuous-Kalibrierung" auf Ja. Stellen Sie "Ausgewählte Kalibrierung" auf Keine.
    2. Speichern Sie die Projekteinstellungen.
    3. Drücken Sie die Batch-Analyse-Symbol (das gleiche rot und schwarz Ziel ähnlichen Symbol), um die Projektvideos zu analysieren.
    4. Speichern Sie die Ergebnisse einmal Analyse abgeschlossen ist.
      Hinweis: Weitere Video-Einstellungen gibt es in der Software, wenn researcihre Vorliebe garantiert eine andere Analysemethode.
    5. Betrachten Sie Videos Ausfälle , wenn ernsten Gesichts Verstopfungen oder die Unfähigkeit , das Gesicht zur Karte während des angegebenen Postverbrauch Fenster bleibt (Abbildung 1). Außerdem, wenn das Modell versagt Daten "FIT_FAILED" sagen oder "FIND_FAILED" in den exportierten Ausgabedateien (Abbildung 2). Dies stellt verlorene Daten, da die Software nicht der Teilnehmer Emotionen zu klassifizieren oder zu analysieren.
      Hinweis: AFEA übersetzt Gesichtsmuskelbewegung zu neutral, glücklich, angewidert, traurig, wütend, überrascht und verängstigt auf einer Skala von 0 (nicht ausgedrückt) auf 1 für jede Emotion (voll zum Ausdruck).
  4. Exportieren Sie die AFEA Datenausgabe als Protokolldateien (.txt) zur weiteren Analyse.
    1. Sobald Analysen abgeschlossen sind, exportieren Sie das gesamte Projekt.
      1. Klicken Sie auf "Datei", "Export", "Export Projektergebnisse".
      2. Wenn ein Fenster geöffnet wird, wählen Sie den Ort, wo die Exporte Should werden gespeichert und speichern Sie die Protokolldateien (.txt) in einen Ordner.
      3. Wandeln Sie jeden Teilnehmer Protokoll Leben auf eine Daten Tabelle (.csv oder .xlsx) relevante Daten zu extrahieren.
        1. Offene Datentabellenkalkulations-Software und wählen Sie die Registerkarte "Daten".
        2. Auf der Registerkarte "Daten" in der Gruppe "Externe Daten" auf "Aus Text".
        3. In der "Adressleiste", zu finden, doppelklicken Sie auf die Teilnehmer Textdatei zu importieren, und folgen Sie den Anweisungen auf dem Bildschirm Assistenten.
        4. Weiter den Exportprozess für alle relevanten Teilnehmer Dateien.

6. Zeitstempel Teilnehmer-Videos für die Datenanalyse

  1. Mit Hilfe der AFEA Software, überprüfen Sie manuell jedes Video des Teilnehmers und identifizieren post-Verbrauch Zeitpunkt Null für jede Probe. Notieren Sie sich die Zeitstempel in einem Daten Tabelle. Post-Konsum definiert wird, wenn die Probenschale unterhalb des Teilnehmers Kinn ist und nicht mehr ocschließt das Gesicht.
    Hinweis: Die Platzierung der Zeitstempel für die Beurteilung entscheidend ist. Der Punkt, wo der Becher nicht mehr das Gesicht okkludiert ist die optimale Empfehlung und Zeitstempel müssen für alle Teilnehmer, konsequent zu sein.
  2. Speichern Sie die Zeitstempel-Daten Tabelle (.csv) als Referenz für die relevanten Daten aus Videos extrahieren.
    Hinweis: Teilnehmer-Videos können auch intern in der Software als "Ereignismarkierung" codiert werden.

7. Time Series Analysis Emotional

Hinweis: Betrachten Sie die "Baseline" , um die Kontrolle zu sein (dh unflavored Wasser in diesem Beispiel). Der Forscher hat die Fähigkeit, eine andere "Baseline-Behandlung Stimulus" oder eine "Basiszeit ohne Reiz" für Paarvergleich abhängig von den Interessen der Untersuchung zu schaffen. Das Verfahren macht einen "default" Zustand vorgeschlagen durch ein gekoppeltes statistischen Test. Mit anderen Worten verwendet die Prozedur statistische Blockierung (dhein gekoppeltes Test) für die Standarddarstellung der einzelnen Teilnehmer anzupassen und reduziert damit die Variabilität über die Teilnehmer.

  1. Extrahieren Sie relevanten Daten aus den exportierten Dateien (.csv oder .xlsx).
    1. Identifizieren Sie einen Zeitrahmen relevant für die Studienauswertung (Sekunden).
    2. Extrahieren Sie manuell jeweiligen Daten (Zeitrahmen) aus den exportierten Teilnehmer Dateien Anhörung des Teilnehmer-Zeitstempel (Zeit Null).
    3. Kompilieren jeder Behandlungsdaten des Teilnehmers (Teilnehmernummer, Behandlung, Original-Video Zeit und Emotion Reaktion) pro Emotion (glücklich, neutral, traurig, wütend, überrascht, ängstlich, und angewidert) für den ausgewählten Zeitraum (in Sekunden) in einem neuen Daten-Tabelle für eine zukünftige Analyse (Abbildung 3).
    4. Wiederholen Sie diesen Vorgang für alle Teilnehmer.
  2. Identifizieren Sie die entsprechenden Zeitpunkt Null aus der Timestamp-Datei für jeden Teilnehmer-Behandlung Paar und Video Zeit zu einem wahren Zeit "0" für den direkten Vergleich einstellen ( Abbildung 5).
    Hinweis: Teilnehmerdaten in einem kontinuierlichen Video gesammelt wird deshalb jede Behandlung "Zeitpunkt Null" ist anders (dh geschmacksneutralen Wasservideozeit Null ist 02: 13,5 und unflavored Milch null Video Zeit ist 03: 15.4). In Abbildung 4 Aufgrund der unterschiedlichen Behandlung "Zeit Nullen", müssen die Video mal an zu starten neu eingestellt und neu ausgerichtet werden "0: 00,0" oder andere Standard-Startzeit, um für den direkten Zeitvergleich der Behandlung emotionalen Antwortdaten.
  3. Für jeden Teilnehmer, Emotion und eingestellten Zeitpunkt, extrahieren Sie die paarigen Behandlung (zB unflavored Milch) und die Kontrollbehandlung (zB unflavored Wasser) quantitative emotionale Punktzahl. Mit anderen Worten, Ausrichten eines Teilnehmers Behandlungs- und Kontrollzeitreihe von Antworten für jede Emotion (Abbildung 5).
  4. Kompilieren Sie alle Informationen des Teilnehmers (Teilnehmer, eingestellte Zeit, und gepaart Behandlung(Beispielsweise geschmacksneutralen Wasser und geschmacksneutralen Milch) zu jedem Zeitpunkt (Figur 6).
    Hinweis: Die folgenden Schritte, die Schritte zeigen, für ein gekoppeltes Wilcox-Test mit der Hand. Die meisten Datenanalyse-Software-Programme wird dies automatisch tun. Es wird empfohlen, die statistische Analyseprozess mit einem Statistiker zu diskutieren.
  5. Sobald die Proben zurückgesetzt und ausgerichtet mit neuen eingestellten Video Zeiten sind, zu vergleichen , direkt zwischen den emotionalen Ergebnisse einer jeweiligen Probe und der Kontrolle (unflavored Wasser) unter Verwendung von sequentieller gepaart nichtparametrischer Wilcoxon - Tests für die Teilnehmer (Abbildung 7).
    Hinweis: Die neue zeitliche Ausrichtung der Proben für den direkten Vergleich innerhalb der 5 Sekunden nach dem Verzehr Zeitrahmen ermöglicht. Wenn ein gekoppeltes Beobachtung nicht in einer Behandlung ist, fallen die Teilnehmer von diesem Zeitpunkt Vergleich.
    1. Berechnen der Differenz zwischen der Steuerung und den jeweiligen Probe für jeden paarweisen Vergleich unter Verwendung von Daten spreadsheet-Management-Software.
      Hinweis: Der Vergleich wird auf der Bildrate für emotionale Analyse in der Software ausgewählt abhängig sein. Das Protokoll zeigt 30 individuelle Vergleiche pro Sekunde für 5 Sekunden (ausgewählte Zeitrahmen).
      Hinweis: Verwenden Sie Abbildung 7 als Referenz für Spalten und Stufen.
      1. Subtrahiere den Wert der Milch (beispielsweise geschmacksneutralen Milch) aus dem Wert des Steuer (beispielsweise geschmacksneutralen Wasser) , um die Differenz zu bestimmen. In der Datentabellen-Management-Software in einer neuen Spalte "Behandlungs Difference" betitelt, geben Sie "= (C2) - (D2)", wobei "C2" die emotionalen Werte Kontrolle und "D2" ist die gewählte Behandlung emotionale Werte. Wiederholen Sie diesen Vorgang für alle Zeitpunkte.
      2. Berechnen Sie den absoluten Wert der Differenz nach Behandlung. In der Datentabellen-Management-Software in einer neuen Spalte, geben Sie "= ABS (E2)", wobei "E2" ist der Unterschied in der Behandlung. Wiederholen Sie diesen Vorgang füralle Zeitpunkte.
      3. Bestimmen Sie die Rangordnung der Behandlungsdifferenz. In der Datentabellen-Management-Software in einer neuen Spalte, geben Sie "= RANK (G2, $ G $ 2: $ G $ 25, 1)", wobei "G2" ist die absolute Differenz und "1" ist "aufsteigend". Wiederholen Sie diesen Vorgang für alle Zeitpunkte.
      4. Bestimmen Sie die Vorzeichen-Rang der Rangordnung auf der Tabelle. Ändern Sie die Zeichen auf negativ, wenn der Unterschied in der Behandlung negativ war (Spalte I).
      5. Berechnen Sie die positive Summe (= SUMIF (I2: I25, "> 0", I2: I25) und negative Summe = SUMIF (I2: I25, "<0", I2: I25) der Rangwerte.
      6. Bestimmen Sie die Teststatistik. Die Teststatistik ist der absolute Wert niedriger Summe.
      7. Statistischen Tabellen für Wilcoxon Signed Rang Teststatistik mit der Anzahl der Beobachtungen an den genauen Zeitpunkt und einen ausgewählten Alpha-Wert enthalten den kritischen Wert zu bestimmen.
      8. Wenn die Teststatistik kleiner ist als der kritische Wert ablehnen ter Nullhypothese. Wenn er größer ist, nehmen die Nullhypothese.
  6. Graph stellt die Ergebnisse auf der zugehörigen Behandlungs Graph (dh unflavored Milch im Vergleich zu unflavored Wasser) für die Zeiten , in denen die Nullhypothese verworfen wird. Verwenden des Vorzeichens der Differenz zu bestimmen , welche Behandlung die größere Emotion (Abbildung 8).
    1. In dem Datentabellenmanagement Software eine graphische Darstellung der Werte der Anwesenheit oder Abwesenheit von Bedeutung verwendet.
      1. Klicken Sie auf "Einfügen".
      2. Wählen Sie "Line"
      3. Rechtsklick auf das Diagramm Feld.
      4. Klicken Sie auf "Wählen Sie Daten" und folgen Sie den Bildschirm , um relevante Daten auszuwählen und Grafik (Abbildung 8).
        Hinweis: Die Grafiken werden emotionalen Ergebnisse darzustellen, wo die Probe oder Kontrolle höher und signifikant ist. abhängige Grafik, ist die Emotion zu diesem bestimmten Zeitpunkt höher ermöglicht die Fähigkeit, wie Teilnehmer die Emotionen zu erkennen,zwischen zwei Proben über den 5-Sekunden Zeitraum entwickeln.
        Hinweis: Statistische Unterstützung mit einem Statistiker ist sehr relevanten Daten empfohlen zu extrahieren. Die Entwicklung der statistischen Codierung ist erforderlich, emotionale Ergebnisse zu analysieren.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Das Verfahren schlägt ein Standardprotokoll für AFEA Datenerfassung. Wenn genannte Protokollschritte befolgt werden, unbrauchbar emotionale Datenausgang (Abbildung 1) , die aus schlechten Datensammlung (Abbildung 2: A; linkes Bild) kann begrenzt werden. Zeitreihenanalyse kann nicht genutzt werden , wenn Protokolldateien (.txt) überwiegend "FIT_FAILED" enthalten und "FIND_FAILED" , wie diese schlechte Daten ist (Abbildung 1). Weiterhin umfasst das Verfahren ein Protokoll zum direkten statistischen Vergleich zwischen zwei Behandlungen von emotionalen Datenausgabe über einen Zeitrahmen eine emotionale Profil herzustellen. Zeitreihenanalyse kann emotionale Trends im Laufe der Zeit zur Verfügung stellen und einen wertschöpfenden Dimension hedonischen Akzeptanz Ergebnisse liefern können. Darüber hinaus können in der emotionalen Ebenen im Laufe der Zeit Veränderungen Zeitreihenanalyse zeigen, die während des Essens Erfahrung ist wertvoll.

(Abbildung 9). Hedonic Ergebnisse folgern, dass es keine Akzeptanz Unterschiede zwischen unflavored Milch, geschmacksneutralen Wasser und Vanille-Extrakt Geschmack in Milch waren. Jedoch zeigte AFEA Zeitreihenanalyse unflavored Milch erzeugt weniger angewidert (p <0,025; 0 sec), überrascht (p <0,025; 0-2,0 sec), weniger traurig (p <0,025; 2,0-2,5 sec) und weniger neutral (S. <0,025; ~ 3,0-3,5 sec) Antworten als habe unflavored Wasser (Abbildung 10). Zusätzlich eingeführt Vanille - Extrakt Geschmack in Milch glücklicher Ausdrücke kurz vor 5,0 Sekunden (p <0,025) und weniger traurig (p <0,025; 2,0-3,0 und 5,0 sec) als geschmacksneutralen Wasser (Abbildung 11). Vanille, als Geruch, wurde mit den Begriffen "entspannt", "heiter", "beruhigt", "Glück" verbunden sind, &# 34;. Wohlbefinden "," angenehm überrascht "23 und" angenehm "24 salzigen Geschmack in Milch hatte niedriger (p <0,05) bedeuten hedonischen Akzeptanzergebnisse (unbeliebt mäßig) (Abbildung 9) und salzigen Geschmack in Milch erzeugt mehr Ekel (p <0,025) höher (3,0-5,0 sec) als geschmacksneutralen Wasser (Abbildung 12). Intensive salzig wurde mit Ekel verbunden sind und überrascht 25, 26. Allerdings haben einige Studien festgestellt , dass salzigen Geschmack nicht entlocken nicht Gesichts-Antwort 7, 27 -29.

Abbildung 1
Abbildung 1. Beispiel suboptimale Datenerfassung aufgrund Teilnehmer Unverträglichkeit mit AFEA Software was zu einem Verlust von rohen emotionalen Datenantwort Punkte in den exportierten Ausgabedateien [FIT_FAILED; FIND_FAILED]. Video - Fehler auftreten , wenn ernsten Gesichts Verstopfungen oder die Unfähigkeit , das Gesicht persi zur Karte M. während der angegebenen Postverbrauch Fenster. Bitte hier klicken , um eine größere Version dieser Figur zu sehen.

Figur 2
Abbildung 2. Beispiel für suboptimale Datenerfassung aufgrund Teilnehmer - Software - Modellierung. Die Abbildung zeigt eine suboptimale Datenerfassung aufgrund Teilnehmer Software - Modellierung Unverträglichkeit und Versagen von Face Mapping emotionale Reaktion (A) zu bestimmen. Beispiel für eine erfolgreiche fit Modellierung und die Fähigkeit des Teilnehmers emotionale Reaktion zu erfassen (B). Bitte klicken Sie hier , um eine größere Version dieser Figur zu sehen.

6fig3.jpg "/>
Abbildung 3. Beispiel der extrahierten Teilnehmerdaten in einem neuen Daten - Tabelle zusammengestellt. Teilnehmerdaten (Teilnehmernummer, Behandlung, Original - Video Zeit und Emotion Reaktion) pro Emotion identifiziert (glücklich, neutral, traurig, wütend, überrascht, ängstlich und angewidert ) für den ausgewählten Zeitraum (in Sekunden). Diese Tabelle wird für nachfolgende Analysen verwendet werden . Bitte klicken Sie hier , um eine größere Version dieser Figur zu sehen.

Abbildung 4
Figur 4. Beispiel extrahierten Teilnehmerdaten für eine nachfolgende Analyse erstellt. Die extrahierten Teilnehmerdaten (A1 und B1) wird kompiliert (A2 und B2), graphisch dargestellt (A3 und B3) und ausgerichtet (A4 und B4) als visuelles zum direkten Vergleich. Die resligen Zeit Null für die Steuerung (A4: Überraschte Unflavored Water) und Behandlung (B4: Überraschte Unflavored Milch) für den Vergleich der überrascht emotionale Ergebnisse angezeigt. Dieses Beispiel stellt und identifiziert den entsprechenden Zeitpunkt Null aus der Timestamp - Datei für jeden Teilnehmer-Behandlung Paar. Bitte hier klicken , um eine größere Version dieser Figur zu sehen.

Abbildung 5
.. Abbildung 5. Beispiel extrahierten Teilnehmerdaten mit angepassten Zeitrahmen Das extrahierte Teilnehmerdaten mit angepassten Zeitrahmen mit einem echten "Zeit Null" (A1 und B1) präsentiert wird die Laufzeiteinstellung ermöglicht den direkten Vergleich zwischen einer Kontrolle (A: Überrascht unflavored Wasser) und eine Behandlung (B2: Überraschte Unfla vored Milch) (A2 und B2). Dieses Beispiel stellt und identifiziert die entsprechende wahre "Zeit Null" (bereinigt) von der Timestamp - Datei für jeden Teilnehmer-Behandlung Paar. Bitte hier klicken , um eine größere Version dieser Figur zu sehen.

Figur 6
Abbildung 6. Beispiel des Prozesses für alle Daten der Teilnehmer zu kompilieren. Der Teilnehmer, eingestellte Zeit, und gepaart Behandlung (zB unflavored Wasser und unflavored Milch) zu jedem Zeitpunkt kompiliert wird für die statistische Analyse vorzubereiten. Bitte klicken Sie hier anzuschauen größere Version der Figur.

es / ftp_upload / 54046 / 54046fig7.jpg "/>
Abbildung 7. Daten - Tabelle Beispiel eine Steuerung (Unflavored Water) zu vergleichen und eine Behandlung (Unflavored Milch) mit Wilcoxon - Tests für die Teilnehmer zu einem bestimmten Zeitpunkt. Die Figur stellt einen direkten Vergleich zwischen den emotionalen Ergebnisse einer jeweiligen Probe und der Kontrolle (unflavored Wasser ) sequentielle nichtparametrischer Wilcoxon Tests für die Teilnehmer gepaart mit. Bitte hier klicken , um eine größere Version dieser Figur zu sehen.

Abbildung 8
Abbildung 8. Beispiel für die Daten - Tabelle , um graphische Darstellung der Ergebnisse , wenn (p <0,025) auf dem zugehörigen Behandlungs Graph (dh unflavored Milch im Vergleich zu unflavored Wasser). Die Ergebnisse der sequentiellen über die TEILNEHMER nichtparametrischer Wilcoxon Tests gepaartnts sind für die Zeiten grafisch dargestellt , wo die Nullhypothese wird abgelehnt. Bitte hier klicken , um eine größere Version dieser Figur zu sehen.

9
Abbildung 9. Akzeptanz Mittelwert (hedonische) erzielt ein Tor von geschmacksneutralen Wasser, unflavored Milch, Vanille - Extrakt Geschmack in Milch und salzigen Geschmack in Milch Getränkelösungen. Acceptability wurde auf einem 9-Punkt - hedonischen Skala basiert (1 = nicht mögen extrem, 5 = weder wie noch Abneigung, 9 = wie extrem; Mittelwert +/- SD) 1. Die Behandlung bedeutet, mit unterschiedlichen hochgestellten Indizes deutlich zu mögen (p <0,05) unterscheiden. Unflavored Milch, unflavored Wasser und Vanille-Extrakt Geschmack in Milch waren nicht unterschiedlich (p> 0,05) in der mittleren Akzeptanzergebnisse und wurden als "mochte leicht" bewertet. Salzigen Geschmack in Milch hatte eine niedrigere (p <0,05) bedeuten Akzeptanzergebnisse (unbeliebt mäßig). Bitte klicken Sie hier , um eine größere Version dieser Figur zu sehen.

10
Abbildung 10. Zeitreihengrafiken von klassifizierten Emotionen auf automatisierte Gesichtsausdruck Analysedaten über 5,0 Sekunden Vergleich unflavored Milch und geschmacksneutralen Wasser. Basierend auf sequenzielle gepaart nichtparametrischer Wilcoxon Tests zwischen unflavored Milch und geschmacksneutralen Wasser (Baseline), werden die Ergebnisse auf die jeweilige Behandlungs Graphen aufgetragen wenn die Behandlung Median höher und von größerer Bedeutung (p <0,025) für jede Emotion. Vorhandensein einer Linie gibt einen signifikanten Unterschied (p <0,025) an dem bestimmten Zeitpunkt, zu dem der Median höher ist, während die Abwesenheit einer Zeile zu einem bestimmten Zeitpunkt keinen Unterschied gibt (p> 0,025). Abwesenheitvon Linien in unflavored Milch (A) zeigt keine emotionale Kategorisierung im Vergleich zu unflavored Wasser (p <0,025) über 5,0 Sekunden. In der nicht - aromatisierten Wasser (B), im Vergleich emotionale Ergebnisse unflavored Milch reveal angewidert (hochrot Linie) bei 0 sec, überrascht (orange Linie) tritt von 0 - 1,5 s, traurig (grüne Linie) tritt etwa 2,5 sec, und neutral (rot Linie) erfolgt um . 3 - 3,5 sec (p <0,025) Bitte hier klicken , um eine größere Version dieser Figur zu sehen.

11
Abbildung 11. Zeitreihen Diagramme von klassifizierten Emotionen basierend auf automatisierten Gesichtsausdruck Analysedaten über 5,0 Sekunden Vergleich Vanilleextrakt Geschmack in Milch und geschmacksneutralen Wasser (Baseline). Basierend auf sequenzielle nichtparametrischer Wilcoxon Tests gepaart zwischenVanille-Extrakt Geschmack in Milch und geschmacksneutralen Wasser, werden die Ergebnisse auf die jeweilige Behandlungs Graphen aufgetragen, wenn die Behandlung Median höher ist und von größerer Bedeutung (p <0,025) für jede Emotion. Vorhandensein einer Linie gibt einen signifikanten Unterschied (p <0,025) an dem bestimmten Zeitpunkt, zu dem der Median höher ist, während die Abwesenheit einer Zeile zu einem bestimmten Zeitpunkt keinen Unterschied gibt (p> 0,025). Vanille - Extrakt Geschmack in Milch (A) zeigt glücklich kurz vor 5 sec (blaue Linie) , während unflavored Wasser (B) zeigt mehr traurig um 2-2,5 und 5 Sekunden (grüne Linie) (p <0,025). Bitte klicken Sie hier anzuschauen größere Version der Figur.

12
Abbildung 12. Zeitreihen Diagramme von klassifizierten Emotionen basierend auf der automatischen Gesichts Expression Analysedaten über 5,0 Sekunden salzigen Geschmack in Milch und geschmacksneutralen Wasser verglichen wird . Basierend auf sequenzielle gepaart nichtparametrischer Wilcoxon Tests zwischen salzigen Geschmack in Milch und geschmacksneutralen Wasser (Baseline), die Ergebnisse werden auf dem jeweiligen Behandlungs Graphen aufgetragen , wenn die Behandlung Median höher und größer Signifikanz (p <0,025) für jede Emotion. Vorhandensein einer Linie gibt einen signifikanten Unterschied (p <0,025) an dem bestimmten Zeitpunkt, zu dem der Median höher ist, während die Abwesenheit einer Zeile zu einem bestimmten Zeitpunkt keinen Unterschied gibt (p> 0,025). Salzigen Geschmack in Milch (A) hat erhebliche Ekel 3 bis 5 Sekunden (hochrot Linie) , während unflavored Wasser (B) hat Ekel am Anfang (hochrot Linie) und neutralere 2 bis 5 Sekunden (rote Linie) (p <0,025 ). Bitte hier klicken , um eine größere Version dieser Figur zu sehen.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

AFEA Anwendung in der Literatur zu Lebensmitteln und Getränken im Zusammenhang sehr begrenzt 11.01. Die Anwendung auf Lebensmittel ist neu, eine Chance für die Festlegung Methodik und Interpretation der Daten zu schaffen. Arnade (2013) 7 gefunden hohe individuelle Variabilität zwischen den einzelnen emotionale Reaktion auf Schokolade Milch und weiße Milch unter der Kurvenanalyse und Varianzanalyse unter Verwendung von Bereich. Doch selbst mit Variabilität Teilnehmer erzielte Teilnehmer eine glückliche Antwort länger , während traurig und angewidert 7 kürzere Zeitverhalten hatte. In einer weiteren Studie mit hohen und niedrigen Konzentrationen von Grundgeschmacksarten , Arnade (2013) 7 gefunden, dass die Unterschiede in der emotionalen Reaktion unter Grundgeschmacksarten sowie zwischen zwei Ebenen der Grundgeschmacksintensitäten (hoher und niedriger Intensität), nicht so bedeutend waren wie erwartet, in Frage zu stellen, wodurch die Genauigkeit der aktuellen AFEA Methodik und Datenanalyse. Sensorische Bewertung von Lebensmitteln und Getränken ist ein komplexer und dynamic Antwortprozess 30. Zeitliche Änderungen können im gesamten Mund Verarbeitung auftreten und somit potentiell beeinflussen die Annehmbarkeit der Reize im Laufe der Zeit 30 Schlucken. Aus diesem Grund kann es vorteilhaft Evaluator Reaktion während des gesamten Esserlebnis zu messen. Spezifische orale Bearbeitungszeiten sind vorgeschlagen worden (erste Kontakt mit der Zunge, Kauen, Schlucken, etc.) 31, aber keine sind standardisiert und Zeiten sind weitgehend abhängig von dem Projekt und der Forscher Ermessen 30.

Die vorgeschlagene emotionale Zeitreihenanalyse konnte emotionale Veränderungen und statistische Unterschiede zwischen der Kontrolle (unflavored Wasser) und jeweiligen Behandlungen zu erfassen. Darüber hinaus emotionale Profile mit Akzeptanz verbunden sind, können zu Lebensmitteln und Getränken in Antizipation Verhalten Hilfe geschaffen. Die Ergebnisse zeigen , dass unterscheidbare Zeit mit AFEA zu Aromen in der Milch im Zusammenhang Serie Trends existieren (Abbildungen 10 11, und 12). Die Zeitreihenanalyse hilft bei der Differenzierung von Lebensmitteln Akzeptanz in einer Population gekennzeichnet durch Emotionen zu integrieren (10, 11 und 12) sowie die Unterstützung von hedonischen Akzeptanz Trends (Abbildung 9). Leitch et al. 8 beobachteten Unterschiede zwischen Süßstoffe und der Wasserbasis mit Zeitreihenanalyse (5 sec) und fand auch , dass die Nutzung von Zeitreihen Graphen für eine bessere Interpretation der Daten und Ergebnisse zur Verfügung gestellt. Außerdem kann emotionale Veränderungen über die Zeit und Unterschiede emotionale Reaktion Behandlung beobachtet werden kann, zu verschiedenen Zeitpunkten oder Intervallen bestimmt werden. Zum Beispiel Leitch et al. 8 beobachtet , dass die Annäherung Emotionen (wütend, glücklich und überrascht) wurden zwischen den künstlichen Süßstoff-Wasser - Vergleiche beobachtet , jedoch wurden zu unterschiedlichen Zeiten über den 5 sec Beobachtungsfenster beobachtet. Aber,Leitch et al. 8 nicht festgestellt , Direktionalität des Ausdrucks, ist es schwierig zu verstehen , die emotionale Unterschied zwischen der Kontrolle (Wasser) und die Behandlung (ungesüßt Tee) mit ihrer grafischen Interpretation und Präsentation zu machen. Die modifizierte und verbesserte Zeitreihenanalyse-Methodik in unserer Studie vorgestellt ermöglicht statistische Differenz Direktionalität. Die Direktionalität und Ergebnisse Plotten ermöglicht es den Forschern zu visualisieren, wo statistisch relevante emotionale Veränderungen über den gewählten Zeitrahmen auftreten.

Videoanalyse Ausfälle zu reduzieren, ist von wesentlicher Bedeutung für gültige Daten zu erreichen und effektiv Zeit und Personalressourcen. Kritische Schritte und Schritte zur Fehlerbehebung in dem Protokoll sind die Optimierung der Teilnehmer sensorische Umgebung (Beleuchtung, Videokamerawinkel, Stuhlhöhe, gründliche Teilnehmer Führungsanweisungen, etc.). Auch sollten die Teilnehmer überprüft und ausgeschlossen werden, wenn sie in eine Software Inc. fallenompatibility Kategorie (dh dick gerahmte Brille, stark bärtigen Gesichtern und Hautton) (Abbildung 2). Diese Faktoren beeinflussen AFEA fit Modellierung, emotionale Kategorisierung und Datenausgabe. Wenn ein wesentlicher Teil einer Datenausgabe des Teilnehmers besteht aus "FIT_FAILED" und "FIND_FAILED" sollten die Daten zur Einbeziehung in die Zeitreihenanalyse (Figur 1) werden neu bewertet. Zeitreihenanalyse kann nicht genutzt werden , wenn die Datenausgabe Protokolldateien enthalten überwiegend "FIT_FAILED" und "FIND_FAILED" , wie diese schlechte Daten ist (Abbildung 1). Shadowing auf dem Gesicht wegen der Lichteinstellungen können stark Video-Capture-Qualität, was zu einer schlechten Videosammlung hemmen. Um zu vermeiden , intensive Verschattung, diffuse frontal Beleuchtung ist ideal , während die Lichtintensität oder Farbe ist nicht so relevant 20. Intensive Deckenbeleuchtung sollte reduziert werden , wie es Schatten auf dem Gesicht 20 fördern können. Ein dunkler Hintergrund hinter derTeilnehmer wird 20 empfohlen. Es ist aus der AFEA Softwarehersteller vorgeschlagen , die Einrichtung vor einem Fenster zu platzieren diffuses Tageslicht zu haben 20 Beleuchtung. Auch, wenn ein Computer - Monitor verwenden, zwei Lichter kann für die Beleuchtung und Schattenreduktion 20 auf beiden Seiten des Gesichts des Benutzers platziert werden. Zusätzlich können professionelle Fotoleuchten verwendet werden , um unerwünschte Umgebung entgegenzuwirken 20 Beleuchtung. Letztendlich ist es dem Ermessen des Forschers, individuelle Protokoll / Methodik und Umwelt bis zur Kontrolle von Licht für die Aufnahme. Es wird empfohlen, die Datenerfassungsumgebung und die Werkzeuge, mit dem Software-Anbieter vor dem Kauf und der Installation zu diskutieren. Außerdem Stuhlhöhe und Kamerawinkel sind wichtig, individuell für jeden Teilnehmer anzupassen. Der Teilnehmer sollte bequem sein, aber in einer Höhe, wo die Kamera gerade auf dem Gesicht. Ein Versuch, den Kamerawinkel auf der Fläche zu reduzieren, ist für die Optimierung der AF ermutigtEA Video-Capture. Schließlich ist es unbedingt erforderlich, verbale Anweisungen an die Teilnehmer der Probenahme vor zu geben. Teilnehmerverhalten während der Videoaufnahme kann die Datenerfassung begrenzen aufgrund Gesichts Okklusion, Bewegungen und Kameravermeidung.

Für Teilnehmer Probengröße für eine Studie benötigt werden, empfehlen die Autoren einen Bereich von 10 bis 50 Teilnehmer. Obwohl eine kleine Zahl fast keine statistische Aussagekraft zur Verfügung stellen wird, mindestens 2 Teilnehmer sind in der Regel erforderlich, zur Zeitreihenanalyse. Teilnehmer Variabilität ist hoch, und in den frühen Phasen der Forschung gibt es keine Anleitung mit Stichprobengröße zu bieten. Probengröße variiert in Abhängigkeit von Aromen je nach Geschmacksintensität und erwartete Behandlung Akzeptanz. Die Proben mit kleineren Geschmacksunterschiede werden mehr Teilnehmer benötigen. Der 30 zweite gesteuerte Abtastperiode umfasst eine Zeitspanne ausreichend für die gesamte Stichprobenauswertungszeitraum (dh der Index - Karte, um eine Probe zu öffnen (Entfernen des Deckels), Verbrauchtion und emotionale Capture). Die gesamten 30 Sekunden nicht in die Datenanalyse verwendet. Der Vorteil dieser benannten 30 Sekunden Aufnahmezeit ist, dass die Forscher die relevanten Auswertungszeit entscheiden können, in der Datenanalyse verwendet werden. Der 30 zweite Zeitfenster kann während einer Videoprobe bei der Auswahl eines Zeitrahmens von Interesse unterstützen, während Codierung oder Videos timestamping. Letztlich ist das Zeitfenster, in das Ermessen des Forschers auf. In unserem Beispiel haben wir die 5 sec Abtastfenster post-Verbrauch. Darüber hinaus legt die vorliegende Methodik Zeit Null, wenn die Probenbecher nicht mehr das Gesicht verschliesst (Tasse am Kinn). Es ist sehr wichtig, die Zeit zwischen Konsum und Probenbecher Gesichts Okklusion aufgrund einer kurzen und wechselnden Emotionen zu verringern. Aufgrund der Probenschale Gesichts Okklusion der Anfangszeit , wo die Probe Kontakt unzuverlässige Daten mit der Zunge macht (siehe Abbildung 1). Wenn daher der Punkt der Becher nicht mehr das Gesicht okkludiert ist die optimale recommendation. Zeitstempel müssen für alle Teilnehmer, konsequent zu sein. Die Farbkarte ist eine bequeme Möglichkeit für Forscher Behandlungen im Video zu identifizieren und den entsprechenden Zeitrahmen (Zeit Null) für Probenauswertung markieren. Die Farbkarten sind besonders hilfreich, wenn Behandlungen in zufälliger Reihenfolge sind und dienen als eine zusätzliche Validierung der Probenidentifikation in der kontinuierlichen Video.

Einschränkungen dieser Technik gibt es als Teilnehmer können keine Anweisungen oder unvermeidbare Abschattung auf dem Gesicht des Teilnehmers folgen fit Modell Ausfälle Gesicht verursachen können (Abbildung 2). Allerdings bieten die vorgeschlagenen kritischen Schritte Wege zu mildern und diese Störungen zu reduzieren. Darüber hinaus wird die Zeitreihenanalyse nicht überwiegend mit Dateien exportiert Protokolldateien lesen "FIT_FAILED" und "FIND_FAILED" (Abbildung 1) enthält. Diese Datei kann nicht geborgen werden und nicht in der Lage sein, in der Zeitreihenanalyse einbezogen werden. Auch der Verzehr von Lebensmitteln und beverages kann immer noch die Gesichtsstruktur in einer Weise verändern, die emotionale Kategorisierung zu verzerren. Harte oder zähe Nahrungsmittel erfordern umfangreiche Kieferbewegung. Die Verwendung eines Trinkhalm und der damit verbundenen saugen, verursacht auch Gesichts-Okklusion (Stroh) und verzerrt das Gesicht (Saugen). Diese Beobachtung wird auf Basis vorläufiger Daten aus unserem Labor Forschung. Die Software-Gesichtsmodell können die Unterschiede zwischen Kauen (oder Saugen) und Motor Ausdrücke nicht erkennen mit emotionalen Kategorisierung verbunden. Mit Essen und Getränkeproben, ist die Möglichkeit für die Gesichts-Okklusion höher als die der Wiedergabe von Videos und Bildern. Die Teilnehmer müssen die Probe auf das Gesicht bringen und den Behälter aus dem Gesicht zu entfernen damit die Software - Modell zu unterbrechen und potenziell wertvolle emotionale Informationen zu reduzieren (siehe Abbildung 1). Wie bereits erwähnt, geschieht Emotionen schnell und für eine kurze Dauer. Es ist wichtig, die Gesichts Okklusion in einer Bemühung zu reduzieren Emotionen zu erfassen. Die vorgeschlagene methodollogie macht bei einem Dreißigstel einer zweiten Behandlung Vergleiche Veränderungen in emotionalen Mustern und Veränderungen in der emotionalen Dauer über die Zeit zu finden. Mit der vorgeschlagenen Methodik, sind Muster der emotionalen Langlebigkeit wichtig. Leider kann emotionale Kategorisierung Probleme auftreten. Vor allem gibt es ein Problem glücklich und Ekel Kategorisieren 6, 9, 32, 33, 34. Oft ist dies auf die Teilnehmer ihre Abneigung oder überrascht Gefühl Maskierung von 6 lächelnd, 32, 33, 34 , die aufgrund einer "sozial sein könnte Anzeigeregel "32. Darüber hinaus wird die AFEA Software zu sieben emotionalen Kategorien (neutral, glücklich, traurig, ängstlich, überrascht, wütend und angewidert) begrenzt. Emotionale Reaktion auf Nahrungsmittel und Getränke können komplexer sein als die aktuelle AFEA Klassifizierung von universellen Emotionen und Kategorisierung kann als Reaktion auf ein Lebensmittel oder Getränk Reize unterschiedlich sein. Manuelle Codierung mittels FACS wurde angewandt, um gustofacial und olfactofacial Antworten von Grundgeschmacksarten undein Sortiment von Gerüchen und schien genug zu sein , sensible Behandlung Unterschiede in Bezug auf AUs 32 zu erkennen. FACS ist mühsam und sehr zeitaufwendig, jedoch kann die zeitliche Anwendung der Abwesenheit oder Anwesenheit von AUs nützlich sein bei komplexen Reaktionen zu unterstützen, die AFEA nicht richtig oder wenn emotionale Ergebnisse sind unerwartet könnte klassifizieren. Während die Zeit erlaubt Reihendaten für die Gesichts-Einstufungen gleichzeitig auftreten und mit einer signifikanten Ausdruck, sollte Vorsicht bei der Übersetzung Ergebnisse in einer einzigen Emotion aufgrund emotionaler Komplexität verwendet werden.

Die vorgeschlagene Methodik und Datenanalysetechnik können auf andere Getränke und weichen Lebensmitteln angewendet werden. AFEA Software war in der Lage Emotionen zu identifizieren, aromatisiert und geschmacksneutralen Proben. Die vorgeschlagene Methodik und zeitliche Analyse kann mit charakterisierenden implizite Antworten wodurch neue Fortschritte in der emotionalen Reaktionen und Verhaltensweisen der Bevölkerung in Bezug auf Nahrungsmittelhilfe. Zukünftige Anwendungen von thist Technik in anderen Getränkekategorien oder weiche Lebensmittel erweitern können. Wir haben Methodik demonstriert Video-Capture für emotionale Reaktion und Datenanalyse-Methodik zu erreichen. Wir wollen beide emotionale AFEA Capture einen Standardansatz für und Analyse emotionale Zeitreihen zu erstellen. Die Methode Ansatz hat Erfolg in unserer Forschung gezeigt. Wir hoffen, zu erweitern und diesen Ansatz anwenden für die Bewertung emotionale Reaktion auf Nahrungsmittel und Getränke und die Beziehung zu Wahl und Verhaltensweisen.

Subscription Required. Please recommend JoVE to your librarian.

Materials

Name Company Catalog Number Comments
2% Reduced Fat Milk Kroger Brand, Cincinnati, OH or DZA Brands, LLC, Salisbury, NC na for solutions
Drinking Water Kroger Brand, Cincinnati, OH na for solutions
Imitation Clear Vanilla Flavor Kroger Brand, Cincinnati, OH na for solutions
Iodized Salt Kroger Brand, Cincinnati, OH na for solutions
FaceReader 6 Noldus Information Technology, Wageningen, The Netherlands na For Facial Analysis
Sensory Information Management System (SIMS) 2000 Sensory Computer Systems, Berkeley Heights, NJ Version 6 For Sensory Data Capture
Rhapsody Acuity Brands Lighting, Inc., Conyers, GA For Environment Illumination
R Version  R Core Team 2015 3.1.1 For Statistical Analysis
Microsoft Office Microsoft na For Statistical Analysis
JMP Statistical Analysis Software (SAS) Version 9.2, SAS Institute, Cary, NC na For Statistical Analysis
Media Recorder 2.5 Noldus Information Technology, Wageningen, The Netherlands na For capturing participants sensory evaluation
Axis M1054 Camera Axis Communications, Lund, Sweden na
Beverage na Beverage or soft food for evaluation

DOWNLOAD MATERIALS LIST

References

  1. De Wijk, R. A., Kooijman, V., Verhoeven, R. H. G., Holthuysen, N. T. E., De Graaf, C. Autonomic nervous system responses on and facial expressions to the sight, smell, and taste of liked and disliked foods. Food Qual Prefer. 26 (2), 196-203 (2012).
  2. De Wijk, R. A., He, W., Mensink, M. G. J., Verhoeven, R. H. G., De Graaf, C. ANS responses and facial expression differentiate between the taste of commercial breakfast drinks. PLoS ONE. 9 (4), 1-9 (2014).
  3. He, W., Boesveldt, S., De Graaf, C., De Wijk, R. A. Behavioural and physiological responses to two food odours. Appetite. 59 (2), 628 (2012).
  4. He, W., Boesveldt, S., De Graaf, C., De Wijk, R. A. Dynamics of autonomic nervous system responses and facial expressions to odors. Front Psychol. 5 (110), 1-8 (2014).
  5. Danner, L., Sidorkina, L., Joechl, M., Duerrschmid, K. Make a face! Implicit and explicit measurement of facial expressions elicited by orange juices using face reading technology. Food Qual Prefer. 32 (2014), 167-172 (2013).
  6. Danner, L., Haindl, S., Joechl, M., Duerrschmid, K. Facial expression and autonomous nervous system responses elicited by tasting different juices. Food Res Int. 64 (2014), 81-90 (2014).
  7. Arnade, E. A. Measuring consumer emotional response to tastes and foods through facial expression analysis [thesis]. , Virginia Tech. Blacksburg. 1-187 (2013).
  8. Leitch, K. A., Duncan, S. E., O'Keefe, S., Rudd, R., Gallagher, D. L. Characterizing consumer emotional response to sweeteners using an emotion terminology questionnaire and facial expression analysis. Food Res Int. 76, 283-292 (2015).
  9. Crist, C. A., et al. Application of emotional facial analysis technology to consumer acceptability using a basic tastes model. Technical Abstracts and Proceedings of the 2014 Institute of Food Technologists Annual Meeting, 2014 Jun 21 - 24, New Orleans, LA, , (2014).
  10. Garcia-Burgos, D., Zamora, M. C. Facial affective reactions to bitter-tasting foods and body mass index in adults. Appetite. 71 (2013), 178-186 (2013).
  11. Garcia-Burgos, D., Zamora, M. C. Exploring the hedonic and incentive properties in preferences for bitter foods via self-reports, facial expressions and instrumental behaviours. Food Qual Prefer. 39 (2015), 73-81 (2015).
  12. Lewinski, P., Fransen, M. L., Tan, E. S. H. Predicting advertising effectiveness by facial expressions in response to amusing persuasive stimuli. J. Neurosci. Psychol. Econ. 7 (1), 1-14 (2014).
  13. Ekman, P., Friesen, W. V. Facial action coding system: A technique for the measurement of facial movement. , Consulting Psychologists Press. Palo Alto, California. (1978).
  14. Viola, P., Jones, M. Rapid object detection using a boosted cascade of simple features. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern. 1, 511-518 (2001).
  15. Sung, K. K., Poggio, T. Example-based learning for view-based human face detection. IEEE Trans. Pattern Anal. Mach. Intell. 20 (1), 39-51 (1998).
  16. FaceReader 5™ Technical Specifications. , Noldus Information Technology. Wageningen, The Netherlands. Available from: http://www.webshop.noldus.com/media/techspec/facereader _techspec.pdf (2014).
  17. Cootes, T., Taylor, C. Statistical models of appearance for computer vision: Technical report. , University of Manchester, Wolfson Image Analysis Unit, Imaging Science and Biomedical Engineering. (2000).
  18. Bishop, C. M. Neural networks for pattern recognition. , Oxford University Press. New York. (1995).
  19. Lewinski, P., den Uyl, T. M., Butler, C. Automated facial coding: validation of basic emotions and FACS AUs in FaceReader. J. Neurosci. Psychol. Econ. 7 (4), 227-236 (2014).
  20. Noldus Information Technology. FaceReader Reference Manual Version 6. , Wageningen, The Netherlands. (2014).
  21. Alves, N. T., Fukusima, S. S., Aznar-Casanova, J. A. Models of brain asymmetry in emotional processing. Psychol Neurosci. 1 (1), 63-66 (2008).
  22. Costello, M., Clark, S. Preparation of samples for instructing students and staff in dairy products evaluation (Appendix F). The sensory evaluation of dairy foods. Clark, S., Costello, M., Drake, M., Bodyfelt, F. , 2nd, Springer. New York. 551-560 (2009).
  23. Porcherot, C., et al. How do you feel when you smell this? Optimization of a verbal measurement of odor-elicited emotions. Food Qual Prefer. 21, 938-947 (2010).
  24. Warrenburg, S. Effects of fragrance on emotions: Moods and physiology. Chem. Senses. 30, i248-i249 (2005).
  25. Bredie, W. L. P., Tan, H. S. G., Wendin, K. A comparative study on facially expressed emotions in response to basic tastes. Chem. Percept. 7 (1), 1-9 (2014).
  26. Wendin, K., Allesen-Holm, B. H., Bredie, L. P. Do facial reactions add new dimensions to measuring sensory responses to basic tastes? Food Qual Prefer. 22, 346-354 (2011).
  27. Rosenstein, D., Oster, H. Differential facial responses to four basic tastes in newborns. Child Dev. 59 (6), 1555-1568 (1988).
  28. Rosenstein, D., Oster, H. Differential facial responses to four basic tastes in newborns. What the face reveals: Basic and applied studies of spontaneous expression using the facial action coding system (FACS). P, E. kman, E, R. osenberg , Oxford University Press, Inc. New York. 302-327 (1997).
  29. Rozin, P., Fallon, A. E. A perspective on disgust. Psychol. Rev. 94 (1), 23-41 (1987).
  30. Delarue, J., Blumenthal, D. Temporal aspects of consumer preferences. Curr. Opin. Food Sci. 3, 41-46 (2015).
  31. Sudre, J., Pineau, N., Loret, C., Marin, N. Comparison of methods to monitor liking of food during consumption. Food Qual Prefer. 24 (1), 179-189 (2012).
  32. Weiland, R., Ellgring, H., Macht, M. Gustofacial and olfactofacial responses in human adults. Chem. Senses. 35 (9), 841-853 (2010).
  33. Ekman, P. Universal and cultural differences in facial expressions of emotion. Nebraska symposium on motivation. Cole, J. , University of Nebraska Press. Lincoln (NE). 207-283 (1971).
  34. Griemel, E., Macht, M., Krumhuber, E., Ellgring, H. Facial and affective reactions to tastes and their modulation by sadness and joy. Physiol Behav. 89 (2), 261-269 (2006).

Tags

Verhalten Heft 114 Gesichtsausdruck Analyse Sensorische Beurteilung Emotion Getränke Lebensmittelwissenschaft Zeitreihenanalyse Milch
Protokoll für die Datenerhebung und Analyse Applied zu Automatische Gesichtsausdruck Analysis Technologie und zeitliche Analyse für die sensorische Prüfung
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Crist, C. A., Duncan, S. E.,More

Crist, C. A., Duncan, S. E., Gallagher, D. L. Protocol for Data Collection and Analysis Applied to Automated Facial Expression Analysis Technology and Temporal Analysis for Sensory Evaluation. J. Vis. Exp. (114), e54046, doi:10.3791/54046 (2016).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter