Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Neuroscience

Ein psychophysikalisches Paradigma zur Sammlung und Analyse von Ähnlichkeitsurteilen

Published: March 1, 2022 doi: 10.3791/63461

Summary

Das Protokoll stellt ein experimentelles psychophysikalisches Paradigma vor, um große Mengen an Ähnlichkeitsurteilen zu erhalten, und einen begleitenden Analyse-Workflow. Das Paradigma untersucht Kontexteffekte und ermöglicht die Modellierung von Ähnlichkeitsdaten in Bezug auf euklidische Räume von mindestens fünf Dimensionen.

Abstract

Ähnlichkeitsurteile werden häufig verwendet, um mentale Repräsentationen und ihre neuronalen Korrelate zu untersuchen. Dieser Ansatz wurde verwendet, um Wahrnehmungsräume in vielen Bereichen zu charakterisieren: Farben, Objekte, Bilder, Wörter und Klänge. Im Idealfall könnte man Schätzungen der wahrgenommenen Ähnlichkeit zwischen allen Reizpaaren vergleichen, aber das ist oft unpraktisch. Wenn man beispielsweise ein Subjekt bittet, die Ähnlichkeit zweier Items mit der Ähnlichkeit zweier anderer Items zu vergleichen, wächst die Anzahl der Vergleiche mit der vierten Potenz der Stimulus-Set-Größe. Eine alternative Strategie besteht darin, ein Subjekt nach Ratenähnlichkeiten isolierter Paare zu fragen, z. B. auf einer Likert-Skala. Dies ist viel effizienter (die Anzahl der Bewertungen wächst quadratisch mit der festgelegten Größe und nicht quartär), aber diese Bewertungen sind tendenziell instabil und haben eine begrenzte Auflösung, und der Ansatz geht auch davon aus, dass es keine Kontexteffekte gibt.

Hier wird ein neuartiges Ranking-Paradigma für die effiziente Sammlung von Ähnlichkeitsurteilen vorgestellt, zusammen mit einer Analysepipeline (Software zur Verfügung gestellt), die testet, ob euklidische Entfernungsmodelle die Daten berücksichtigen. Typische Versuche bestehen aus acht Reizen um einen zentralen Referenzreiz: Das Subjekt ordnet Reize in der Reihenfolge ihrer Ähnlichkeit mit der Referenz ein. Durch die sorgfältige Auswahl von Kombinationen von Reizen, die in jeder Studie verwendet werden, verfügt der Ansatz über interne Kontrollen für Konsistenz und Kontexteffekte. Der Ansatz wurde für Reize aus euklidischen Räumen von bis zu fünf Dimensionen validiert.

Der Ansatz wird mit einem Experiment veranschaulicht, das Ähnlichkeiten zwischen 37 Wörtern misst. Jede Studie liefert die Ergebnisse von 28 paarweisen Vergleichen der Form "War A der Referenz ähnlicher als B der Referenz?" Während der direkte Vergleich aller Paare von Reizpaaren 221445 Versuche erfordert hätte, ermöglicht dieses Design die Rekonstruktion des Wahrnehmungsraums aus 5994 solchen Vergleichen, die aus 222 Versuchen gewonnen wurden.

Introduction

Menschen verarbeiten und repräsentieren geistig eingehende sensorische Informationen, um eine Vielzahl von Aufgaben auszuführen, wie Objekterkennung, Navigation, Rückschlüsse auf die Umwelt und viele andere. Ähnlichkeitsurteile werden häufig verwendet, um diese mentalen Repräsentationen zu untersuchen1. Das Verständnis der Struktur mentaler Repräsentationen kann einen Einblick in die Organisation des konzeptionellen Wissens geben2. Es ist auch möglich, Einblicke in neuronale Berechnungen zu gewinnen, indem Ähnlichkeitsurteile mit Gehirnaktivierungsmustern in Beziehung gesetzt werden3. Darüber hinaus zeigen Ähnlichkeitsurteile Merkmale auf, die in der Wahrnehmung hervorstechen4. Zu untersuchen, wie sich mentale Repräsentationen während der Entwicklung verändern, kann Aufschluss darüber geben, wie sie erlernt werden5. So liefern Ähnlichkeitsurteile wertvolle Einblicke in die Informationsverarbeitung im Gehirn.

Ein gängiges Modell für mentale Repräsentationen, die Ähnlichkeiten verwenden, ist ein geometrisches Raummodell6,7,8. Auf sensorische Domänen angewendet, wird diese Art von Modell oft als Wahrnehmungsraum bezeichnet9. Punkte im Raum stellen Reize dar und Abstände zwischen Punkten entsprechen der wahrgenommenen Unähnlichkeit zwischen ihnen. Aus Ähnlichkeitsurteilen kann man quantitative Schätzungen von Unähnlichkeiten erhalten. Diese paarweisen Unähnlichkeiten (oder Wahrnehmungsabstände) können dann verwendet werden, um den Wahrnehmungsraum über mehrdimensionale Skalierung zu modellieren10.

Es gibt viele Methoden, um Ähnlichkeitsurteile zu sammeln, jede mit ihren Vor- und Nachteilen. Der einfachste Weg, quantitative Messungen der Unähnlichkeit zu erhalten, besteht darin, die Probanden zu bitten, auf einer Skala den Grad der Unähnlichkeit zwischen jedem Reizpaar zu bewerten. Während dies relativ schnell ist, neigen die Schätzungen dazu, über lange Sitzungen hinweg instabil zu sein, da die Probanden nicht zu früheren Urteilen zurückkehren können und Kontexteffekte, falls vorhanden, nicht erkannt werden können. (Hier wird ein Kontexteffekt als eine Veränderung der beurteilten Ähnlichkeit zwischen zwei Reizen definiert, basierend auf dem Vorhandensein anderer Reize, die nicht verglichen werden.) Alternativ können Probanden gebeten werden, alle Reizpaare mit allen anderen Reizpaaren zu vergleichen. Während dies zu einer zuverlässigeren Rangfolge von Unähnlichkeiten führen würde, erforderte die Anzahl der Vergleiche Skalen mit der vierten Potenz der Anzahl der Reize, was es nur für kleine Stimulussätze machbar machte. Schnellere Alternativen, wie das Sortieren in eine vordefinierte Anzahl von Clustern11 oder das freie Sortieren, haben ihre eigenen Einschränkungen. Die freie Sortierung (in eine beliebige Anzahl von Stapeln) ist intuitiv, zwingt das Subjekt jedoch, die Reize zu kategorisieren, auch wenn sich die Reize nicht leicht für eine Kategorisierung eignen. Die neuere Multi-Arrangement-Methode, das inverse MDS, umgeht viele dieser Einschränkungen und ist sehr effizient12. Diese Methode erfordert jedoch, dass die Probanden ihre mentalen Repräsentationen auf eine euklidische 2D-Ebene projizieren und Ähnlichkeiten auf eine bestimmte geometrische Weise berücksichtigen, wobei davon ausgegangen wird, dass die Ähnlichkeitsstruktur aus euklidischen Entfernungen auf einer Ebene wiederhergestellt werden kann. Daher besteht nach wie vor Bedarf an einer effizienten Methode, um große Mengen von Ähnlichkeitsurteilen zu sammeln, ohne Annahmen über die den Urteilen zugrunde liegende Geometrie zu treffen.

Beschrieben wird hier eine Methode, die sowohl einigermaßen effizient ist als auch die oben genannten potenziellen Fallstricke vermeidet. Indem die Probanden gebeten werden, die Reize in der Reihenfolge ihrer Ähnlichkeit mit einer zentralen Referenz in jeder Studie zu ordnen13, kann die relative Ähnlichkeit direkt untersucht werden, ohne etwas über die geometrische Struktur der Antworten der Probanden anzunehmen. Das Paradigma wiederholt eine Teilmenge von Vergleichen mit identischen und unterschiedlichen Kontexten, was eine direkte Bewertung von Kontexteffekten sowie die Erfassung von abgestuften Antworten in Bezug auf Auswahlwahrscheinlichkeiten ermöglicht. Das Analyseverfahren zerlegt diese Rangurteile in mehrere paarweise Vergleiche und verwendet sie, um euklidische Modelle von Wahrnehmungsräumen zu erstellen und zu suchen, die die Urteile erklären. Die Methode eignet sich, um die Darstellung von Reizsätzen mittlerer Größe (z. B. 19 bis 49) detailliert zu beschreiben.

Um die Machbarkeit des Ansatzes zu demonstrieren, wurde ein Experiment durchgeführt, bei dem ein Satz von 37 Tieren als Stimuli verwendet wurde. Die Daten wurden im Laufe von 10 einstündigen Sitzungen gesammelt und dann für jedes Fach separat analysiert. Die Analyse ergab Konsistenz zwischen den Themen und vernachlässigbare Kontexteffekte. Es bewertete auch die Konsistenz der wahrgenommenen Unähnlichkeiten zwischen Reizen mit euklidischen Modellen ihrer Wahrnehmungsräume. Die in diesem Papier beschriebenen Paradigmen- und Analyseverfahren sind flexibel und werden voraussichtlich für Forscher von Nutzen sein, die daran interessiert sind, die geometrischen Eigenschaften einer Reihe von Wahrnehmungsräumen zu charakterisieren.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Vor Beginn der Experimente geben alle Probanden eine Einwilligung nach Aufklärung gemäß den institutionellen Richtlinien und der Erklärung von Helsinki ab. Im Falle dieser Studie wurde das Protokoll vom institutionellen Überprüfungsausschuss des Weill Cornell Medical College genehmigt.

1. Installation und Einrichtung

  1. Laden Sie den Code aus dem GitHub-Repository herunter, Ähnlichkeiten (https://github.com/jvlab/similarities). Führen Sie in der Befehlszeile Folgendes aus: git clone https://github.com/jvlab/similarities.git. - Wenn git nicht installiert ist, laden Sie den Code als gezippten Ordner aus dem Repository herunter.
    HINWEIS: Im Repository befinden sich zwei Unterverzeichnisse: experiments, das zwei Beispielexperimente enthält, und analysis, das eine Reihe von Python-Skripten zur Analyse gesammelter Ähnlichkeitsdaten enthält. Im Experimentierverzeichnis bedient sich einer (word_exp) Wortreizen und der andere (image_exp) zeigt Bildreize an. Etwas Vertrautheit mit Python wird hilfreich sein, aber nicht notwendig. Vertrautheit mit der Befehlszeile wird vorausgesetzt: Mehrere Schritte erfordern das Ausführen von Skripts über die Befehlszeile.
  2. Installieren Sie die folgenden Tools, und richten Sie eine virtuelle Umgebung ein.
    1. python 3: Anweisungen finden Sie unter dem Link: https://realpython.com/installing-python/. Für dieses Projekt ist Python Version 3.8 erforderlich.
    2. PsychoPy: Laden Sie über den Link (https://www.psychopy.org/download.html) die neueste Standalone-Version von PsychoPy für das entsprechende Betriebssystem herunter, indem Sie die blaue Schaltfläche unter Installation verwenden. Dieses Projekt verwendet PsychoPy Version 2021.2; Die bereitgestellten Beispielexperimente müssen mit der richtigen Version von PsychoPy wie unten angegeben ausgeführt werden.
    3. conda: Laden Sie über den Link (https://docs.conda.io/projects/conda/en/latest/user-guide/install/index.html#regular-installation) conda über Miniconda oder Anaconda für das entsprechende Betriebssystem herunter.
    4. Führen Sie in der Befehlszeile Folgendes aus, um eine virtuelle Umgebung mit den erforderlichen Python-Paketen zu erstellen:
      cd ~/Ähnlichkeiten
      conda env create -f environment.yaml
    5. Überprüfen Sie, ob die virtuelle Umgebung erstellt wurde, und aktivieren Sie sie wie folgt:
      conda env list # venv_sim_3.8 sollte aufgelistet werden
      conda aktivieren Sie venv_sim_3.8 #, um in die virtuelle Umgebung einzusteigen
      conda deaktivieren #, um die virtuelle Umgebung nach dem Ausführen von Skripten zu verlassen
      HINWEIS: Das Ausführen von Skripts in einer Umgebung kann manchmal langsam sein. Es kann bis zu einer Minute dauern, bis die gedruckte Ausgabe in der Befehlszeile angezeigt wird, wenn Sie ein Skript ausführen.
  3. Um sicherzustellen, dass heruntergeladener Code wie erwartet funktioniert, führen Sie die bereitgestellten Beispielexperimente mit den folgenden Schritten aus.
    HINWEIS: Das Experimentverzeichnis (Ähnlichkeiten/Experimente) enthält Beispielexperimente (word_exp und image_exp), wobei zwei Arten von Reizen verwendet werden: Wörter und Bilder.
    1. Öffne PsychoPy. Gehen Sie zu Ansicht und klicken Sie dann auf Coder, da der Standard-Builder von PsychoPy .py Dateien nicht öffnen kann. Wechseln Sie zu Datei, klicken Sie auf Öffnen, und öffnen Sie word_exp.py (Ähnlichkeiten/Experimente/word_exp/ word_exp.py ).
    2. Um das Experiment zu laden, klicken Sie auf die grüne Schaltfläche Test ausführen. Geben Sie die Initialen oder den Namen und die Sitzungsnummer ein und klicken Sie auf OK.
    3. Folgen Sie den Anweisungen und führen Sie einige Versuche durch, um zu überprüfen, ob Reize beim Klicken grau werden. Drücken Sie die Esc-Taste , wenn Sie zum Beenden bereit sind.
      HINWEIS: PsychoPy wird im Vollbildmodus geöffnet und zeigt zuerst Anweisungen und dann einige Versuche mit Platzhaltertext anstelle von Stimuluswörtern an. Wenn Sie darauf klicken, werden die Wörter ausgegraut. Wenn alle Wörter angeklickt wurden, beginnt die nächste Testversion. PsychoPy kann jederzeit durch Drücken der Esc-Taste beendet werden. Wenn das Programm während der Schritte 1.3.2 oder 1.3.3 beendet wird, ist es möglich, dass das Betriebssystem des Benutzers Zugriff auf Tastatur und Maus benötigt. Wenn ja, wird eine beschreibende Fehlermeldung im PsychoPy Runner-Fenster ausgegeben, die den Benutzer führt.
    4. Überprüfen Sie als nächstes, ob das Bildexperiment mit Platzhalterbildern ausgeführt wird. Öffne PsychoPy. Gehe zu Datei. Klicken Sie auf Öffnen und wählen Sie image_exp.psyexp (Ähnlichkeiten/Experimente/image_exp/image_exp.psyexp).
    5. Um sicherzustellen, dass die richtige Version verwendet wird, klicken Sie auf das Zahnradsymbol . Wählen Sie aus der Option PsychoPy-Version verwenden 2021.2 aus dem Dropdown-Menü.
    6. Klicken Sie wie zuvor auf die grüne Schaltfläche Experiment ausführen. Geben Sie die Initialen oder den Namen und die Sitzungsnummer ein und klicken Sie auf OK.
      HINWEIS: Wie in Schritt 1.3.2 zeigt PsychoPy zuerst Anweisungen an und rendert dann Versuche, nachdem Bilder geladen wurden. Jede Testversion enthält acht Platzhalterbilder, die ein zentrales Bild umgeben. Wenn Sie auf ein Bild klicken, wird es ausgegraut. Das Programm kann durch Drücken der Escape-Taste beendet werden.
    7. Navigieren Sie zum Datenverzeichnis in jedem der Testverzeichnisse, um die Ausgabe anzuzeigen:
      Ähnlichkeiten/Experimente/image_exp/Daten
      Ähnlichkeiten/Experimente/word_exp/Daten
      HINWEIS: Experimentelle Daten werden in das Datenverzeichnis geschrieben. Die Datei Antworten.csv enthält Test-für-Test-Klickantworten. Die Protokolldatei enthält alle Tastendrücke und Mausklicks. Es ist nützlich für die Fehlerbehebung, wenn PsychoPy unerwartet beendet wird.
  4. Um zu überprüfen, ob die Analyseskripts wie erwartet funktionieren, reproduzieren Sie optional einige der Zahlen im Abschnitt Repräsentative Ergebnisse wie folgt.
    1. Erstellen Sie ein Verzeichnis für vorverarbeitete Daten:
      cd ~/Ähnlichkeiten
      mkdir Mustermaterialien/Betreffdaten/vorverarbeitet
    2. Kombinieren Sie die Rohdaten aus allen Antwortdateien.csv zu einer JSON-Datei. Führen Sie in der Befehlszeile Folgendes aus:
      cd Ähnlichkeiten
      conda aktivieren venv_sim_3.8
      python -m analysis.preprocess.py
    3. Wenn Sie dazu aufgefordert werden, geben Sie die folgenden Werte für die Eingabeparameter ein: 1) Pfad zu den Probanddaten: ./sample-materials/subject-data, 2), Name des Experiments: sample_word, und 3) Proband-ID: S7. Die JSON-Datei befindet sich in Ähnlichkeiten/Beispielmaterialien/Betreffdaten/vorverarbeitet.
    4. Sobald die Daten vorverarbeitet wurden, folgen Sie den Schritten in der Projekt-README unter Wiedergabe von Zahlen. Diese Analyseskripte werden später ausgeführt, um Daten aus dem eigenen Experiment des Benutzers zu analysieren.

2. Datenerfassung durch Einrichten eines benutzerdefinierten Experiments

HINWEIS: Die Verfahren werden sowohl für die Bild- als auch für die Wortexperimente bis Schritt 3.1 beschrieben. Nach diesem Schritt ist der Prozess für beide Experimente gleich, so dass das Bildexperiment nicht explizit erwähnt wird.

  1. Wählen Sie ein auszuführendes Experiment aus. Navigieren Sie zum Wort Experiment (Ähnlichkeiten/Experimente/word_exp) oder zum Bildexperiment (Ähnlichkeiten/Experimente/image_exp).
  2. Entscheiden Sie über die Anzahl der Reize. Die Standardgröße des Stimulussatzes ist 37. Um dies zu ändern, öffnen Sie die Konfigurationsdatei (similarities/analysis/config.yaml) in einem Quellcode-Editor. Legen Sie im Parameter num_stimuli der Analysekonfigurationsdatei die Stimulusgröße auf mk + 1 fest, wie vom Versuchsplan für die ganzen Zahlen k und m gefordert.
    HINWEIS: In der Standardausführung ≥ k 3 und m = 6. Zu den gültigen Werten für num_stimuli gehören daher 19, 25, 31, 37, 43 und 49 (mögliche Erweiterungen des Entwurfs siehe Tabelle 1).
  3. Finalisieren Sie die experimentellen Reize. Wenn das Wort Experiment ausgeführt wird, bereiten Sie eine Liste von Wörtern vor. Erstellen Sie für das Bildexperiment ein neues Verzeichnis und platzieren Sie alle Stimulusbilder darin. Unterstützte Bildtypen sind png und jpeg. Verwenden Sie keine Punkte als Trennzeichen in Dateinamen (z. B. image.1.png ist ungültig, aber image1.png oder image_1.png sind gültig).
  4. Wenn Sie das Wort Experiment ausführen, bereiten Sie die Stimuli wie folgt vor.
    1. Erstellen Sie in experiments/word_exp eine neue Datei mit dem Namen stimuli.txt. Diese Datei wird in Schritt 3.3 gelesen.
    2. Schreiben Sie in die Datei die Wörter in den Stimulussatz, wie sie in der Anzeige angezeigt werden sollen, wobei jedes Wort in einer separaten Zeile angezeigt wird. Vermeiden Sie zusätzliche leere Zeilen oder zusätzliche Leerzeichen neben den Wörtern. Siehe Beispielmaterialien als Referenz (Ähnlichkeiten/Mustermaterialien/Wort-exp-Materialien/sample_word_stimuli.txt).
  5. Wenn das Image-Experiment ausgeführt wird, legen Sie den Pfad zum Stimulussatz wie folgt fest.
    1. Suchen Sie im Verzeichnis experiments die Konfigurationsdatei config.yaml (similarities/experiments/config.yaml).
    2. Öffnen Sie die Datei in einem Quellcode-Editor und aktualisieren Sie den Wert der Dateivariablen auf den Pfad zu dem Verzeichnis, das den Stimulussatz enthält (Schritt 2.3). Hier wird PsychoPy nach den Bildreizen suchen.

3. Erstellen von Ranking-Trials

  1. Verwenden Sie eine Stimuli.txt-Datei. Wenn das Wortexperiment ausgeführt wird, kann die in Schritt 2.4 erstellte Datei verwendet werden. Andernfalls verwenden Sie die Liste der Dateinamen (als Referenz siehe similarities/sample-materials/image-exp-materials/sample_image_stimuli.txt). Legen Sie diese Datei im entsprechenden Testverzeichnis (word_exp oder image_exp) ab.
  2. Vermeiden Sie zusätzliche Leerzeilen sowie Leerzeichen in den Namen. Verwenden Sie camelCase oder snake_case für Stimulusnamen.
  3. Erstellen Sie als Nächstes Testkonfigurationen. Öffnen Sie die Datei config.yaml im Analyseverzeichnis und setzen Sie den Wert des Parameters path_to_stimulus_list auf den Pfad zu stimuli.txt (erstellt in Schritt 3.1).
    1. Führen Sie das Skript im Verzeichnis similarities aus, indem Sie nacheinander die folgenden Befehle ausführen:
      cd ~/Ähnlichkeiten
      conda aktivieren venv_sim_3.8
      python -m analysis.trial_configuration
      Conda deaktivieren
      # Beenden Sie die virtuelle Umgebung
    2. Dadurch wird eine Datei mit dem Namen trial_conditions.csv in Ähnlichkeiten erstellt, in der jede Zeile die Namen der in einem Versuch erscheinenden Reize sowie ihre Positionen in der Anzeige enthält. Eine Musterdatei trial_conditions.csv wird zur Verfügung gestellt (Ähnlichkeiten/Probenmaterialien). Details zu den Eingabeparametern für die Analyseskripte finden Sie im Projekt README unter Verwendung.

Figure 1
Abbildung 1: Repräsentative Beispiele für Studien (Schritt 3.3). (A) Jede Zeile enthält die Einzelheiten eines einzigen Versuchs. Kopfzeilen zeigen die Position des Reizes um den Kreis an. Der Stimulus unter ref erscheint in der Mitte und stim 1 bis stim 8 erscheinen um die Referenz. (B) Der erste Versuch (Reihe) von A wird von PsychoPy durchgeführt, um die acht Reize um den Referenzreiz, den Affen, anzuzeigen. Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

HINWEIS: Zu diesem Zeitpunkt wurde ein vollständiger Satz von 222 Versuchen für einen vollständigen Versuchslauf, d.h. für einen vollständigen Datensatz, generiert. Abbildung 1A zeigt einen Teil einer Bedingungsdatei, die vom obigen Skript für das Wortexperiment generiert wurde (siehe Repräsentative Ergebnisse).

  1. Als nächstes teilen Sie diese 222 Studien in Sitzungen auf und randomisieren Sie die Studienreihenfolge. Im typischen Design bestehen die Sitzungen aus 111 Versuchen, von denen jede etwa 1 Stunde dauert.
    1. Führen Sie dazu in der Befehlszeile Folgendes aus:
      conda aktivieren venv_sim_3.8
      cd ~/Ähnlichkeiten
      python -m analysis.randomize_session_trials
    2. Wenn Sie dazu aufgefordert werden, geben Sie die folgenden Eingabeparameter ein: Pfad zu trial_conditions.csv, der in Schritt 3.3.2 erstellt wurde; Ausgabeverzeichnis; Anzahl der Versuche pro Sitzung: 111; Anzahl der Wiederholungen: 5.
      HINWEIS: Die Anzahl der Wiederholungen kann ebenfalls variiert werden, wirkt sich jedoch auf die Anzahl der in Schritt 4 durchgeführten Sitzungen aus (siehe Diskussion: Experimentelles Paradigma). Wenn Sie den Standardwert der Anzahl der Wiederholungen ändern, müssen Sie den Wert des Parameters num_repeats in der Konfigurationsdatei (similarities/analysis/config.yaml) bearbeiten. Überprüfen Sie bei Bedarf die Schritt-für-Schritt-Anleitung, um die oben genannten Schritte manuell in der README-Datei unter dem Abschnitt Erstellen von Testversionen zu überprüfen.
  2. Benennen Sie jede der generierten Dateien unter Bedingungen.csv in einem eigenen Verzeichnis um und speichern Sie sie. Die empfohlene Verzeichnisstruktur finden Sie hier: Ähnlichkeiten/Mustermaterialien/Themendaten und im Projekt README.
    HINWEIS: Wie in Schritt 4 beschrieben, wird jedes Experiment fünfmal im Standarddesign wiederholt, im Laufe von 10 Stunden langen Sitzungen, jeweils an einem separaten Tag. Die Probanden sollten gebeten werden, nur für eine Sitzung pro Tag zu kommen, um Müdigkeit zu vermeiden. Siehe Tabelle 1 für die Anzahl der Versuche und Sitzungen, die für Stimulus-Sets unterschiedlicher Größe benötigt werden.

4. Ausführen des Experiments und Sammeln von Ähnlichkeitsdaten

  1. Erklären Sie den Probanden die Aufgabe und geben Sie ihnen Anweisungen. In jeder Studie sehen die Probanden einen zentralen Referenzreiz, der von acht Reizen umgeben ist, und werden gebeten, die Reize in der Umgebung in der Reihenfolge der Ähnlichkeit mit der zentralen Referenz zu klicken, d.h. sie sollten auf die ähnlichste erste und die am wenigsten ähnliche letzte klicken.
  2. Bitten Sie sie, eine konsistente Strategie zu verwenden. Sagen Sie ihnen, dass ihnen im Laufe der 10 Sitzungen mehrmals die gleiche Konfiguration von Reizen gezeigt wird. Wenn die Studie die Darstellung semantischer Informationen untersucht, stellen Sie sicher, dass die Probanden mit den Reizen vertraut sind, bevor sie beginnen.
  3. Navigieren Sie zum entsprechenden Testverzeichnis (siehe Schritt 2.1). Wenn dies das erste Mal ist, dass der Test ausgeführt wird, erstellen Sie ein Verzeichnis namens subject-data, um die Antworten des Subjekts zu speichern. Erstellen Sie darin zwei Unterverzeichnisse: unformatiert und vorverarbeitet. Erstellen Sie für jedes Subjekt ein Unterverzeichnis innerhalb von subject-data/raw.
  4. Kopieren Sie die in Schritt 3 für die jeweilige Sitzung vorbereitete Datei conditions.csv und fügen Sie sie in das aktuelle Verzeichnis ein, d.h. in das Verzeichnis, das die psyexp-Datei enthält. Wenn dort bereits eine Datei mit dem Namen conditions.csv vorhanden ist, stellen Sie sicher, dass Sie sie durch die Datei für die aktuelle Sitzung ersetzen.
  5. Öffnen Sie PsychoPy und öffnen Sie dann die psyexp- oder py-Datei im Verzeichnis des entsprechenden Experiments. Klicken Sie in PsychoPy auf die grüne Play-Schaltfläche , um das Experiment auszuführen. Geben Sie im modalen Popup-Fenster den Betreffnamen oder die ID und die Sitzungsnummer ein. Klicken Sie auf OK, um zu beginnen. Anweisungen werden zu Beginn jeder Sitzung angezeigt.
  6. Lassen Sie dem Betreff ca. 1 Stunde Zeit, um die Aufgabe zu erledigen. Da die Aufgabe selbstgesteuert ist, ermutigen Sie die Probanden, bei Bedarf Pausen einzulegen. Wenn das Subjekt die Sitzung beendet, wird PsychoPy automatisch beendet und Dateien werden im Verzeichnis similarities/experiments/_exp/data generiert.
  7. Übertragen Sie diese in das Verzeichnis subject-data/raw/ (erstellt in Schritt 4.3). Die empfohlene Verzeichnisstruktur finden Sie in der README-Datei.
    HINWEIS: Wie bereits erwähnt, dient die Protokolldatei zur Fehlerbehebung. Die häufigste Ursache für das unerwartete Schließen von PsychoPy ist, dass ein Proband während einer Sitzung versehentlich auf Escape drückt. In diesem Fall werden die Antworten für Studien bis zum letzten abgeschlossenen Versuch weiterhin in die Antwortdatei.csv Datei geschrieben.
  8. Wenn PsychoPy unerwartet geschlossen wird, öffnen Sie es erneut und erstellen Sie eine neue Bedingungen.csv Datei mit nur den Studien, die nicht versucht wurden. Ersetzen Sie die Bedingungsdatei der vorhandenen Sitzung durch diese, und führen Sie den Test erneut aus. Stellen Sie sicher, dass Sie die generierten Dateien am entsprechenden Ort speichern. Am Ende der Sitzung können die beiden Antwortdateien manuell zu einer kombiniert werden, obwohl dies nicht erforderlich ist.
  9. Wiederholen Sie für jede der verbleibenden Sitzungen die Schritte 4.4 bis 4.8.
  10. Nachdem alle Sitzungen abgeschlossen sind, kombinieren Sie die Rohdatendateien und formatieren Sie sie zur weiteren Verarbeitung in einer einzigen JSON-Datei neu. Führen Sie dazu preprocess.py im Terminal (Ähnlichkeiten/Analyse/Vorprozess.py) wie folgt aus:
    cd ~/Ähnlichkeiten
    conda aktivieren venv_sim_3.8
    python -m analysis.preprocess
  11. Wenn Sie dazu aufgefordert werden, geben Sie die angeforderten Eingabeparameter ein: den Pfad zum Subjektdatenverzeichnis, die Betreff-IDs, für die die Daten vorverarbeitet werden sollen, und den Versuchsnamen (der zum Benennen der Ausgabedatei verwendet wird). Drücken Sie die Eingabetaste.
  12. Beenden Sie die virtuelle Umgebung:
    Conda deaktivieren
    HINWEIS: Dadurch wird eine JSON-Datei im Ausgabeverzeichnis erstellt, die Antworten über Wiederholungen hinweg für jede Testversion kombiniert. Ähnlichkeitsdaten werden aus Fachdaten/roh eingelesen und in Fachdaten geschrieben/vorverarbeitet.

5. Analyse von Ähnlichkeitsurteilen

HINWEIS: Die Probanden werden gebeten, auf Stimuli in der Reihenfolge ihrer Ähnlichkeit mit der Referenz zu klicken, wodurch eine Rangfolge in jeder Studie angegeben wird. Für Standardexperimente wiederholen Sie jeden Versuch fünfmal, wobei fünf Rangordnungen derselben acht Reize erzeugt werden (siehe Abbildung 2B). Diese Rangurteile werden als eine Reihe von Vergleichen interpretiert, in denen ein Subjekt Paare von Wahrnehmungsabständen vergleicht. Es wird davon ausgegangen, dass das Subjekt vor jedem Klick die folgende Frage stellt: "Ist der (Wahrnehmungs-)Abstand zwischen Referenz und Reiz A kleiner als der Abstand zwischen Referenz und Reiz B?" Wie in Abbildung 2C gezeigt, ergibt dies Auswahlwahrscheinlichkeiten für mehrere paarweise Ähnlichkeitsvergleiche für jede Studie. Die folgende Analyse verwendet diese Auswahlwahrscheinlichkeiten.

Figure 2
Abbildung 2: Abrufen von Auswahlwahrscheinlichkeiten aus Ranking-Urteilen. (A) Eine Illustration eines Versuchs aus dem von uns durchgeführten Wortexperiment. (B) Für dieselbe Prüfung wurden im Laufe mehrerer Sitzungen fünf Rangordnungen ermittelt. (C) Auswahlwahrscheinlichkeiten für die paarweisen Unähnlichkeitsvergleiche, die die Rangfolgeurteile darstellen. Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

  1. Bestimmen Sie paarweise Auswahlwahrscheinlichkeiten aus Rangordnungsurteilen.
    1. Führen Sie unter Ähnlichkeiten/Analyse describe_data.py in der Befehlszeile aus.
      cd ~/Ähnlichkeiten
      conda aktivieren venv_sim_3.8
      python -m analysis.describe_data
    2. Wenn Sie dazu aufgefordert werden, geben Sie den Pfad zu subject-data/preprocessed und die Liste der Probanden ein, für die die Analyse durchgeführt werden soll.
      HINWEIS: Dadurch werden drei Arten von Diagrammen erstellt: i) die Verteilung der Auswahlwahrscheinlichkeiten für den vollständigen Datensatz eines bestimmten Subjekts, ii) Heatmaps zur Bewertung der Konsistenz zwischen Auswahlwahrscheinlichkeiten für Paare von Probanden und iii) eine Heatmap von Auswahlwahrscheinlichkeiten für alle Vergleiche, die in zwei Kontexten auftreten, um Kontexteffekte zu bewerten. Operativ bedeutet dies, Auswahlwahrscheinlichkeiten in Versuchspaaren zu vergleichen, die die gleiche Referenz und ein gemeinsames Reizpaar im Ring enthalten, sich aber in allen anderen Reizen im Ring unterscheiden: Die Heatmap zeigt, wie die Auswahlwahrscheinlichkeit von diesem Kontext abhängt.
  2. Generieren Sie niedrigdimensionale euklidische Modelle der Wahrnehmungsräume unter Verwendung der Auswahlwahrscheinlichkeiten. Führen Sie model_fitting.py in der Befehlszeile wie folgt aus:
    cd ~/Ähnlichkeiten
    conda aktivieren venv_sim_3.8
    python -m analysis.model_fitting
    1. Geben Sie die folgenden Eingabeparameter an, wenn Sie dazu aufgefordert werden: Pfad zum Betreffdaten/vorverarbeiteten Verzeichnis; die Anzahl der Stimuli (standardmäßig 37); die Anzahl der Iterationen (die Häufigkeit, mit der die Modellierungsanalyse ausgeführt werden soll); das Ausgabeverzeichnis; und die Menge des Gaußschen Rauschens (standardmäßig 0,18).
      HINWEIS: Die Ausführung dieses Skripts dauert einige Stunden. Wenn Sie fertig sind, werden npy-Dateien mit den am besten geeigneten Koordinaten für 1D-, 2D-, 3D-, 4D- und 5D-Modelle, die die Ähnlichkeitsdaten beschreiben, in das Ausgabeverzeichnis geschrieben. Es wird eine CSV-Datei mit Log-Likelihood-Werten der verschiedenen Modelle generiert.
  3. Visualisieren Sie die Log-Wahrscheinlichkeit der erhaltenen Modelle und bewerten Sie ihre Passung. Führen Sie dazu Ähnlichkeiten/Analysen/model_fitting_figure.py in der Befehlszeile aus:
    cd ~/Ähnlichkeiten
    python -m analysis.model_fitting_figure
    1. Wenn Sie dazu aufgefordert werden, geben Sie den gewünschten Parameter ein: den Pfad zu den CSV-Dateien, die Protokollwahrscheinlichkeiten enthalten (aus Schritt 5.2).
    2. Analysieren Sie die generierte Abbildung, zeigen Sie die Log-Wahrscheinlichkeiten auf der y-Achse und modellieren Sie die Bemaßungen auf der x-Achse. Als Vernunftprüfung sind neben den euklidischen Modellen zwei Modelle enthalten: ein Zufallswahlmodell und ein bestmögliches Modell.
      HINWEIS: Das Zufallsauswahlmodell geht davon aus, dass die Probanden zufällig klicken. Somit bietet es eine absolute Untergrenze für die Log-Wahrscheinlichkeit für jedes Modell, das besser als zufällig ist. In ähnlicher Weise gibt es als Obergrenze für die logarithmische Wahrscheinlichkeit (am besten gekennzeichnet) die logarithmische Wahrscheinlichkeit eines Modells, das die empirischen Auswahlwahrscheinlichkeiten als Modellwahrscheinlichkeiten verwendet.
    3. Stellen Sie sicher, dass kein euklidisches Modell das beste Modell übertrifft, da das beste Modell konstruktionsbedingt überangepasst und nicht durch geometrische Überlegungen eingeschränkt ist. Überprüfen Sie, ob die aufgetragenen Wahrscheinlichkeiten relativ zur besten logarithmischen Wahrscheinlichkeit sind.
  4. Visualisieren Sie die Wahrnehmungsräume für jedes Motiv. Generieren Sie Streudiagramme, die die Punkte aus dem 5D-Modell zeigen, das auf die ersten beiden Hauptkomponenten projiziert wird. Führen Sie dazu Ähnlichkeiten/Analysen/perceptual_space_visualizations.py in der Befehlszeile aus:
    cd ~/Ähnlichkeiten
    python -m analysis.perceptual_space_visualizations
    1. Wenn Sie dazu aufgefordert werden, geben Sie die Parameter ein: die Betreff-IDs (getrennt durch Leerzeichen) und den Pfad zur npy-Datei, die die aus Schritt 5.2 erhaltenen 5D-Punkte enthält.
    2. Nachdem die Ausführung des Skripts abgeschlossen ist, beenden Sie die virtuelle Umgebung:
      Conda deaktivieren
      HINWEIS: Dieses Skript dient zur Visualisierung der Ähnlichkeitsurteile. Es wird ein 2D-Streudiagramm erstellt, indem die 5D-Punkte auf die ersten beiden Hauptkomponenten projiziert werden, die auf gleiche Varianz normiert sind. Zwei Punkte werden weiter auseinander liegen, wenn das Subjekt sie weniger ähnlich betrachtet und umgekehrt.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Abbildung 1A zeigt einen Teil einer Bedingungsdatei, die vom Skript in Schritt 3.3 für das Wortexperiment generiert wurde. Jede Zeile entspricht einer Studie. Der Stimulus in der ref-Spalte wird in der Mitte des Displays angezeigt. Die Spaltennamen stim1 bis stim8 entsprechen acht Positionen entlang eines Kreises, die gegen den Uhrzeigersinn verlaufen und von der Position rechts von der zentralen Referenz ausgehen. Eine Beispielstudie aus dem Wortexperiment ist in Abbildung 1B dargestellt.

Um die Machbarkeit und Reproduzierbarkeit nachzuweisen, wurde ein Experiment durchgeführt, bei dem das Reizset die Namen von 37 Tieren umfasste. Vollständige Datensätze wurden von acht gesunden Probanden mit normalem Sehvermögen im Rahmen einer Studie gesammelt. Um die Methode zu demonstrieren, werden hier Daten von drei dieser Probanden gezeigt, von denen zwei dem Zweck der Studie gegenüber naiv waren. Die Einwilligung nach Aufklärung wurde in Übereinstimmung mit der Deklaration von Helsinki und den institutionellen Richtlinien des Weill Cornell Medical College eingeholt.

Nach der Datenerhebung wurde die oben beschriebene Erstverarbeitung (Protokollschritt 4.10-4.12) durchgeführt. Die Antworten der Probanden in jedem Versuch wurden als eine Reihe unabhängiger, binärer Entscheidungen der Form "Ist der Abstand zwischen der Referenz und s1 kleiner als der zwischen der Referenz und s2?" für alle Paare von Reizen im umgebenden Ring interpretiert. Rangurteile wurden in solche paarweisen Entscheidungen zerlegt, wie in Abbildung 2C gezeigt.

Abbildung 3A zeigt die Verteilung dieser Auswahlwahrscheinlichkeiten, die über die Probanden hinweg sehr konsistent war (Protokollschritt 5.1). Da jeder Versuch fünfmal wiederholt wurde, nahmen die Auswahlwahrscheinlichkeiten die folgenden Werte an: 0, 0,2, 0,4, 0,6, 0,8 und 1. Die häufigsten Auswahlwahrscheinlichkeiten sind 0 und 1, was 50%-70% aller Entscheidungen in jedem der Probanden entspricht; Dies sind die Urteile, für die jedes Mal eine Option gewählt wird. Beispielsweise würde die Beurteilung des Abstands zwischen s1 und s2 als kleiner als der zwischen s1 und s3 0 von 5 Mal einer Auswahlwahrscheinlichkeit von 0 entsprechen; Dieses Urteil 5 von 5 Mal zu fällen, würde einer Wahlwahrscheinlichkeit von 1 entsprechen. Insbesondere gibt es eine große Konsistenz in den Auswahlwahrscheinlichkeiten zwischen den Probanden, selbst für die Urteile, die nicht an den Extremen liegen, wie die Clusterung der Daten in der Nähe der Diagonale in jedem der Panels in Abbildung 3B zeigt.

Als nächstes wurden Kontexteffekte bewertet. Dies war aufgrund eines wichtigen Merkmals des experimentellen Designs möglich: Viele Tripletts eines Referenzstimulus und zwei Vergleichstimuli s1 und s2 werden in zwei Kontexten wiederholt (d.h. mit unterschiedlichen Sätzen von sechs anderen Reizen, um das Reizarray zu vervollständigen). Dann wurde die Auswahlwahrscheinlichkeit für jeden paarweisen Vergleich in jedem Kontext separat tabellarisch dargestellt. Die dominante Diagonale in Abbildung 4 zeigt, dass für jedes Subjekt die Auswahlwahrscheinlichkeiten in den beiden Kontexten - einschließlich der Auswahlwahrscheinlichkeiten, die zwischen 0 und 1 liegen - nahezu identisch sind. Wenn die Auswahlwahrscheinlichkeiten stark vom Kontext abhängen würden, wären sie nicht stark korreliert, und diese Diagonale wäre nicht prominent.

Kontexteffekte wurden auch durch eine statistische Maßnahme bewertet. Das Maß des Kontexteffekts ist wie folgt aufgebaut. Der erste Schritt besteht darin, eine Ungleichgewichtsstatistik für den beobachteten Datensatz zu berechnen (siehe unten), die quantifiziert, inwieweit die beobachteten Urteile vom Kontext abhängig zu sein scheinen. Wir konstruieren dann 10000 simulierte Datensätze mit den gleichen Versuchskonfigurationen, Versuchszahlen und Gesamtauswahlwahrscheinlichkeiten wie die tatsächlichen Daten, die jedoch auf eine Weise generiert werden, die keine Kontexteffekte enthält - indem wir die beobachteten Urteile zufällig den beiden Kontexten zuordnen. Als nächstes berechnen wir die Ungleichgewichtsstatistik für diese simulierten Datensätze, genau wie es für die beobachteten Antworten getan wurde. Schließlich vergleichen wir die Ungleichgewichtsstatistik für die beobachteten Antworten mit der Ungleichgewichtsstatistik für die simulierten Datensätze, um die Wahrscheinlichkeit zu bestimmen, dass das beobachtete Ungleichgewicht aus einem Datensatz ohne Kontexteffekt hätte erhalten werden können. Ein empirischer p-Wert von < 0,05 deutet darauf hin, dass ein Kontexteffekt vorliegt. Für die Daten in Abbildung 4 lagen die p-Werte bei 0,98, 0,30 und 0,33, für S4, S7 bzw. S9, d. h. alle Werte waren > 0,05.

Die Ungleichgewichtsstatistik für einen Datensatz wird als Summe der Beiträge über alle Dreiklänge berechnet, die in zwei Kontexten auftreten. Der Beitrag für jeden Dreiklang (z. B. d(ref, s1) mit d(ref, s2)) wird wie folgt bestimmt. Zuerst werden die Urteile für diesen Dreiklang in einer 2 x 2-Tabelle zusammengefasst. Die Spalten entsprechen den beiden Kontexten, sodass die Spaltensummen durch die Gesamtzahl der Präsentationen in diesem Kontext eingeschränkt sind. Die Zeilen entsprechen den Zählungen der alternativen Urteile d(ref, s1) < d(ref, s2) oder d(ref, s1) > d(ref, s2), so dass die Zeilensummen durch die beobachteten Entscheidungen, summiert über Kontexte hinweg, eingeschränkt werden. Da der zweischwänzige Fisher-Exakttest14 die Wahrscheinlichkeit ergibt, dass eine Tabelle mit der beobachteten (oder größeren) Interaktion zwischen Zeilen und Spalten (Urteile und Kontexte) zu sehen wäre, wenn tatsächlich keine Wechselwirkung vorhanden ist, verwenden wir den negativen Logarithmus dieser Wahrscheinlichkeit als Beitrag dieser Triade zur Gesamtungleichgewichtsstatistik. Die Summierung der negativen Logarithmen zu einer Gesamtungleichgewichtsstatistik erfasst somit die gemeinsame Wahrscheinlichkeit des beobachteten Ungleichgewichts über Triaden hinweg unter der Nullhypothese ohne Kontexteffekt.

Um die mentale Repräsentation der Tiernamen zu modellieren, wurden euklidische Modelle von Wahrnehmungsräumen mit 1, 2, 3, 4 und 5 Dimensionen unter Verwendung eines Maximum-Likelihood-Ansatzes abgeleitet. Die Antworten der Probanden wurden als Entscheidungen modelliert, die den Vergleich zweier Entfernungen mit additivem Gaußschem Rauschen widerspiegelten, das Fehler bei der Schätzung darstellt, d. h. Lärm in der Entscheidungsphase. Abbildung 5 zeigt logarithmische Wahrscheinlichkeiten (pro Entscheidung) von fünf euklidischen Modellen. Die logarithmischen Wahrscheinlichkeiten werden relativ zur logarithmischen Wahrscheinlichkeit des besten Modells dargestellt, d.h. eines Modells, das jedem Vergleich die beobachtete Auswahlwahrscheinlichkeit zuordnet, ohne diese Wahrscheinlichkeiten durch eine geometrische Betrachtung einzuschränken. Um diese logarithmischen Wahrscheinlichkeiten in die richtige Perspektive zu rücken, wird auch die logarithmische Wahrscheinlichkeit eines Zufallswahlmodells angegeben; Dies dient als Untergrenze für die Modellleistung. Die Modellanpassung verbessert sich mit jeder zusätzlichen Dimension. Der größte Sprung ist zwischen den 1D- und 2D-Modellen, was darauf hindeutet, dass ein einfaches 1D-Modell die Daten nicht vollständig erklärt. Das Plateau um die Dimensionen 4 bis 5 deutet jedoch darauf hin, dass selbst das 5D-Modell die Entfernungen, die für die Ähnlichkeitsurteile verantwortlich sind, nicht vollständig erfasst. Um den Ansatz zu validieren, wurde die Pipeline auch mit simulierten Daten ausgeführt. Separate Experimente wurden simuliert, um Ähnlichkeitsurteile zwischen Punkten aus 1D-, 2D-, 3D-, 4D- und 5D-Räumen zu generieren. In allen Fällen identifizierte die Methode die Dimensionalität korrekt. Darüber hinaus ergab ein Modell mit der korrekten Dimensionalität eine logarithmische Wahrscheinlichkeit, die mit der aus dem Modell erhaltenen Ground-Truth-Log-Wahrscheinlichkeit übereinstimmte.

Abschließend wurde die Organisation von Punkten in den Wahrnehmungsraummodellen visualisiert. Abbildung 6 zeigt diese Daten für einen Probanden, S7. Die Hauptkomponentenanalyse (PCA) wurde an den Punkten aus dem 5D-Modell des Wahrnehmungsraums durchgeführt. Punkte, die auf die ersten beiden und die erste bzw. dritte Hauptkomponente projiziert werden, sind in den Abbildungen 6A und 6B dargestellt, wobei die Achsen für die gleiche Varianz normalisiert werden. Abstände zwischen Punkten, die mit den experimentell gewonnenen Ähnlichkeitsurteilen übereinstimmten: Tiere, die als ähnlich wahrgenommen wurden, wurden durch Punkte gekennzeichnet, die nahe beieinander lagen.

Figure 3
Abbildung 3: Konsistenz zwischen den Themen. (A) Verteilung der Auswahlwahrscheinlichkeiten auf drei Fächer für alle paarweisen Vergleiche. (B) Auswahlwahrscheinlichkeiten für die gleichen paarweisen Vergleiche über Paare von Probanden hinweg. Der Farbbalken zeigt das Verhältnis der beobachteten Gelenkwahrscheinlichkeit zur unabhängigen Gelenkwahrscheinlichkeit. Hohe Werte entlang der Hauptdiagonale weisen auf Konsistenz zwischen den Themen hin. Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

Figure 4
Abbildung 4: Kontexteffekte. Auswahlwahrscheinlichkeiten für alle paarweisen Vergleiche, die in zwei Kontexten für jedes der drei Subjekte durchgeführt wurden. A bezieht sich willkürlich auf einen Kontext, in dem ein Dreiklang dargestellt wurde, und B bezieht sich auf den anderen Kontext. Der Farbbalken zeigt das Verhältnis der beobachteten Gelenkwahrscheinlichkeit zur unabhängigen Gelenkwahrscheinlichkeit. Hohe Werte entlang der Hauptdiagonale weisen auf fehlende Kontexteffekte hin. Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

Figure 5
Abbildung 5: Ergebnisse der Modellanpassungsanalyse. Relative logarithmische Wahrscheinlichkeiten für Modelle unterschiedlicher Dimensionen sowie für das Zufallswahlmodell (untere Grenze), dargestellt für drei Probanden. Eine relative logarithmische Wahrscheinlichkeit von Null entspricht der logarithmischen Wahrscheinlichkeit des besten Modells, bei der Auswahlwahrscheinlichkeiten ohne Berücksichtigung der Geometrie mit den empirischen Auswahlwahrscheinlichkeiten übereinstimmen. Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

Figure 6
Abbildung 6: Der Wahrnehmungsraum eines Subjekts (S7) im Detail. Die Projektion von 5D-Koordinaten, die aus der Modellierung erhalten wurden, projiziert auf die ersten beiden Hauptkomponenten in (A) und auf die erste und dritte Hauptkomponente in (B). Achsen werden so skaliert, dass die Varianz entlang jeder Achse gleich ist. Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

Tabelle 1: Beispiele für Parametersätze Das experimentelle Paradigma kann variiert werden, um weniger oder mehr Reize, Versuche und paarweise Vergleiche zu haben. Die fett gedruckte Zeile zeigt die von uns verwendeten Parameter an. Bitte klicken Sie hier, um diese Tabelle herunterzuladen.

Tabelle 2: Parameter in analysis/config.yaml und experiments/config.yaml. Bitte klicken Sie hier, um diese Tabelle herunterzuladen.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Das hier beschriebene Protokoll ist effektiv, um Ähnlichkeitsurteile für Reize zu erhalten und zu analysieren, die visuell dargestellt werden können. Zuerst werden das experimentelle Paradigma, die Analyse und mögliche Erweiterungen diskutiert, später die Vor- und Nachteile der Methode.

Experimentelles Paradigma: Die vorgeschlagene Methode wird anhand einer Domäne von 37 Tiernamen demonstriert, und es wird ein Beispieldatensatz mit Wahrnehmungsurteilen bereitgestellt, so dass man der Analyse in Schritt 5 folgen und Teile der Abbildungen 3-6 (Protokollschritt 1.4) reproduzieren kann. Das experimentelle Design gruppiert diese 37 Reize in 222 Versuche - jeder enthält einen Referenzreiz in der Mitte und acht Vergleichsreize im umgebenden Ring - so dass mehrere Kriterien erfüllt sind: a) jeder der 37 Reize erscheint als Referenz gleich viele (sechs) Mal (222 = 37×6), b) über die sechs Versuche, in denen ein Stimulus die Referenz ist, Alle verbleibenden 36 Stimuli werden mindestens einmal als Vergleichstimuli verwendet, c) 24 Stimuli treten in genau einem Vergleich mit einer gegebenen Referenz auf und d) sechs Paare von Reizen erscheinen mit der Referenz in zwei separaten Studien. Dieser Aspekt des Paradigmas, dass sechs Paare von Vergleichsreizen in separaten Kontexten für jeden Referenzreiz auftreten, ermöglicht es, Kontexteffekte in Schritt 5 zu überprüfen (siehe Abbildung 4). Dieses Standarddesign ergibt 6216 = 222×28 Vergleiche der Form "Ist die Ähnlichkeit der Referenz zu s1 größer oder kleiner als die Ähnlichkeit der Referenz zu s2." Diese Effizienz ist möglich, weil jede der 222 Studien ein Ranking von acht Ähnlichkeiten ergibt und die acht rangierten Ähnlichkeiten 28 paarweise Vergleiche generieren. Von diesen 6216 Vergleichen werden 222 wiederholt, was 5994 eindeutige Vergleiche ergibt.

Sobald die Stimulusdomäne ausgewählt ist, ist die nächstwichtigste Designentscheidung die Anzahl der Proben. Viele alternative Designs sind möglich (Tabelle 1), mit anderen Möglichkeiten für die Art und Weise, wie Reize in verschiedenen Kontexten wiederholt werden. Wie in Abbildung 4 erwähnt, gibt es innerhalb jeder Studie ein Triplett - bestehend aus der Referenz und zwei umgebenden Reizen -, die zusammen in einer anderen Studie erscheinen. Die Anzahl der umgebenden Reize, die sich mit einem anderen Versuch mit einer gemeinsamen Referenz überschneiden - in diesem Fall gleich zwei - wird durch den Überlappungsparameter in der Analysekonfigurationsdatei gesteuert. Die Erhöhung dieses Parameters würde dazu führen, dass mehr Reize zwischen zwei Studien geteilt werden, was umfassendere Vergleiche der Entfernungsrangfolge ermöglicht, z. B. "Ist s1 der Referenz ähnlicher als s2 und ist s2 ähnlicher als s3?" in zwei Kontexten. Beispiele für andere experimentelle Designs, die mit unterschiedlichen Werten dieses und anderer Parameter möglich sind, siehe Tabelle 1. Ausführliche Informationen zu allen Parametern, deren Steuerung und wo sie geändert werden können, finden Sie in Tabelle 2. Insbesondere ist es auch möglich, die Anzahl der Stimuli, die in jedem Versuch um eine Referenz erscheinen, zu ändern, indem die Parameter num_images_per_trial und num_words_per_trial für die Bild- bzw. Wortexperimente geändert werden. Eine Vergrößerung der Umgebung würde die Anzahl der Vergleiche pro Versuch erhöhen und die Effekte des Studienkontexts verbessern; Eine Verringerung der Aufgabenkomplexität würde die Komplexität der Aufgaben verringern. Die Anzahl der Vergleichstimuli in einer Studie (Ncircle), die Anzahl der Reize im Experiment (Nstim), die Anzahl der Versuche (Ntrials), die Anzahl der eindeutigen Vergleiche (Ncomparisons) und die Anzahl der wiederholten Vergleiche (Nrepeated) sind miteinander verknüpft und hängen von der Größe der zuvor erwähnten Überlappung zwischen den Studien ab (Noverlap ) und die Anzahl der Versuche pro Referenzstimulus (k). Die Größe des Stimulussatzes wird durch m bestimmt, was eine beliebige ganze Zahl ist. Diese Beziehungen sind unten aufgeführt:

Equation 1
Equation 2
Equation 3
Equation 4
Equation 5
Equation 6

Es gibt andere Details des Paradigmas und der Datenerfassungsverfahren, die dazu beitragen, Verwechslungen zu minimieren. Die Randomisierung der Platzierung von Reizen und der Versuchsreihenfolge (Schritt 3.4) ist wichtig, damit das Subjekt auch bei wiederholten Sitzungen nicht beginnt, räumliche oder zeitliche Muster bei der Platzierung von Reizen zu erkennen. Es ist auch wichtig, den Probanden keine direkten Hinweise darauf zu geben, wie sie die Ähnlichkeit messen können (Schritt 4), da dies die Ergebnisse verzerren kann. Sie sollten selbst entscheiden, was Ähnlichkeit für sie im Kontext des konkreten Experiments bedeutet. Es ist jedoch nützlich, die Probanden nach Abschluss des Experiments zu befragen, da dies helfen kann zu verstehen, wie die Ergebnisse zwischen den Probanden variieren. Wenn eine Sitzung aus irgendeinem Grund beschädigt oder abgebrochen wurde, empfehlen wir, die gesamte Sitzung zu löschen, damit alle Testversionen gleich oft abgeschlossen werden.

Analyse von Ähnlichkeitsdaten: Das Experiment liefert für jeden Versuch Rangordnungen der Ähnlichkeit zwischen den Ncircle-Vergleichstimuli und der Referenz. Wenn sie in Vergleiche von Reizpaaren zerlegt werden, ergeben diese Versuche Auswahlwahrscheinlichkeiten für jeden der einzigartigen Vergleiche. Die Auswahlwahrscheinlichkeiten werden dann analysiert, um nach geometrischen Modellen des Wahrnehmungsraums zu suchen (Protokollschritt 5). Die Analyse versucht, die Auswahlwahrscheinlichkeiten in Bezug auf die Abstände zwischen Reizen, d(si, sj), in einem euklidischen Raum zu berücksichtigen. Das heißt, das Ziel besteht darin, jedem Stimulus Koordinaten zuzuweisen, so dass die Auswahlwahrscheinlichkeit für das Klicken auf s1 vor s2 die Wahrscheinlichkeit widerspiegelt, dass das Subjekt d(ref, s1) < d(ref, s2) beurteilt hat. Diese Anpassungsprozedur wird hier beschrieben, sowohl weil sie einige neue Elemente enthält, als auch um es einem Benutzer zu ermöglichen, sie zu ändern (Protokollschritt 5.2).

Die Analyse ist eine Art mehrdimensionales Skalierungsproblem, aber mit einigen Unterscheidungsmerkmalen. Erstens liefern die Daten eine Rangfolge von Unähnlichkeitsurteilen und nicht Schätzungen der Entfernungen. Zweitens enthält der Datensatz, obwohl umfangreich, nur eine Teilmenge aller möglichen Vergleiche von paarweisen Entfernungen. Schließlich besteht das Ziel darin, die Auswahlwahrscheinlichkeiten zu berücksichtigen, nicht nur eine binäre Entscheidung, welche Entfernung größer ist. Unter Berücksichtigung dieser Überlegungen wird die Kostenfunktion so gewählt, dass ihr Wert minimiert wird, wenn modellvorhergesagte Auswahlwahrscheinlichkeiten am ehesten die experimentell beobachteten Auswahlwahrscheinlichkeiten ergeben. Es ist daher definiert als die negative logarithmische Wahrscheinlichkeit der beobachteten Auswahlwahrscheinlichkeiten unter dem Modell, normalisiert durch die Gesamtzahl der paarweisen Vergleiche, und wird aus früheren Arbeiten angepasst15:

Equation 7

wobei N0 = Ncomparisons. Nrepeats und Nrepeats ist die Anzahl der Wiederholungen des Protokolls (d. h. die Häufigkeit, mit der jede eindeutige Studie wiederholt wird), und

Equation 8
Equation 9

Hier bezeichnet srdefür den Referenzreiz in einem Versuch, si und sj und die Reize im Ring um sr. P (d(sr, si) < d(sr, sj)) stellt die Modellwahrscheinlichkeit dar, dass der Abstand zwischen sr und si als kleiner beurteilt wird als der Abstand zwischen sr und sj und C bezeichnet die Häufigkeit, mit der das Subjekt d(sr, si beurteilt hat) ) < d(sr, sj). Ziel der Modellierungsanalyse ist es, eine Konfiguration von Punkten in einem euklidischen Raum zu finden, die die empirischen Auswahlwahrscheinlichkeiten berücksichtigt. Iterativ passt die Minimierung die Koordinaten an, die jedem Stimulus zugeordnet sind, und dabei die Modellauswahlwahrscheinlichkeiten (P). Die Minimierung endet, wenn die Kostenfunktion nicht mehr unter die Toleranz fällt (ein einstellbarer Parameter namens Toleranz steuert dies) oder wenn die maximale Anzahl von Iterationen erreicht wird (gesteuert durch Parameter max_iterations).

Um die Stimuluskoordinaten mit den Modellauswahlwahrscheinlichkeiten zu verbinden, wird davon ausgegangen, dass ein Subjekt - bei der Auswahl zwischen zwei Klickreize in einem Versuch - einen internen Vergleich seiner relativen Abstände zur Referenz durchführt, nämlich d(sr, si) und d(sr, sj). Diese Abstände sind (standardmäßig) die gewöhnlichen euklidischen Abstände zwischen Punkten, die den Reizen sr, si und sj zugeordnet sind. Darüber hinaus wird angenommen, dass dieser mentale Vergleich ein internes Rauschen aufweist, das wir als additive Gaußsche Quelle der Standardabweichung σ modellieren, ein Modell, das von Maloney et al.16,17 für eindimensionale Domänen eingeführt und auch für mehrdimensionale Domänen verwendet wird15. Die Modellauswahlwahrscheinlichkeiten werden mit den Koordinaten in Beziehung gesetzt, indem

Equation 10

Das interne Rauschen kann σ durch variierendes Sigma in der Analysekonfigurationsdatei gesteuert werden. Um den Algorithmus mit einer Menge von Stimuluskoordinaten zu initialisieren, wurden die Rangordnungsurteile verwendet, um eine Menge ungefährer Abstände zu erhalten, und dann wurde die standardmäßige mehrdimensionale Skalierung10 auf diese Entfernungen angewendet, um die Anfangskoordinaten zu erhalten. Diese ungefähren Entfernungen wurden bestimmt, indem die Gewinne und Verluste für jedes Reizpaar gezählt wurden. Das heißt, wenn man sich alle paarweisen Vergleiche in den Daten ansieht, wird jedes Mal, wenn eine Entfernung d(sr, sk) als größer beurteilt wird als eine andere, d(sr, sn), ein Gewinn für die größere Entfernung d(sr, sk) und ein Verlust für d(sr, sn) protokolliert. ). Die Kernidee ist, dass je größer der Abstand zwischen zwei Reizen ist, desto öfter wird er als größer beurteilt als ein anderer Abstand (in Bezug auf Gewinne) und umgekehrt. Nach dem Durchlaufen aller Vergleiche und der tabellarischen Darstellung der Gewinne und Verluste jedes Reizpaares werden die Entfernungsschätzungen wie folgt berechnet:

Equation 11

Sobald dies geschehen ist, wird der anfängliche Satz von Koordinaten bestimmt, indem die standardmäßige metrische mehrdimensionale Skalierung auf dinit (si, sj) angewendet wird.

Die so beschriebene Minimierungsroutine wird unabhängig voneinander ausgeführt, um Modelle mit 1, 2, 3, 4 und 5 Dimensionen zu erhalten. In jedem Fall werden die optimalen Koordinaten der abgeleiteten Stimuluspunkte, sowie der Wert der Kostenfunktion, d.h. die negative logarithmische Wahrscheinlichkeit der empirischen Auswahlwahrscheinlichkeiten, zurückgegeben. Die logarithmische Wahrscheinlichkeit ist in Abbildung 5 relativ zur bestmöglichen logarithmischen Wahrscheinlichkeit dargestellt, die ähnlich wie in Gleichung 1 berechnet wird, mit

Equation 12,

für alle Vergleiche. Als Vernunftprüfung wird in Abbildung 5 auch die zufällige Log-Wahrscheinlichkeit des Modells, eine Untergrenze zur Beurteilung der Leistung der Modelle, dargestellt. Bei der Berechnung der Zufallswahl-Log-Wahrscheinlichkeit setzen wir

Equation 13

für alle Vergleiche.

Mögliche Erweiterungen: Erstens kann, wie bereits erwähnt, das experimentelle Paradigma modifiziert werden, um Reizsätze unterschiedlicher Größe aufzunehmen, und die Anzahl der Reize im Ring kann geändert werden, um eine unterschiedliche Anzahl von paarweisen Vergleichen pro Versuch zu erhalten (siehe Tabelle 1).

Zweitens kann es nützlich sein, nicht-euklidische Entfernungsmetriken in der Analyse zu verwenden. Zum Beispiel fand eine Studie heraus, dass die Stadtblockmetrik einen Wahrnehmungsraum von Oberflächenhelligkeit und Beleuchtung besser darstellt18. Die vorgeschlagene Methode kann verallgemeinert werden, so dass Modelle mit anderen Entfernungsmetriken, z. B. einer Stadtblockentfernung, einer Minkowski-Entfernung oder einer hyperbolischen Entfernung19, an Ähnlichkeitsdaten angepasst sind. Dazu müsste man den bereitgestellten Code modifizieren und eine alternative Entfernungsmetrik implementieren. Die wichtigste erforderliche Änderung befindet sich in Zeile 105 (Funktionsname: dist_model_ll_vectorized) in der Datei Ähnlichkeiten/Analyse/pairwise_likelihood_analysis.py.

Stärken und Grenzen: Eine wesentliche Stärke des vorgeschlagenen Ansatzes besteht darin, dass er einen flexiblen Rahmen für die Gestaltung von Experimenten mit verschiedenen Stimulus-Set-Größen, verschiedenen Vergleichen, Wiederholungen oder der Anzahl der Stimuli pro Versuch sowie verschiedenen überlappenden Setgrößen zur Messung von Kontexteffekten bietet. Durch Ändern der Größe der Überschneidung zwischen Prozessen und der Größe der Umgebung in einem Prozess kann man die Rolle des Kontexts in Ähnlichkeitsurteilen untersuchen, während man eine hohe Anzahl von paarweisen Ähnlichkeitsurteilen pro Prozess erhält. Die Methode adressiert viele Einschränkungen früherer experimenteller Paradigmen zur Erfassung von Ähnlichkeitsdaten. Im Gegensatz zu den anordnungsbasierten Methoden12,20 (bei denen Stimuli auf einer euklidischen 2D-Ebene angeordnet werden müssen, wobei ähnliche Elemente zusammen platziert und verschiedene Elemente getrennt platziert werden) und den Sortiermethoden (bei denen Stimuli in Stapel kategorisiert werden müssen)11 veranlasst die Ranking-Methode die Probanden nicht, ihre interne Darstellung auf eine geometrische Struktur zu projizieren. Eine weitere Einschränkung einiger früherer Methoden - z. B. Verwechslungsmatrizen, bei denen zwei Reize als ähnlich angesehen werden, wenn sie bei Schnellerkennungsaufgaben miteinander verwechselt werden21 - besteht darin, dass sie keine abgestuften Maße ergeben. Diese Methode liefert abgestufte Maße, d.h. die Auswahlwahrscheinlichkeiten.

Wie oben betont, ist die Sammlungsmethode insofern flexibel, als sie nicht davon ausgeht, dass die innere Darstellung ein euklidischer Raum ist. Hier testet die Analysemethode nur euklidische Modelle; Es kann jedoch durch lokalisierte Modifikationen im Quellcode auch um nicht-euklidische Modelle erweitert werden. Das Modellierungsframework ist jedoch nicht darauf ausgelegt, Kontexteffekte zu berücksichtigen. Wenn sie von Bedeutung wären, würde dies einen Vorbehalt gegen die Schlussfolgerungen auferlegen, die gezogen werden könnten.

Die vorgeschlagene Methode ist zeiteffizienter als der gepaarte Vergleichsansatz. Jeder Versuch des Paradigmas dauert etwa ~ 30 s (Probanden führen 111 Studien in einer Stunde durch), was 111×28 = 3108 Vergleiche pro Stunde ergibt. Es ist unwahrscheinlich, dass Einzelvergleichsstudien weniger als 3 s pro Versuch dauern, was 1200 Vergleiche pro Stunde ergeben würde. Darüber hinaus gibt es eine zweite Stufe der Effizienz: Der derzeitige Ansatz erfordert keine Vergleiche aller paarweisen Abstände. Für das Beispiel im Manuskript entspricht der vollständige Satz paarweiser Abstände 221445 Vergleichen, aber im vorliegenden Ansatz reicht eine spärliche Teilmenge von 5994 eindeutigen Vergleichen, die jeweils 5 oder 10 Mal wiederholt werden, aus, um die Ähnlichkeitsdaten zu modellieren. Obwohl die Methode effizient ist, ist sie immer noch zeitaufwendig und erfordert ein erhebliches Engagement der Probanden. Infolgedessen ist es kein praktikabler Ansatz für eine Reihe von Hunderten von Reizen, es sei denn, die Daten werden über Themen hinweg gebündelt. Schließlich ist der Ansatz nicht direkt auf nichtvisuelle Reize anwendbar.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Die Autoren haben nichts offenzulegen.

Acknowledgments

Die Arbeit wird durch Mittel der National Institutes of Health (NIH), Grant EY07977, unterstützt. Die Autoren danken auch Usman Ayyaz für seine Unterstützung beim Testen der Software und Muhammad Naeem Ayyaz für seine Kommentare zum Manuskript.

Materials

Name Company Catalog Number Comments
Computer Workstation N/A N/A OS: Windows/ MacOS 10 or higher/ Linux; 3.1 GHz Dual-Core Intel Core i5 or similar; 8GB or more memory; User permissions for writing and executing files
conda Version 4.11 OS: Windows/ MacOS 10 or higher/ Linux
Microsoft Excel Microsoft Any To open and shuffle rows and columns in trial conditions files.
PsychoPy N/A Version 2021.2 Framework for running psychophysical studies
Python 3 Python Software Foundation Python Version 3.8 Python3 and associated built-in libraries
Required Python Libraries N/A numpy version: 1.17.2 or higher; matplotlib version 3.4.3 or higher; scipy version 1.3.1 or higher; pandas version 0.25.3 or higher; seaborn version 0.9.0 or higher; scikit_learn version 0.23.1 or higher; yaml version 6.0 or higher  numpy, scipy and scikit_learn are computing modules with in-built functions for optimization and vector operations. matplotlib and seaborn are plotting libraries. pandas is used to reading in and edit data from csv files.

DOWNLOAD MATERIALS LIST

References

  1. Edelman, S. Representation is representation of similarities. TheBehavioral and Brain Sciences. 21 (4), 449-498 (1998).
  2. Hahn, U., Chater, N. Concepts and similarity. Knowledge, Concepts and Categories. , The MIT Press. 43-84 (1997).
  3. Kriegeskorte, N., Kievit, R. A. Representational geometry: integrating cognition, computation, and the brain. Trends in Cognitive Sciences. 17 (8), 401-412 (2013).
  4. Hebart, M. N., Zheng, C. Y., Pereira, F., Baker, C. I. Revealing the multidimensional mental representations of natural objects underlying human similarity judgements. Nature Human Behaviour. 4 (11), 1173-1185 (2020).
  5. Deng, W. S., Sloutsky, V. M. The development of categorization: Effects of classification and inference training on category representation. Developmental Psychology. 51 (3), 392-405 (2015).
  6. Shepard, R. N. Stimulus and response generalization: tests of a model relating generalization to distance in psychological space. Journal of Experimental Psychology. 55 (6), 509-523 (1958).
  7. Coombs, C. H. A method for the study of interstimulus similarity. Psychometrika. 19 (3), 183-194 (1954).
  8. Gärdenfors, P. Conceptual Spaces: The Geometry of Thought. , The MIT Press. (2000).
  9. Zaidi, Q., et al. Perceptual spaces: mathematical structures to neural mechanisms. The Journal of Neuroscience The Official Journal of the Society for Neuroscience. 33 (45), 17597-17602 (2013).
  10. Krishnaiah, P. R., Kanal, L. N. Handbook of Statistics 2. , Elsevier. (1982).
  11. Tsogo, L., Masson, M. H., Bardot, A. Multidimensional Scaling Methods for Many-Object Sets: A Review. Multivariate Behavioral Research. 35 (3), 307-319 (2000).
  12. Kriegeskorte, N., Mur, M. Inverse MDS: Inferring dissimilarity structure from multiple item arrangements. Frontiers in Psychology. 3, 245 (2012).
  13. Rao, V. R., Katz, R. Alternative Multidimensional Scaling Methods for Large Stimulus Sets. Journal of Marketing Research. 8 (4), 488-494 (1971).
  14. Hoffman, J. I. E. Hypergeometric Distribution. Biostatistics for Medical and Biomedical Practitioners. , Academic Press. 179-182 (2015).
  15. Victor, J. D., Rizvi, S. M., Conte, M. M. Two representations of a high-dimensional perceptual space. Vision Research. 137, 1-23 (2017).
  16. Knoblauch, K., Maloney, L. T. Estimating classification images with generalized linear and additive models. Journal of Vision. 8 (16), 1-19 (2008).
  17. Maloney, L. T., Yang, J. N. Maximum likelihood difference scaling. Journal of Vision. 3 (8), 573-585 (2003).
  18. Logvinenko, A. D., Maloney, L. T. The proximity structure of achromatic surface colors and the impossibility of asymmetric lightness matching. Perception & Psychophysics. 68 (1), 76-83 (2006).
  19. Zhou, Y., Smith, B. H., Sharpee, T. O. Hyperbolic geometry of the olfactory space. Science Advances. 4 (8), (2018).
  20. Goldstone, R. An efficient method for obtaining similarity data. Behavior Research Methods, Instruments, & Computers. 26 (4), 381-386 (1994).
  21. Townsend, J. T. Theoretical analysis of an alphabetic confusion matrix. Perception & Psychophysics. 9, 40-50 (1971).

Tags

Neurowissenschaften Ausgabe 181 Wahrnehmungsraum visuelle Psychophysik multidimensionale Skalierung
Ein psychophysikalisches Paradigma zur Sammlung und Analyse von Ähnlichkeitsurteilen
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Waraich, S. A., Victor, J. D. AMore

Waraich, S. A., Victor, J. D. A Psychophysics Paradigm for the Collection and Analysis of Similarity Judgments. J. Vis. Exp. (181), e63461, doi:10.3791/63461 (2022).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter