Waiting
로그인 처리 중...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Integration visueller psychophysischer Assays in ein Y-Maze, um die Rolle zu isolieren, die visuelle Features bei Navigationsentscheidungen spielen

Published: May 2, 2019 doi: 10.3791/59281

Summary

Hier stellen wir ein Protokoll vor, um einen Verhaltenstest zu demonstrieren, der quantifiziert, wie alternative visuelle Merkmale, wie Bewegungshinweise, Richtungsentscheidungen bei Fischen beeinflussen. Repräsentative Daten werden über die Geschwindigkeit und Genauigkeit dargestellt, wo Golden Shiner (Notemigonus crysoleucas) virtuellen Fischbewegungen folgen.

Abstract

Kollektives Tierverhalten entsteht aus individuellen Motivationen und sozialen Interaktionen, die für die individuelle Fitness entscheidend sind. Fische haben lange Zeit Untersuchungen zu kollektiven Bewegungen inspiriert, insbesondere zu ihrer Fähigkeit, Umwelt- und Sozialinformationen über ökologische Kontexte hinweg zu integrieren. Diese Demo veranschaulicht Techniken zur Quantifizierung von Verhaltensreaktionen von Fischen, in diesem Fall Golden Shiner (Notemigonus crysoleucas), zu visuellen Reizen mittels Computervisualisierung und digitaler Bildanalyse. Jüngste Fortschritte in der Computervisualisierung ermöglichen empirische Tests im Labor, bei denen visuelle Funktionen gesteuert und fein manipuliert werden können, um die Mechanismen sozialer Interaktionen zu isolieren. Der Zweck dieser Methode ist es, visuelle Features zu isolieren, die die Richtungsentscheidungen des Individuums beeinflussen können, ob einsam oder mit Gruppen. Dieses Protokoll enthält Besonderheiten der physischen Y-Maze-Domäne, Aufzeichnungsgeräte, Einstellungen und Kalibrierungen des Projektors und der Animation, experimentelle Schritte und Datenanalysen. Diese Techniken zeigen, dass Computeranimation biologisch sinnvolle Reaktionen hervorrufen kann. Darüber hinaus sind die Techniken leicht anpassbar, um alternative Hypothesen, Domänen und Arten für eine breite Palette von experimentellen Anwendungen zu testen. Die Verwendung virtueller Reize ermöglicht die Reduzierung und den Ersatz der Anzahl der benötigten lebenden Tiere und reduziert somit den Laboraufwand.

Diese Demonstration testet die Hypothese, dass kleine relative Unterschiede in den Bewegungsgeschwindigkeiten (2 Körperlängen pro Sekunde) virtueller Konspezifien die Geschwindigkeit und Genauigkeit verbessern, mit der Diebe den Richtungshinweisen des virtuellen Silhouetten. Die Ergebnisse zeigen, dass Die Richtungsentscheidungen von Shinern durch die Erhöhung der Geschwindigkeit der visuellen Hinweise erheblich beeinflusst werden, selbst bei Hintergrundrauschen (67% Bildkoherenz). In Ermangelung von Bewegungshinweisen wählten die Probanden ihre Richtungen nach dem Zufallsprinzip aus. Das Verhältnis zwischen Entscheidungsgeschwindigkeit und Cue-Geschwindigkeit war variabel und die Erhöhung der Cue-Geschwindigkeit hatte einen bescheiden enunmächtigen Einfluss auf die Richtungsgenauigkeit.

Introduction

Tiere spüren und interpretieren ihren Lebensraum kontinuierlich, um fundierte Entscheidungen zu treffen, wenn sie mit anderen interagieren und in lauter Umgebung navigieren. Einzelpersonen können ihr Situationsbewusstsein und ihre Entscheidungsfindung verbessern, indem sie soziale Informationen in ihr Handeln integrieren. Soziale Informationen stammen jedoch weitgehend aus Rückschlüssen durch unbeabsichtigte Hinweise (d. h. plötzliche Manöver zur Vermeidung eines Raubtiers), die unzuverlässig sein können, und nicht durch direkte Signale, die sich entwickelt haben, um bestimmte Nachrichten zu kommunizieren (z. B. das Wackeln Tanz in Honigbienen)1. Es kann für die Ermittler eine schwierige Aufgabe sein, zu ermitteln, wie Einzelpersonen den Wert von sozialen Hinweisen oder sensorischen Informationen schnell einschätzen, insbesondere wenn Einzelpersonen in Gruppen unterwegs sind. Vision spielt eine wichtige Rolle bei der Steuerung sozialer Interaktionen2,3,4 und Studien haben die Interaktionsnetzwerke abgeleitet, die in Fischschulen auf der Grundlage des Sichtfeldes jedes Einzelnen entstehen können5, 6. Fischschulen sind jedoch dynamische Systeme, die es aufgrund der inhärenten Kolkollaturen und verwirrenden Faktoren, die sich aus den Interaktionen zwischen Gruppenmitgliedern ergeben, schwierig machen, individuelle Reaktionen auf bestimmte Merkmale oder Nachbarschaftsverhalten zu isolieren. Der Zweck dieses Protokolls ist es, die aktuelle Arbeit zu ergänzen, indem isoliert wird, wie alternative visuelle Merkmale die Richtungsentscheidungen von Personen beeinflussen können, die allein oder innerhalb von Gruppen reisen.

Der Vorteil des aktuellen Protokolls besteht darin, ein manipulatives Experiment mit Computervisualisierungstechniken zu kombinieren, um die elementaren visuellen Merkmale zu isolieren, die ein Individuum in der Natur erleben kann. Insbesondere wird das Y-Maze (Abbildung 1) verwendet, um die Richtungswahl auf eine binäre Antwort zu reduzieren und computeranimierte Bilder einzuführen, die das Schwimmverhalten virtueller Nachbarn nachahmen. Diese Bilder werden von unterhalb des Labyrinths nachoben, um die Silhouetten von Konspezifien nachzuahmen, die unter einem oder mehreren Motiven schwimmen. Die visuellen Eigenschaften dieser Silhouetten, wie Morphologie, Geschwindigkeit, Koscherenz und Schwimmverhalten,sind leicht auf alternative Hypothesen 7 zugeschnitten.

Dieses Papier zeigt den Nutzen dieses Ansatzes, indem es isoliert, wie Individuen einer Modell-Sozialfischart, der Golden Shiner (Notemigonus crysoleucas), auf die relative Geschwindigkeit virtueller Nachbarn reagieren. Der Protokollfokus liegt hier auf der Frage, ob sich der Richtungseinfluss virtueller Nachbarn mit ihrer Geschwindigkeit ändert und, wenn ja, die Form der beobachteten Beziehung quantifiziert. Insbesondere wird der Richtungshinweis dadurch erzeugt, dass ein fester Anteil der Silhouetten als Führungspersönlichkeiten fungiert und sich ballistisch auf den einen oder anderen Arm zubewegt. Die verbleibenden Silhouetten fungieren als Ablenkungshilfe, indem sie sich zufällig bewegen, um Hintergrundgeräusche bereitzustellen, die durch Anpassen des Führungs-/Ablensverhältnisses optimiert werden können. Das Verhältnis von Führungspersönlichkeiten zu Ablenkern erfasst die Koherenz der Richtungshinweise und kann entsprechend angepasst werden. Ablenkungssilhouetten bleiben auf den Entscheidungsbereich ("DA", Abbildung 1A) beschränkt, indem die Silhouetten von der Grenze reflektiert werden. Leader-Silhouetten dürfen jedoch den DA-Bereich verlassen und ihren vorgesehenen Arm betreten, bevor sie langsam verschwinden, sobald die Silhouetten 1/3 die Länge des Arms durchquert haben. Wenn Die Führungspersönlichkeiten die DA verlassen, nehmen neue Leader-Silhouetten ihren Platz ein und verfolgen ihren genauen Weg, um sicherzustellen, dass das Verhältnis von Führungskraft/Ablens während des gesamten Experiments konstant im DA bleibt.

Die Verwendung von virtuellen Fischen ermöglicht die Kontrolle der visuellen sensorischen Informationen, während die Richtungsreaktion des Themas überwacht wird, die neue Merkmale der sozialen Navigation, Bewegung oder Entscheidungsfindung in Gruppen offenbaren kann. Der hier verwendete Ansatz kann auf eine Breite von Fragen angewendet werden, wie z. B. Auswirkungen sublealischer Belastung oder Raubaufnehmen auf soziale Interaktionen, indem die Computeranimation manipuliert wird, um Verhaltensmuster unterschiedlicher Komplexität zu erzeugen.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Alle experimentellen Protokolle wurden vom Institutional Animal Care and Use Committee des Environmental Laboratory, US Army Engineer and Research and Development Center, Vicksburg, MS, USA (IACUC-2013-3284-01) genehmigt.

1. Sensorisches Labyrinth-Design

  1. Führen Sie das Experiment in einer wasserdichten Polymethylmethacrylat Y-Maze Plattform (im eigenen Haus) auf einer transparenten Unterstützungsplattform in einem speziellen Raum. Hier ist die Plattform 1,9 cm dick und wird von 4 7,62 cm Balken aus extrudiertem Aluminium gestützt, das 1,3 m breit, 1,3 m lang und 0,19 m hoch ist.
  2. Bau- und Entscheidungsbereiche baugleich konstruieren (Abbildung 1A). Hier sind die Y-Maze Arme 46 cm lang, 23 cm breit und 20 cm tief mit einem zentralen Entscheidungsbereich von ca. 46 cm Durchmesser.
  3. Halten Sie weiße Projekt-durch-Theater-Bildschirm am unteren Rand des Y-Maze für die Projektion von visuellen Reizen in die Domäne.
  4. Beschichten Sie die Seiten des Y-Maze mit weißem Vinyl, um äußere visuelle Reize zu begrenzen.
  5. Installieren Sie ein ferngesteuertes klares Tor (über klares Monofilament), um den Haltebereich vom zentralen Entscheidungsbereich zu trennen, um Die Motive nach der Akklimatisierung in das Labyrinth freizulassen.
  6. Platzieren Sie zusätzliche Jalousien, um zu verhindern, dass die Fische Lichter, Gehäuse und Ausrüstung sehen, wie z. B. lichtblockierende Jalousien, die in Türrahmen den Boden erreichen, um Lichteffekte und Schattenbewegungen aus dem Äußeren Raum oder Flur zu minimieren.

2. Kontrollgeräte

  1. Wählen Sie eine Overhead-Kamera (schwarz und weiß) basierend auf dem Kontrast zwischen den Hintergrundbildern, virtuellen Fischen und Themenfischen.
  2. Installieren Sie eine Overhead-Kamera, um das Labyrinth von oben aufzuzeichnen und das Verhalten der Fische und die visuellen Projektionen aufzuzeichnen.
    1. Verwenden Sie für diese Demo s/w Gigabyte Ethernet (GigE)-Kameras, sodass 9 m IP-Kabel an einen Computer mit einer 1-Gb-Ethernet-Karte in einem Kontrollraum angeschlossen wurden.
  3. Schließen Sie die Kamera an einen Computer in einem angrenzenden Raum an, in dem der Betrachter das Gate, das visuelle Reizprogramm und die Kameraaufnahmesoftware fernsteuern kann.
  4. Stellen Sie sicher, dass die Kameraeinstellungen bei Sampling- und Frequenzraten liegen, die flackernde Effekte verhindern, die auftreten, wenn die Kamera und software aout phase mit den Raumlichtern sind.
    1. Überprüfen Sie die elektrische Frequenz des Standorts; versatz die Abtastrate der Kamera (Frames pro Sekunde, fps), um flackern zu verhindern, indem die Wechselfrequenz durch eine ganze Zahl multipliziert oder geteilt wird.
  5. Legen Sie die Kameraeinstellungen so fest, dass die Bildklarheit mithilfe der Software und des Computers optimiert wird, um die relevanten Verhaltensweisen zu visualisieren.
    1. Führen Sie für diese Demo Samplings mit 30 fps mit einer räumlichen Auflösung von 1280 Pixelx 1024 Pixel durch.

3. Kalibrieren Sie Beleuchtungs-, Projektor- und Kameraeinstellungen

  1. Installieren Sie vier Deckenlichtsysteme an den Wänden des Versuchsraums.
  2. Installieren Sie einstellbare Steuerschalter für die Leuchten, um mehr Flexibilität bei der Erreichung der richtigen Raumumgebungsbeleuchtung zu bieten.
  3. Positionieren Sie die Lichter, um Reflexionen im Labyrinth zu vermeiden (Abbildung 1B).
  4. Sichern Sie sich einen kurzen Wurfprojektor (ST) am unteren Rand der Stützstruktur des Labyrinths (Abbildung 1C).
    1. Wählen Sie die Projektionsauflösung (für diese Demo auf 1440 Pixel x 900 Pixel eingestellt).
  5. Passen Sie die Umgebungslichtpegel, die von den Deckenleuchten und dem Projektor erzeugt werden, an die Lichtverhältnisse im Gehäuseraum der Probanden an (hier auf 134 x 5 Lux während des Demonstrationsexperiments eingestellt, was der natürlichen Beleuchtung an einem bewölkten Tag entspricht).
    1. Sperren oder markieren Sie die Position des Dimmerschalters für Leichtigkeit und Konsistenz bei experimentellen Versuchen.
  6. Verwenden Sie ein Kamera-Viewer-Programm, um die Kamera(en) so zu konfigurieren, dass belichtungsmodus, Verstärkung und Weißabgleichsteuerung gesteuert werden.
    1. Stellen Sie in dieser Demo den Pylon Viewer auf "kontinuierliche Aufnahme", 8000 S Belichtungszeit, 0 Verstärkung und 96 Weißabgleich, der die Steuerung der Videoaufzeichnung ermöglicht.

4. Kalibrieren Sie visuelleprojektionsprogramm: Hintergrund

  1. Projizieren Sie einen homogenen Hintergrund auf den Boden des Labyrinths und messen Sie jede Lichtverzerrung des Projektors. Hier wurde der Hintergrund mit Processing (V. 3) geschaffen, einer beschreibbaren und gut dokumentierten Plattform, um kundenspezifische Visualisierungen für wissenschaftliche Projekte zu erstellen (https://processing.org/examples/).
    1. Erstellen Sie ein Programm, das ein Verarbeitungsfenster ausführt, das auf den Boden des Labyrinths projiziert wird. Das Anpassen der Hintergrundfarbe des Fensters erfolgt mit dem Hintergrundbefehl, der einen RGB-Farbcode akzeptiert. Mehrere kleine Beispielprogramme finden Sie in den Verarbeitungs-Tutorials (https://processing.org/tutorials/).
    2. Verwenden Sie das Hintergrundfarbprogramm, um den Projektor und die äußeren Beleuchtungsbedingungen zu kalibrieren.
  2. Messen Sie alle vom Projektor erzeugten Lichtverzerrungen mithilfe eines Bildverarbeitungsprogramms, um Abweichungen vom erwarteten homogenen Hintergrund zu identifizieren. Die folgenden Schritte gelten für die Verwendung von ImageJ (v. 1.52h; https://imagej.nih.gov/ij/).
    1. Erfassen Sie ein Standbild des beleuchteten Y-Labyrinths mit einer einheitlichen Hintergrundfarbe und öffnen Sie es in ImageJ.
    2. Zeichnen Sie mit dem geraden, segmentierten oder Freihandlinienwerkzeug eine gerade vertikale Linie von der hellsten Position in der Mitte des Hotspots bis zum oberen Rand des Y-Labyrinths (Abbildung 2A).
    3. Wählen Sie im Menü Analysieren die Option Diagrammprofil aus, um ein Diagramm mit Graustufenwerten im Vergleich zur Entfernung in Pixeln zu erstellen.
    4. Speichern Sie Pixeldaten als durch Kommas getrennte Datei (.csv-Dateierweiterung), die aus einer Indexspalte und einer Pixelwertspalte besteht.
  3. Richten Sie die Projektionsfläche an das Labyrinth aus (Abbildung 2B) und modellieren Sie unerwünschte Lichtverzerrungen, um jegliche Farbverzerrung zu reduzieren, die vom Projektor erstellt werden kann (Abbildung 2C). Im Folgenden werden die Schritte in der aktuellen Demo beschrieben.
    1. Importieren Sie die BildJ-Pixelintensitätsdatendatei mit der entsprechenden Schreibfunktion mit durch Tabulator durch Trennzeichen (z. B. read_csv aus dem Tidyverse-Paket zum Lesen in kommagetrennten Dateien).
    2. Berechnen Sie die Variabilität der Lichtintensität entlang des Stichprobentranssekts, z. B. mit einem Variationskoeffizienten, um eine Basisreferenz für den im Hintergrund erstellten Verzerrungsgrad bereitzustellen.
    3. Transformieren Sie die rohen Pixelwerte, um eine relative Änderung der Intensität von hellst zu dimmest widerzuspiegeln, wobei sich die kleinste Pixelintensität dem gewünschten Hintergrundfarbwert nähert, der im Bildprogramm ausgewählt ist.
    4. Plotten Sie die Transformationspixelintensitätswerte, die am hellsten Teil der Anomalie beginnen, ergibt in der Regel einen zerfallenden Trend in Intensitätswerten in Abhängigkeit von der Entfernung von der Quelle. Verwenden Sie nichtlineare kleinste Quadrate (Funktion nls), um die Parameterwerte zu schätzen, die am besten zu den Daten passen (hier eine Gaußsche Zerfallsfunktion).
  4. Erstellen Sie den Zählergradienten mit demselben Programm, das zum Generieren des Hintergrundzählerbildes verwendet wurde (Verarbeitung v. 3), um farbverzerrende Farbverzerrungen zu reduzieren, die vom Projektor mit R (v. 3.5.1) erstellt werden können.
    HINWEIS: Die Gradientenfunktion generiert eine Reihe konzentrischer Kreise, die auf dem hellsten Punkt im Bild zentriert sind und sich in der Pixelintensität als Funktion des Abstands vom Zentrum ändern. Die Farbe jedes Rings wird definiert, indem die vom Modell vorhergesagte Änderung der Pixelintensität von der Hintergrundfarbe subtrahiert wird. Entsprechend erhöht sich auch der Ringradius mit dem Abstand zur Quelle. Das Modell für die beste Anpassung sollte die Pixelintensität über den Farbverlauf reduzieren, wenn nicht gar eliminieren, um eine Gleichförmigkeit im Hintergrund zu gewährleisten.
    1. Erstellen Sie einen Gaußschen Gradienten (Equation) mit dem visuellen Stimulusprogramm, indem Sie die erforderlichen Parameter anpassen.
      1. Parameter a beeinflussen die Helligkeit/Dunkelheit des Gaußschen Verteilungsgradienten. Je höher der Wert, desto dunkler der Farbverlauf.
      2. Parameter b wirkt sich auf die Varianz des Farbverlaufs aus. Je größer der Wert, desto breiter erstreckt sich der Farbverlauf, bevor er auf die gewünschte Hintergrundpixelintensität, c, abgleicht.
      3. Parameter c legt die gewünschte Hintergrundpixelintensität fest. Je größer der Wert, desto dunkler der Hintergrund.
    2. Speichern Sie das Bild in einem Ordner mit der saveFrame-Funktion, sodass während der Experimente ein festes Hintergrundbild hochgeladen werden kann, um die Speicherlast beim Rendern der Reize während einer experimentellen Testversion zu minimieren.
    3. Führen Sie das Hintergrundgenerierungsprogramm erneut aus, und überprüfen Sie die Ergebnisse visuell, wie in Abbildung 2Cdargestellt. Wiederholen Sie Schritt 4.3, um alle beobachteten Verbesserungen bei der Verringerung des Variabilitätsgrades der Lichtintensität über den Stichprobentranssekt zu quantifizieren.
  5. Passen Sie empirisch die Beleuchtungsstärken, Modellparameter oder den im Transect zurückgelegten Abstand (z. B. außenradius des Zählergradienten) an, um zusätzliche manuelle Anpassungen vorzunehmen, bis die RGB-Werte der Akklimatisierungszone dem Entscheidungsbereich ähneln. Die Modellparameter in diesem Test waren: a = 215, b = 800 und c = 4.
  6. Fügen Sie den endgültigen Filter zum Programm für visuelle Reize des Experiments hinzu.

5. Kalibrieren Sie visuelles Projektionsprogramm: visuelle Reize

HINWEIS: Das Rendern und Animieren der visuellen Reize kann auch in der Verarbeitung mithilfe der folgenden Schritte als Anleitungen zusammen mit den Tutorials der Plattform durchgeführt werden. Ein Schaltplan der Logik des aktuellen Programms ist in (Abbildung 3) und weitere Details finden Sie in Lemasson et al. (2018)7. Die folgenden Schritte enthalten Beispiele für die Kalibrierungsschritte im aktuellen Experiment.

  1. Öffnen Sie das visuelle Projektionsprogramm Vfish.pde, um die Projektion innerhalb des Entscheidungsbereichs des Labyrinths zu zentrieren (Abbildung 1A) und kalibrieren Sie die visuellen Projektionen basierend auf den getesteten Hypothesen (z. B. kalibrieren Sie die Größe und Geschwindigkeiten der Silhouetten entsprechend die der Probanden). Kalibrierungen werden im Header des Hauptprogramms (Vfish.pde) mit vorgewählten Debugging-Flags von Hand abgestimmt. Im Debugging-Modus (DEBUG = TRUE) schritt sequenziell durch jedes DEBUGGING_LEVEL_-Flag (Zahlen 0-2), um die erforderlichen Anpassungen vorzunehmen
    1. Legen Sie das FLAG DEBUGGING_LEVEL_0 auf 'true' fest, und führen Sie das Programm aus, indem Sie das Wiedergabesymbol im Skizzenfenster drücken. Ändern Sie die x- und y-Positionswerte (Domänenparameter dx bzw. dy), bis die Projektion zentriert ist.
    2. Legen Sie debugGING_LEVEL_1 auf 'true' fest, um die Größe der Fischsilhouette (als Ellipse gerendert) zu skalieren. Führen Sie das Programm aus, und passen Sie iterativ die Breite (eW) und die Länge (eL) der Ellipse an, bis sie der durchschnittlichen Größe der Testpersonen entspricht. Legen Sie anschließend die DEBUGGING_LEVEL_2 auf 'true' fest, um die Grundgeschwindigkeit der Silhouetten (ss) anzupassen.
    3. Legen Sie DEBUG = FALSE fest, um den Debugging-Modus zu beenden.
  2. Stellen Sie sicher, dass die Ablenkersilhouetten an den Entscheidungsbereich (DA, Abbildung 1A)gebunden bleiben, dass die Führungs-Silhouettenbahnen mit beiden Armbewegungen richtig ausgerichtet sind und dass das Führungs-/Ablenkverhältnis innerhalb des DA konstant bleibt.
  3. Gehen Sie durch die GUI des Programms, um die Funktionalität der Optionen sicherzustellen.
  4. Überprüfen Sie, ob die Daten ordnungsgemäß in die Datei geschrieben werden.
  5. Stellen Sie sicher, dass die Aufnahmesoftware den Gegenstand Fisch mit visuellen Projektionen an Ort und Stelle verfolgen kann. Schritte zur Verfolgung von Fischen wurden zuvor in Kaidanovich-Berlin et al. (2011)8, Holcomb et al. (2014)9, Way et al. (2016)10 und Zhang et al. (2018)11beschrieben.

6. Tierzubereitung

  1. Wählen Sie die Themenart basierend auf der Forschungsfrage und Anwendung, einschließlich Geschlecht, Alter, Genotyp. Weisen Sie den versuchshaften Haltetanks Probanden zu und erfassen Sie biometrische Basisstatistiken (z. B. Körperlänge und Masse).
  2. Stellen Sie die Umgebungsbedingungen im Labyrinth auf die des Haltesystems ein. Die Wasserqualitätsbedingungen für Basisexperimente des Verhaltens werden oft optimal für die Art und für den experimentellen Domänenaufbau gehalten.
    1. Verwenden Sie in dieser Demonstration die folgenden Bedingungen: 12 h Licht/12 h dunkler Zyklus, überKopf flimmerfreie Halogenleuchten auf 134 x 5 Lux, 22 x 0,3°C, 97,4 x 1,3 % gelösten Sauerstoff und pH-Wert von 7,8 x 0,1.
  3. Habituate die Tiere, indem sie sie für bis zu 30 min pro Tag für 5 Tage ohne die computergenerierten visuellen Reize (z.B. Fischsilhouetten) vor Beginn der Versuchsversuche auf die Domäne übertragen.
  4. Stellen Sie sicher, dass der zu diesem Zeitpunkt betroffene Fisch ausgewählt, zugewiesen, gewogen, gemessen und in Versuchstanks übertragen wird.
    HINWEIS: Hier betrugen die Standardlänge und das Nassgewicht der Golden Shiners 63,4 x 3,5 mm SL bzw. 1,8 x 0,3 g WW.
  5. Verwenden Sie einen Wasser-Wasser-Transfer, wenn Sie Fische zwischen Tanks und dem Labyrinth bewegen, um Stress durch Handhabung und Luftexposition zu reduzieren.
  6. Führen Sie Experimente während eines regelmäßigen, festen Lichtzyklus durch, der den natürlichen biologischen Rhythmus der Probanden widerspiegelt. Dies ermöglicht es den Probanden, am Ende der experimentellen Studien eines jeden Tages gefüttert zu werden, um die Verdauungseffekte auf das Verhalten zu begrenzen.

7. Experimentelles Verfahren

  1. Schalten Sie Raumprojektor- und LED-Lichtspursysteme auf vorgegebene Helligkeitsstufe ein (in dieser Vorführung 134 x 5 Lux), so dass sich die Glühbirnen erwärmen können (ca. 10 Minuten).
  2. Öffnen Sie das Kamera-Viewer-Programm und laden Sie die Einstellungen für Blende, Farbe und Aufnahme, die aus dem Setup gespeichert wurden, um sicherzustellen, dass Videos in bester Qualität erreicht werden können.
    1. Öffnen Sie Pylon Viewer und aktivieren Sie die Kamera, die für die Aufnahme verwendet werden soll.
    2. Wählen Sie Features im Dropdown-Menü der Kamera aus und navigieren Sie zum gespeicherten Kameraeinstellungsordner.
    3. Öffnen Sie die gespeicherten Einstellungen (hier als camerasettings_20181001 beschriftet), um die Videoqualität zu gewährleisten, und klicken Sie auf kontinuierliche Aufnahme.
    4. Schließen Sie Pylon Viewer.
  3. Öffnen Sie das visuelle Projektionsprogramm Vfish.pde, und überprüfen Sie, ob die Projektion im Labyrinth zentriert bleibt, dass der DataOut-Ordner leer ist und dass das Programm wie erwartet funktioniert.
    1. Stellen Sie mit Schritt 5.1.1 fest, ob der Kalibrierring im DA zentriert ist.
    2. Öffnen Sie den Ordner DataOut, um sicherzustellen, dass er für den Tag leer ist.
    3. Führen Sie das visuelle Reizprogramm aus, indem Sie im Skizzenfenster von Vfish.pde auf Play drücken, und verwenden Sie Dummy-Variablen, um die Programmfunktionalität sicherzustellen.
      1. Geben Sie die Fisch-ID-Nummer (1-16) ein, drücken Sie die Eingabetaste, und bestätigen Sie dann die Auswahl, indem Sie Y oder N für ja oder nein drücken.
      2. Geben Sie die Gruppengröße ein (hier auf 1 festgelegt) und bestätigen Sie die Auswahl.
      3. Geben Sie die gewünschte Silhouettengeschwindigkeit (0-10 BL/s) ein und bestätigen Sie die Auswahl.
      4. Drücken Sie enter, um die Akklimatisierungsphase zu hintersichten, und überprüfen Sie die Projektion der virtuellen Fische im Entscheidungsbereich.
      5. Drücken Sie Pause, um das Programm anzuhalten, und geben Sie die Dummy-Ergebnisauswahl ein, d. h. links (1) oder rechts (2).
      6. Drücken Sie Stop, um das Programm zu beenden und die Daten in die Datei zu schreiben.
    4. Überprüfen Sie, ob die Daten ordnungsgemäß in die Datei im DataOut-Ordner geschrieben wurden, und protokollieren Sie die Datei als Testlauf in den Labornotizen, bevor Fische zur Akklimatisierung in die Domäne eingefügt werden.
  4. Verwenden Sie die Uhrzeit und eine Stoppuhr, um Start- und Stoppzeiten der Testversion im Labor-Notebook zu protokollieren, um die verstrichenen Zeiten zu ergänzen, die später aufgrund der kurzen Dauer einiger Replikationsversuche aus der Videowiedergabe extrahiert werden können.
  5. Durchführung eines Wasserwechsels (z. B. 30%) mit dem Haltesystem Wasser vor der Übertragung eines Subjekts in das Labyrinth.
  6. Bestätigen Sie, dass die Wasserqualität zwischen dem Labyrinth und dem Haltesystem ähnlich ist, und überprüfen Sie die Funktion des Gates, um sicherzustellen, dass es sanft auf knapp über die Wasserhöhe gleitet.
  7. Geben Sie mithilfe des vorgegebenen Versuchsplans, der im Laufe des Experiments randomisierte Expositionen bei der Behandlung von Personen enthält, die für die aktuelle Studie ausgewählten Werte ein (Stopp am Akklimatisierungsbildschirm, Schritte 7.3.3.1 - 7.3.3.3).
    1. Zeichnen Sie Behandlungskombinationsdaten in das Labornotizbuch auf.
  8. Übertragen Sie das Thema für einen 10-minütigen Akklimatisierungszeitraum in den Y-Maze-Haltebereich.
  9. Starten Sie die Videoaufzeichnung, und drücken Sie dann am Ende der Akklimatisierungsphase die Return-Taste im Fenster Vfish.pde. Dadurch werden die visuellen Projektionen gestartet.
  10. Wenn die virtuellen Fische in der Domäne angezeigt werden, protokollieren Sie die Uhrzeit, und heben Sie das Haltetor an (Abbildung 4A).
  11. Beenden Sie die Studie, wenn sich 50 % des Körpers des Betreffenden in einen Wahlarm (Abbildung4B) bewegt oder wenn der vorgesehene Zeitraum verstreicht (z. B. 5 min).
    1. Protokollieren Sie die Uhrzeit, Start- und Stoppzeiten von der Stoppuhr und die Wahl der Probanden (d. h. links (1), rechts (2) oder keine Wahl(0)).
    2. Beenden Sie die Videoaufzeichnung, und drücken Sie Pause im visuellen Reizprogramm, das den Benutzer zur Eingabe von Testergebnisdaten auffordert (die ausgewählte Armnummer oder eine 0, um anzuzeigen, dass keine Auswahl getroffen wurde). Nach Bestätigung der Auswahl kehrt das Programm zum ersten Bildschirm zurück und wartet auf die erwarteten Werte für die nächste experimentelle Studie.
  12. Sammeln Sie das Motiv und geben Sie es an den jeweiligen Haltetank zurück. Wiederholen Sie die Schritte 7.7-7.13 für jede Testversion.
  13. Am Ende einer Sitzung (AM oder PM) drücken Sie Stop im Programm, sobald der letzte Fisch der Sitzung eine Entscheidung getroffen hat. Durch Drücken von Stopp werden die Daten der Sitzung in die Datei geschrieben.
  14. Wiederholen Sie den Wasseraustausch am Ende der Vormittagssitzung, um die Stabilität der Wasserqualität zu gewährleisten.
  15. Überprüfen Sie nach der letzten Testversion des Tages das Notizbuch des Labors, und erstellen Sie die erforderlichen Notizen.
    1. Drücken Sie im Programm für visuelle Reize stop, um die gesammelten Daten nach der letzten Testversion des Tages in den DataOut-Ordner auszugeben.
  16. Überprüfen Sie die Anzahl, den Namen und den Speicherort der vom Visualisierungsprogramm gespeicherten Datendateien.
  17. Log Wasserqualität, zusammen mit Lichtniveaus im Labyrinth Raum mit den Morgeneinstellungen zu vergleichen. Legen Sie das Belüftungssystem und die Heizungen in das Y-Maze.
  18. Schalten Sie den Projektor und die experimentelle Raumverfolgungsbeleuchtung aus.
  19. Füttern Sie Fische die vorgegebene Tagesration.

8. Datenanalyse

  1. Stellen Sie sicher, dass die experimentellen Daten die erforderlichen Variablen enthalten (z. B. Datum, Versuch, Betreff-ID, nach Programm ausgewählte Arme, getestete visuelle Faktoren, Auswahl des Betreffs, Start- und Stoppzeiten und Kommentare).
  2. Prüfen Sie, ob Aufzeichnungsfehler (menschlich oder programminduziert) aufgetreten sind.
  3. Tabellarische Reaktionen und Überprüfung auf Anzeichen von Richtungsverzerrungen seitens der Probanden (z. B. Binomialtest auf Armwahl in der Kontrollbedingung)7.
  4. Wenn das Experiment mit wiederholten Messungen an denselben Individuen entworfen wird, wie im vorliegenden Fall, wird die Verwendung von Modellen für gemischte Effekte vorgeschlagen.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Hypothese und Design

Um den Nutzen dieses experimentellen Systems zu demonstrieren, haben wir die Hypothese getestet, dass die Genauigkeit, mit der Golden Shiner einem visuellen Hinweis folgt, sich mit der Geschwindigkeit dieses Hinweises verbessern wird. Es wurden Wild-Golden Shiner verwendet (N = 16, Körperlängen, BL und Nassgewichte, WW, waren 63,4 x 3,5 mm und 1,8 x 0,3 g, respektvoll). Die Koscherität der visuellen Reize (Führungs-/Ablenkungsverhältnis) wurde auf 0,67 festgelegt, während wir die Geschwindigkeit manipulierten, mit der sich unsere Bewegungshinweise (d.h. die Anführer) in Bezug auf ihre Ablenker bewegten. Die Geschwindigkeitsstufen der Leader-Silhouetten, die die Richtungshinweise bereitstellen, reichten von 0-10 BL/s (in Schritten von 2), die den Geschwindigkeitsbereich überspannt, der typischerweise als Spiegelung anhaltender, verlängerter oder geplatzter Schwimmmodi in Fisch12betrachtet wird. Auf der Kontrollebene 0 waren die Leader-Silhouetten auf einen Zielarm unter den zufällig orientierten Ablenkern ausgerichtet, aber keine der Silhouetten bewegte sich. Der Zielarm wurde für jede Studie nach dem Zufallsprinzip vom Programm ausgewählt. Die Entfernungseinheiten sind in der Körperlänge, die durch die mittlere Standardlänge unserer Probanden definiert wurde, und die Zeit ist in Sekunden. Die aktuelle repräsentative Analyse konzentriert sich auf die Messung primärer Reaktionsvariablen (Entscheidungsgeschwindigkeit und -genauigkeit), aber das Design des Experiments ermöglicht es den Forschern auch, zusätzliche Informationen zu extrahieren, indem sie die Bewegungen von Subjekten verfolgen und ihre kinematik.

Unsere Fischuntertaufen wurden nach Abschnitt 6 des Protokolls untergebracht. Jedes Subjekt wurde einer Stufe der Behandlung pro Tag ausgesetzt. Wir randomisierten sowohl innerhalb der Behandlungsstufe (Cue-Geschwindigkeit) über Tage als auch die Reihenfolge, in der die Probanden an jedem Tag getestet wurden. Lineare und generalisierte lineare Mixed-Effekt-Modelle (LMM bzw. GLMM) wurden verwendet, um die Auswirkungen der Leader-Silhouettengeschwindigkeit auf die Geschwindigkeit und Genauigkeit zu testen, mit der die Probanden den visuellen Reizen folgten. Die Betreff-ID wurde in beiden Modellen als Zufallseffekt berücksichtigt.

Daten und Erkenntnisse

In Ermangelung von Bewegungshinweisen agierte Golden Shiner wie erwartet und wählte ihre Richtung nach dem Zufallsprinzip (Stimulusgeschwindigkeit = 0, Binomialtest, nLinke= 33, nRechts= 40, = 0,45, P = 0,483). Während die meisten Probanden keine Anzeichen von Stressverhalten innerhalb des Bereichs zeigten und innerhalb der vorgesehenen Zeit (5 min) eine entscheidende Entscheidung trafen, zeigten 22% der Probanden eine Abneigung, den Haltebereich zu verlassen oder in den Entscheidungsbereich zu gelangen. Daten dieser unentschlossenen Fische wurden nicht in die Analyse einbezogen. Die restlichen 78% unserer Probanden zeigten eine signifikante Verbesserung der Genauigkeit, mit der sie den Richtungsreizen folgten, als die Geschwindigkeit dieser Reize zunahm (GLMM, z = 1.937, P = 0.053). Abbildung 5A zeigt die Art dieser Beziehung, in der wir eine 1,2-fache Erhöhung der Richtungsgenauigkeit für jede Erhöhung der Stimulusgeschwindigkeit feststellen. Diese Beziehung ist nur geringfügig unverhältnismäßig und allein nicht auf eine Schwellenreaktion auf Änderungen der Cue-Geschwindigkeit hindeutet. Die Erhöhung der Stimulusgeschwindigkeit führte auch zu einer signifikanten Erhöhung der Entscheidungsgeschwindigkeit (LMM, F1,56= 4,774, P = 0,033). Wie jedoch abbildung 5B zeigt, war der Trend zur Entscheidungsgeschwindigkeit inkonsistent und in allen Stimulusgeschwindigkeiten sehr variabel. Was in diesen Entscheidungsgeschwindigkeitsdaten deutlich wird, ist, dass die Probanden im Durchschnitt 5-20x länger brauchten, um ihre Entscheidung zu treffen, wenn sich die Reize bewegten, als wenn sie es nicht waren (Entscheidungsgeschwindigkeiten von 4,6 x 2,3 s und 81,4 x 74,7 s für Stimulus Geschwindigkeiten von 0 bzw. 8, bei Standardabweichung, SD). Ohne die Kontrollebene haben wir keine signifikante Änderung der Entscheidungsgeschwindigkeit in Abhängigkeit von der Stimulusgeschwindigkeit festgestellt.

Figure 1
Abbildung 1. Y-Maze-Domäne. A. Bild des Y-Maze-Apparates für den Entscheidungstest. Anmerkungen stellen Folgendes dar: Holding Area (HA, green), Decision Area (DA, blue), Left Decision Arm (LDA) und Right Decision Arm (RDA). B. Bild des Y-Maze und Raum mit überKopf einstellbare Spurbeleuchtung und GigE KameraPlatzierung (nur einer der vier Overheads Lichtstreifen sind sichtbar). C. Bild des Y-Maze (Seitenansicht) einschließlich der Projektorplatzierung, die durch den Schiebewagen verriegelt ist, um Bewegungen während oder zwischen Versuchen zu beseitigen. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 2
Abbildung 2. Hintergrund- und Stimuluskalibrierung. A. Bild des beleuchteten Y-Maze mit einer einheitlichen Hintergrundfarbe und einem Pixelintensitätstransect (grüne Linie) zwischen dem Haltebereich und dem Entscheidungsbereich, DA (mittlere Pixelintensität 112 x 1278). Der lichtgradient erzeugt von der Glühbirne des Projektors (Hotspot) ist deutlich sichtbar. B. Bild, das die Ausrichtung der Projektionen mit dem DA zeigt. C. Bild des Labyrinths mit dem gefilterten Hintergrund und einer einsamen Silhouette, die in der Mitte des DA für die Kalibrierung projiziert wird (Größe, Geschwindigkeit). Die Addition des Kontrahentgradientenhintergrunds in (C) führt zu einem dunkleren Hintergrund (mittlere Pixelintensität 143,1 x 5,5) und weit weniger räumlichen Variabilität (Variationskoeffizient sinkt von 11,4 (A.) auf 0,03 (C.). Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 3
Abbildung 3. Schemat des allgemeinen Betriebsablaufs im Visualisierungsprogramm, das in den Experimenten verwendet wird. Weitere Verfahrensdetails finden Sie unter7. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 4
Abbildung 4. Experimentelle Erforschung mit echten und virtuellen Fischsilhouetten. A. Bild ein (live) Golden Shiner verlässt den Haltebereich (grüner Kreis). B. Bild eines (lebenden) Golden Shiners im Entscheidungsbereich (grüner Kreis) zwischen den virtuellen Fischsilhouetten. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 5
Abbildung 5. Genauigkeit und Geschwindigkeit der Richtungsreaktionen auf Änderungen der relativen Geschwindigkeit von Bewegungshinweisen. A. Graph der Genauigkeit der Fischentscheidung, mit der Golden Shiner den "Leader"-Silhouetten folgte, die gegen die Stimulusgeschwindigkeit (BL/s) geplottet wurden. B. Diagramm der Fanggeschwindigkeit, die gegen die Stimulusgeschwindigkeit (BL/s) gezeichnet ist. Daten sind Mittelwerte für Standardfehler, SE. Gruppen von 15 virtuellen Silhouetten wurden zufällig in der Entscheidungszone mit einem Koherenzniveau von 67 % verteilt (10 der 15 Silhouetten fungierten als Leaders, die restlichen 5 Silhouetten fungierten als Ablenkungen) und wir variierten die Geschwindigkeit der Führenden von 0-10 BL/s. Abschaltgeschwindigkeiten blieben bei 1 BL/s bei allen Geschwindigkeitsstufen festgelegt, mit Ausnahme der Steuerung, bei der sich keine der Silhouetten bewegte. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Visuelle Hinweise sind dafür bekannt, eine optomotorische Reaktion bei Fischen auszulösen, die schwarzen und weißen Gittern ausgesetzt sind13, und es gibt zunehmend theoretische und empirische Beweise dafür, dass die Geschwindigkeit der Nachbarn eine einflussreiche Rolle bei der Steuerung der dynamischen Wechselwirkungen spielt. beobachtet in Fischschulen7,14,15,16,17. Es gibt kontrastierende Hypothesen, um zu erklären, wie Individuen in Gruppen Nachbarschaftsbewegungen integrieren, z. B. proportional auf alle erkennbaren Hinweise14reagieren, eine Bewegungsschwellenantwort17annehmen oder Kollisionszeiten überwachen 18. Ein erster Schritt bei der Prüfung dieser alternativen Hypothesen ist die Validierung ihrer zugrunde liegenden Annahmen. Hier haben wir den Nutzen unseres Protokolls bei der Identifizierung der Rolle demonstriert, die ein bestimmtes sensorisches Merkmal bei der Führung von Richtungsentscheidungen haben kann.

Wir isolierten, wie Individuen einer sozialen Fischart, der Golden Shiner, auf Veränderungen in der relativen Geschwindigkeit visueller Reize reagierten, die dazu bestimmt waren, Konspezies in einer Schule nachzuahmen. Die Richtungsgenauigkeit des Golden Shiner verbesserte sich mit der Erhöhung der relativen Geschwindigkeit der visuellen Reize, aber die funktionelle Beziehung zwischen diesen Variablen war nur geringfügig unverhältnismäßig. Die Beziehung zwischen Entscheidungsgeschwindigkeit und Stimulusgeschwindigkeit war zwar signifikant, aber sehr variabel und inkonsistent. Die Ergebnisse zeigen jedoch, dass ein Geschwindigkeitsunterschied in Bildern, die über das Sichtfeld dieser Fische verstreut sind, eine wichtige Rolle dabei spielt, eine Reaktion auszulösen und ihre verdeckte Aufmerksamkeit zu lenken. Abgesehen davon, wie Individuen unter den Aktionen bestimmter Nachbarn auswählen, könnte mit dem aktuellen Entwurf untersucht werden, indem widersprüchliche Richtungen in die Reize eingeführt werden.

In einem kürzlichen Experiment mit Zebrafish, Danio rerio, fanden wir keine Beweise für Unentschlossenheit in Einzelversuchen7, aber Golden Shiner in dieser Demonstration zeigte eine größere Abneigung, den Haltebereich zu verlassen. Die Unterschiede zwischen diesen beiden Arten lassen sich durch ihre lebensgeschichtlichen Strategien und die relative Stärke ihrer sozialen Tendenzen (oder Abhängigkeit) erklären. Zebrafische scheinen variabler als Golden Shiners (z.B. fakultative vs. obligate Schüler3) zu zeigen. Es ist wahrscheinlich, dass die stärkere soziale Koscherität in Golden Shiner dazu beigetragen haben könnte, dass Themen ein höheres Maß an Schüchternheit oder Zögern innerhalb der Domäne als ihre Zebrafisch-Pendants zeigen.

Die Reihenfolge der Schritte ist subtil, aber kritisch im Protokoll. Der Prozess des Ausgleichs der Lichter, des Projektors und des Programmfilters kann für neue Domänen mehr Zeit in Anspruch nehmen als oft erwartet. In diesem Protokoll wurden die gewonnenen Erkenntnisse aufgenommen, um die Rüst- und Lichtbalancezeit zu reduzieren, z. B. die Verwendung von Spurleuchten, die von der Wand reflektieren (nicht auf der Domäne), einstellbare Lichtregler und programmgenerierte Filter für den Projektor. Denken Sie auch daran, dass das, was für das menschliche Auge visuell akzeptabel erscheint, von der Kamera und der Software nicht auf die gleiche Weise betrachtet wird, so dass Ihre Lichtverhältnisse zusätzliche Anpassungen erfordern können. Selbst geringfügige Änderungen der Monitorwinkel führen zu Hintergrundgradientenänderungen. Daher wird die wahrscheinlichkeit von Änderungen während des Experiments durch detailliertes Notizen- und Speichern von Dateieinstellungen erheblich verringert. Der Übergang durch den Prozess von der physischen zur Filterung, wie hier dargestellt, liefert die schnellsten Schritte zum Erfolg.

Die Verwendung eines ST-Projektors ermöglicht eine größere räumliche Flexibilität gegenüber einem Monitor, aber dieser Ansatz erzeugt eine unerwünschte visuelle Anomalie, die als "Hotspot" bezeichnet wird. Ein Hotspot ist ein heller Fleck auf der Projektionsfläche, der durch die Nähe der Glühbirne des Projektors entsteht. Im Protokoll war Abschnitt 4 der Erstellung von Hintergrundfiltern und der Überprüfung auf homogene Blitze in der gesamten Domäne gewidmet. Die hier angegebenen Schritte helfen Benutzern, unerwünschte Auswirkungen des Hotspots zu vermeiden oder zu minimieren, indem sie unerwünschte Farbverlaufsstufen modellieren und das Modell verwenden, um einen inversen Farbverlauf zu reproduzieren, um den Auswirkungen entgegenzuwirken. Schließlich kann das ST-Projektormodell variieren, jedoch sind Bildanpassungen (Drehen, Flip, Front- oder Rückbildprojektion) und Keystone-Korrektur (ca. 3-5 Grad) nützliche Features, um sicherzustellen, dass das Wunschbild zur Domäne passt und für Verzerrungen angepasst werden kann.

Im Laufe der Zeit wurden die Versuchsräume durch Änderungen in der Hardware (z. B. Kameras, Verkabelung, Grafikkarten, Monitore) auf einfache Weise aktualisiert. Es ist erwähnenswert, dass Hardware-Änderungen wahrscheinlich zu einer zusätzlichen Anlaufzeit führen werden, um die Beleuchtung auszugleichen und mögliche Programmprobleme zu lösen. Daher wird empfohlen, dass hardwarebis zu Einem System bis zum Abschluss der gewünschten Experimente verwendet wird. Die meisten Herausforderungen waren an Leistungsunterschiede zwischen Monitoren, Grafikkarten und den Kameras geknüpft, was manchmal zu einer Änderung des Programmiercodes führte. Seit dieser Arbeit wurden neue Domänen entwickelt, in denen die innere Testdomäne entfernt und für andere Testdomänen geschaltet werden kann. Wir empfehlen, diese Flexibilität bei der Gestaltung der experimentellen Domänen und Supportstrukturen zu berücksichtigen.

Das aktuelle Protokoll ermöglicht es den Ermittlern, visuelle Features so zu isolieren und zu manipulieren, dass sowohl die visuelle Umgebung, die innerhalb einer Schule erwartet wird, als auch verwirrende Faktoren kontrolliert, die mit der Exposition gegenüber realen Konspezifen einhergehen (z. B. , Hunger, Vertrautheit, Aggression)7. Im Allgemeinen ist Computeranimation (CA) von virtuellen Fischen (d.h. Silhouetten) eine Praxis, die aufgrund ihrer deutlichen Vorteile bei der Stimulierung von Verhaltensreaktionen immer häufiger an Ort und Stelle wird19,20,21. CA ermöglicht es, visuelle Hinweise (Richtung, Geschwindigkeit, Koherenz oder Morphologie) anzupassen und gleichzeitig ein Niveau der Standardisierung und Wiederholbarkeit in den gewünschten Stimulus einzuführen, der über das hinausgeht, was erreicht werden kann, wenn lebende Tiere als Stimulans verwendet werden. Der Einsatz von virtueller Realität in Verhaltensstudien, sowohl an Tieren22 als auch an Menschen23, nimmt ebenfalls stetig zu und verspricht, ein leistungsfähiges empirisches Werkzeug zu werden, da die Technologie verfügbarer und zugänglicher wird. Zusammengenommen ersetzen und reduzieren diese virtuellen Ansätze auch die Anforderungen an lebende Tiere in der Naturethik in der Wissenschaft (z. B. IACUC, AAALAC und ACURO)24, während gleichzeitig die Laborkosten und -belastungen gesenkt werden.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Alle Autoren trugen zum experimentellen Design, Analysen und Schreiben des Papiers bei. A.C.U. und C.M.W. haben die Daten eingerichtet und gesammelt. Die Autoren haben nichts zu verraten.

Acknowledgments

Wir danken Bryton Hixson für die Unterstützung beim Setup. Dieses Programm wurde vom Grundlagenforschungsprogramm, Umweltqualität und Installationen (EQI; Dr. Elizabeth Ferguson, Technische Direktorin), US Army Engineer Research and Development Center.

Materials

Name Company Catalog Number Comments
Black and white IP camera Noldus, Leesburg, VA, USA https://www.noldus.com/
Extruded aluminum 80/20 Inc., Columbia City, IN, USA 3030-S https://www.8020.net 3.00" X 3.00" Smooth T-Slotted Profile, Eight Open T-Slots
Finfish Starter with Vpak, 1.5 mm extruded pellets Zeigler Bros. Inc., Gardners, PA, USA http://www.zeiglerfeed.com/
Golden shiners Saul Minnow Farm, AR, USA http://saulminnow.com/
ImageJ (v 1.52h) freeware National Institute for Health (NIH), USA https://imagej.nih.gov/ij/
LED track lighting Lithonia Lightening, Conyers, GA, USA BR20MW-M4 https://lithonia.acuitybrands.com/residential-track
Oracle 651 white cut vinyl 651Vinyl, Louisville, KY, USA 651-010M-12:5ft http://www.651vinyl.com. Can order various sizes.
PowerLite 570 overhead projector Epson, Long Beach CA, USA V11H605020 https://epson.com/For-Work/Projectors/Classroom/PowerLite-570-XGA-3LCD-Projector/p/V11H605020
Processing (v 3) freeware Processing Foundation https://processing.org/
R (3.5.1) freeware The R Project for Statistical Computing https://www.r-project.org/
Ultra-white 360 theater screen Alternative Screen Solutions, Clinton, MI, USA 1950 https://www.gooscreen.com. Must call for special cut size
Z-Hab system Pentair Aquatic Ecosystems, Apopka, FL, USA https://pentairaes.com/. Call for details and sizing.

DOWNLOAD MATERIALS LIST

References

  1. Dall, S. R. X., Olsson, O., McNamara, J. M., Stephens, D. W., Giraldeau, L. A. Information and its use by animals in evolutionary ecology. Trends in Ecology and Evolution. 20 (4), 187-193 (2005).
  2. Pitcher, T. Sensory information and the organization of behaviour in a shoaling cyprinid fish. Animal Behaviour. 27, 126-149 (1979).
  3. Partridge, B. The structure and function of fish schools. Scientific American. 246 (6), 114-123 (1982).
  4. Fernández-Juricic, E., Erichsen, J. T., Kacelnik, A. Visual perception and social foraging in birds. Trends in Ecology and Evolution. 19 (1), 25-31 (2004).
  5. Strandburg-Peshkin, A., et al. Visual sensory networks and effective information transfer in animal groups. Current Biology. 23 (17), R709-R711 (2013).
  6. Rosenthal, S. B., Twomey, C. R., Hartnett, A. T., Wu, S. H., Couzin, I. D. Behavioral contagion in mobile animal groups. Proceedings of the National Academy of Sciences (U.S.A.). 112 (15), 4690-4695 (2015).
  7. Lemasson, B. H., et al. Motion cues tune social influence in shoaling fish. Scientific Reports. 8 (1), e9785 (2018).
  8. Kaidanovich-Beilin, O., Lipina, T., Vukobradovic, I., Roder, J., Woodgett, J. R. Assessment of social interaction behaviors. Journal of Visualized. Experiments. (48), e2473 (2011).
  9. Holcombe, A., Schalomon, M., Hamilton, T. J. A novel method of drug administration to multiple zebrafish (Danio rerio) and the quantification of withdrawal. Journal of Visualized. Experiments. (93), e51851 (2014).
  10. Way, G. P., Southwell, M., McRobert, S. P. Boldness, aggression, and shoaling assays for zebrafish behavioral syndromes. Journal of Visualized. Experiments. (114), e54049 (2016).
  11. Zhang, Q., Kobayashi, Y., Goto, H., Itohara, S. An automated T-maze based apparatus and protocol for analyzing delay- and effort-based decision making in free moving rodents. Journal of Visualized. Experiments. (138), e57895 (2018).
  12. Videler, J. J. Fish Swimming. , Netherlands. Springer. 260 pp., ISBN-13 9789401115803 (1993).
  13. Orger, M. B., Smear, M. C., Anstis, S. M., Baier, H. Perception of Fourier and non-Fourier motion by larval zebrafish. Nature Neuroscience. 3 (11), 1128-1133 (2000).
  14. Romey, W. L. Individual differences make a difference in the trajectories of simulated schools of fish. Ecological Modeling. 92 (1), 65-77 (1996).
  15. Katz, Y., Tunstrom, K., Ioannou, C. C., Huepe, C., Couzin, I. D. Inferring the structure and dynamics of interactions in schooling fish. Proceedings of the National Academy of Sciences (U.S.A.). 108 (46), 18720-18725 (2011).
  16. Herbert-Read, J. E., Buhl, J., Hu, F., Ward, A. J. W., Sumpter, D. J. T. Initiation and spread of escape waves within animal groups). Proceedings of the National Academy of Sciences (U.S.A.). 2 (4), 140355 (2015).
  17. Lemasson, B. H., Anderson, J. J., Goodwin, R. A. Motion-guided attention promotes adaptive communications during social navigation. Proceedings of the Royal Society. 280 (1754), e20122003 (2013).
  18. Moussaïd, M., Helbing, D., Theraulaz, G. How simple rules determine pedestrian behavior and crowd disasters. Proceedings of the National Academy of Sciences (U.S.A.). 108 (17), 6884-6888 (2011).
  19. Bianco, I. H., Engert, F. Visuomotor transformations underlying hunting behavior in zebrafish). Current Biology. 25 (7), 831-846 (2015).
  20. Chouinard-Thuly, L., et al. Technical and conceptual considerations for using animated stimuli in studies of animal behavior. Current Zoology. 63 (1), 5-19 (2017).
  21. Nakayasu, T., Yasugi, M., Shiraishi, S., Uchida, S., Watanabe, E. Three-dimensional computer graphic animations for studying social approach behaviour in medaka fish: Effects of systematic manipulation of morphological and motion cues. PLoS One. 12 (4), e0175059 (2017).
  22. Stowers, J. R., et al. Virtual reality for freely moving animals. Nature Methods. 14 (10), 995-1002 (2017).
  23. Warren, W. H., Kay, B., Zosh, W. D., Duchon, A. P., Sahuc, S. Optic flow is used to control human walking. Nature Neuroscience. 4 (2), 213-216 (2001).
  24. The IACUC Handbook. Silverman, J., Suckow, M. A., Murthy, S. , 3rd Edition, CRC Press, Taylor and Francis. 827 pp., ISBN-13 9781466555648 (2014).

Tags

Verhalten Ausgabe 147 Y-Maze Entscheidungsfindung Vision Bewegungshinweise Virtuelle Reize Computeranimation
Integration visueller psychophysischer Assays in ein Y-Maze, um die Rolle zu isolieren, die visuelle Features bei Navigationsentscheidungen spielen
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Woodley, C. M., Urbanczyk, A. C.,More

Woodley, C. M., Urbanczyk, A. C., Smith, D. L., Lemasson, B. H. Integrating Visual Psychophysical Assays within a Y-Maze to Isolate the Role that Visual Features Play in Navigational Decisions. J. Vis. Exp. (147), e59281, doi:10.3791/59281 (2019).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter