Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Neuroscience

Untersuchung von Objekt-Vertretungen in den Makaken dorsalen Visual Stream mit Monoblock-Aufnahmen

Published: August 1, 2018 doi: 10.3791/57745

Summary

Ein detailliertes Protokoll, Objekt Selektivität der Parieto-Frontal Neuronen beteiligt antwortauslösung Transformationen zu analysieren wird vorgestellt.

Abstract

Frühere Studien haben gezeigt, dass Neuronen im Parieto-frontalen Bereichen des Gehirns Makaken hochselektiv für Objekte der realen Welt, Ungleichheit definiert gekrümmte Flächen und Bilder von realen Objekten (mit und ohne Gefälle) in ähnlicher Weise wie sein kann in der ventralen visuelle Stream beschrieben. Darüber hinaus werden Parieto-Frontal Bereiche geglaubt, um visuelle Objektinformationen in entsprechenden motor Ausgänge, wie die Pre-Gestaltung der Hand beim greifen umzuwandeln. Um besser charakterisieren Objekt Selektivität im kortikalen Netz beteiligt antwortauslösung Transformationen bieten wir eine Reihe von Tests soll die visuelle Objekt Selektivität von Neuronen im Parieto-frontalen Regionen zu analysieren.

Introduction

Menschliche und nichtmenschliche Primaten teilen die Kapazität des komplexen motorischen Aktionen einschließlich Objekt greifen. Um diese Aufgaben erfolgreich zu erfüllen, muss unser Gehirn die Umwandlung der intrinsischen Objekteigenschaften in motorische Befehle abschließen. Diese Transformation stützt sich auf ein anspruchsvolles Netzwerk der dorsalen kortikalen Bereiche befindet sich im parietalen und ventralen prämotorischen Kortex1,2,3 (Abbildung 1).

Aus Läsion Studien an Affen und Menschen4,5wissen wir, dass der dorsale visuelle Strom - mit Ursprung in der primären Sehrinde und posterioren parietalen Kortex gerichtet - räumliche Vision und die Planung des Motors beteiligt ist Aktionen. Die Mehrheit der dorsalen Stream Bereiche sind jedoch nicht auf eine einzigartige Art von Verarbeitung gewidmet. Intraparietal Frontzahnbereich (AIP), eines der End Phase Gebiete in den dorsalen visuelle Stream enthält beispielsweise eine Vielzahl von Neuronen, die nicht nur während der6,7,8greifen, sondern auch während der visuellen Feuer Inspektion von Objekt7,8,9,10.

Ähnlich wie bei AIP, reagieren Nervenzellen im Bereich F5, befindet sich in der ventralen prämotorischen Kortex (PMv), auch während visuelle Fixierung und Objekt greifen, die für die Transformation von visuellen Informationen in motorischen Aktionen11wichtig sein dürfte. Der vordere Teil dieser Region (Teilsektor F5a) enthält Neuronen reagieren selektiv auf dreidimensionale (3D, Ungleichheit definiert)12,13, Bilder, während die Teilsektor befindet sich in der Konvexität (F5c) Neuronen enthält zeichnet sich durch Spiegel Eigenschaften1,3, brennen, sowohl wenn ein Tier führt oder eine Aktion ausführt. Schließlich ist die F5 seitzahnbereich (F5p) eine Hand-verwandten Bereich mit einem hohen Anteil an antwortauslösung Neuronen reagieren auf sowohl Beobachtung und greifen von 3D-Objekten14,15. Neben F5, Bereich 45, gelegen in der minderwertigen Ramus bogenförmigen Sulcus, kann auch in Form Verarbeitung16,17 und greifen18einbezogen werden.

Testen Objekt Selektivität im frontalen und parietalen Kortex ist schwierig, weil es schwierig ist zu bestimmen, welche Funktionen diese Neuronen reagieren und was die rezeptiven Feldern dieser Neuronen sind. Zum Beispiel wenn eine Neuron auf einen Teller aber nicht zu einem Kegel reagiert, welche Funktion dieser Objekte treibt diese Selektivität: die 2D Kontur, die 3D-Struktur, die Orientierung in der Tiefe oder eine Kombination aus vielen verschiedenen Funktionen? Die kritische Objektfunktionen für Neuronen bestimmen, die beim Objekt Fixierung und greifen zu reagieren, ist es notwendig, verschiedene Sehtests mit Bildern von Objekten und reduzierte Versionen die gleichen Bilder zu beschäftigen.

Ein beträchtlicher Bruchteil der Neuronen in AIP und F5 reagiert nicht nur auf die visuelle Darstellung eines Objekts, sondern auch, wenn das Tier dieses Objekt im Dunkeln (d. h. ohne visuelle Informationen greift). Diese Neuronen reagiert möglicherweise nicht auf ein Bild eines Objekts, die können nicht erfasst werden. Daher, visuelle und motorische Komponenten der Antwort sind eng miteinander verbunden, wodurch es schwierig zu untersuchen, die neuronale Objektdarstellung in diesen Regionen. Da antwortauslösung Neuronen nur mit realen Objekten getestet werden können, brauchen wir ein flexibles System für die Präsentation von verschiedener Objekten an verschiedenen Positionen im visuellen Bereich und bei verschiedenen Ausrichtungen wollen wir bestimmen, welche Funktionen wichtig für diese sind Neuronen. Letzteres kann nur mittels eines Roboters in der Lage verschiedene Objekte an verschiedenen Standorten im Bildraum erreicht werden.

Dieser Artikel soll eine experimentelle Anleitung für Forscher in der Studie der Parieto-Frontal Neuronen interessiert zu. In den folgenden Abschnitten stellen wir das allgemeine Protokoll in unserem Labor für die Analyse der greifen und visuelle Objekt Antworten in wach Makaken (Macaca Mulatta) verwendet.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Alle technische Verfahren wurden gemäß dem National Institute of Health Guide für die Pflege und Verwendung von Labortieren und EU-Richtlinie 2010/63/EG durchgeführt und durch die ethischen Ausschuss der KU Leuven angenommen wurden.

1. allgemeine Methoden für extrazelluläre Aufnahmen im wach-Verhalten-Affen

  1. Trainieren Sie die Tiere für die visuellen und motorischen Aufgaben erforderlich, um Ihre spezifische Fragestellung. Stellen Sie sicher, dass das Tier in der Lage ist, flexibel zwischen Aufgaben während der gleichen Aufnahme-Session um das Neuron ausgiebig testen und erhalten ein besseres Verständnis der Funktionen fahren die neuronale Antwort (Abbildung 2-3) wechseln.
    1. Trainieren Sie das Tier in Visually-Guided greifen (VGG; greifen "ins Licht"), die antwortauslösung Komponenten der Antwort zu bewerten. Hinweis: schränken Sie unabhängig von der Aufgabe ausgewählt ein, allmählich Flüssigkeitszufuhr mindestens drei Tage vor Beginn der Trainingsphase.
      1. Zurückhalten der Affenkopf für die gesamte Dauer der experimentelle Sitzung.
      2. Halten Sie in den ersten Sitzungen die Hand an die Aufnahme Kammer in der Ruheposition kontralateralen und helfen Sie, das Tier zu erreichen und das Objekt zu erfassen, geben manuelle Belohnung nach jedem Versuch.
      3. Legen Sie der Affe Hand auf der Ruheposition am Ende jeder Prüfung zurück.
      4. Jeder nur wenige Studien, lassen Sie die Hand des Affen und warten ein paar Sekunden, um zu beobachten, ob das Tier die Bewegung spontan initiiert.
      5. Gelten Sie manuelle Lohn, wenn der Affe auf das Objekt erreicht.
      6. Wenn die reichende Phase korrekt erworben wird, helfen Sie dem Tier zu heben (oder ziehen) das Objekt und die Belohnung manuell.
      7. 1.1.1.4. und 1.1.1.5. lassen Sie den Affen Hand und warten ein paar Sekunden, um zu beobachten, ob das Tier die Bewegung spontan initiiert. Geben Sie Belohnung, wenn die Bewegung korrekt ausgeführt wird.
      8. Korrigieren Sie das erreichen, hand Position und Handgelenk Ausrichtung so oft wie nötig während des Verfahrens.
      9. Wiederholen Sie die oben genannten Schritte, bis das Tier die Sequenz automatisch ausführt.
      10. Laden Sie die automatische Aufgabe. Das Tier wird automatisch belohnt, wenn sie die Reichweite und Griff Bewegungen für eine vorbestimmte Zeit ausführt.
      11. Schrittweise Erhöhung der Haltezeit des Objekts.
      12. Stellen Sie die Laser vor, der die Fixierung-Punkt an der Basis des Objekts Projekte. Fügen Sie dann den Eye-Tracker zur Überwachung der augenposition rund um das Objekt zu Begriffen.
    2. Trainieren Sie das Tier in Memory-Guided greifen (MGG), die motorische Komponente der Antwort, unempfindlich gegen die visuelle Komponente des Reizes zu untersuchen.
      1. Zurückhalten der Affenkopf.
      2. Befolgen Sie die gleichen Schritte für die VGG dafür sorgen, dass das Tier Fixierung auf den Laser während der Aufgabe innerhalb eines elektronisch definierten Fensters verwaltet. Für diese Version der Aufgabe erlischt das Licht am Ende des Zeitraums Fixierung.
    3. Der Affe in Passive Fixierung an visuellen Reaktionsfähigkeit und Form Selektivität zu trainieren.
      1. Zurückhalten der Affenkopf.
      2. Präsentieren Sie die visuellen Reize der Affe mit einer CRT (Passive Fixierung des 3D Reize) oder ein LCD-Monitor (Passive Fixation von 2D reizen).
      3. Eine Fixierung Fleck in der Mitte des Bildschirms, überlagert die visuellen Reize zu präsentieren.
      4. Belohnen Sie das Tier nach jeder Präsentation des Reizes zu und steigern Sie allmählich die Fixierung-Zeitraum bis zum Erreichen der Standards der Aufgabe.
  2. Operieren Sie mit sterilen Werkzeugen, Vorhänge und Kleider.
    1. Das Tier mit Ketamin zu betäuben (15 mg/kg, intramuskulär) und Medetomidine-Hydrochlorid (0,01-0,04 mL/kg intramuskulär) und bestätigen Sie die Narkose regelmäßig durch Kontrolle des Tieres als Reaktion auf Reize, Herzfrequenz, Atemfrequenz und Blut Druck.
    2. Pflegen der Vollnarkose (Propofol 10 mg/kg/h intravenös) und Sauerstoff mit einer Trachealkanüle Röhre zu verwalten. Verwenden Sie eine Lanolim-basierte Salbe, um Augentrockenheit unter Narkose zu verhindern.
    3. Bieten Analgesie mit 0,5 cc von Buprenorphin (0,3 mg/ml intravenös). Im Falle einer Erhöhung der Herzfrequenz während der Operation kann eine zusätzliche Dosierung verabreicht werden.
    4. Eine MRI kompatibel Kopf Post mit keramischen Schrauben und zahnärztliche Acryl-Implantat. Operationen Sie alle Überleben unter strengen aseptischen Bedingungen. Verwenden Sie für eine angemessene Pflege der sterilen Bereich sterile Einweg-Handschuhe, Masken und sterilen Instrumenten.
    5. Geleitet von anatomischen Magnetresonanztomographie (MRT; Horsley-Clark Koordinaten), machen eine Kraniotomie oberhalb des Bereichs des Interesses und die Aufnahme-Kammer auf der Affe Schädel-Implantat. Verwenden Sie eine standard-Aufzeichnung-Kammer für Einheit extrazelluläre Aufnahmen oder eine multielectrode Microdrive für die gleichzeitige Aufnahme von mehreren Neuronen.
    6. Einzustellen Sie nach der Operation die intravenöse Verabreichung von Propofol bis spontane Atmung Lebensläufe. Nicht das Tier unbeaufsichtigt, bis er das Bewusstsein wiedererlangt hat und das Tier in der sozialen Gruppe erst nach vollständigen Genesung führen.
    7. Postoperative Analgesie bieten von der institutionellen Tierarzt empfohlen; Verwenden Sie z. B. Meloxicam (5mg/ml intramuskulär).
    8. Warten Sie, 6 Wochen nach der Operation vor Beginn des Experiments. Dies ermöglicht eine bessere Verankerung der Kopf Post den Schädel und Garantien, die das Tier vollständig von dem Eingriff erholt hat.
  3. Lokalisieren Sie den Aufnahmebereich mit MRI (für Einheit extrazelluläre Aufnahmen) und Computertomographie (CT; für multielectrode Aufnahmen).
    1. Füllen Sie Glaskapillaren mit einer 2 % Kupfersulfatlösung und fügen Sie sie in einem Aufnahme-Raster.
    2. Strukturellen MRT durchführen (Schneiden Dicke: 0,6 mm).
  4. Überwachung der neuronalen Aktivität.
    1. Verwenden Sie Wolfram Mikroelektroden mit einer Impedanz von 0,8 – 1 MΩ.
    2. Legen Sie die Elektrode durch die Dura mit einem Führungsrohr 23G aus rostfreiem Stahl und einer hydraulischen Microdrive.
    3. Für Spike Diskriminierung zu verstärken und die neuronale Aktivität zwischen 300 und 5.000 Hz filtern.
    4. Verstärken Sie für lokale potenzielle (LFP) Feldaufnahmen und Filtern Sie das Signal zwischen 1 und 170 Hz.
  5. Das Auge-Signal zu überwachen
    1. Stellen Sie eine Infrarot-Kamera vor Augen des Tieres, ein einwandfreies Bild der Pupille und die Hornhaut-Reflex zu erhalten.
    2. Verwenden Sie eine Infrarot-basierte Kamera um die Pupille Position bei 500 Hz zu probieren.

2. untersuchen Objekt Selektivität im dorsalen Bereiche

  1. Führen Sie optisch geführte greifen (VGG).
    1. Wählen Sie die richtige Einstellung je nach Ziel der Forschung zu erfassen: Karussell Setup oder Roboter Setup (Abbildung 3).
    2. Führen Sie für das Karussell-Setup den VGG Task aus:
      1. Lassen Sie den Affen, die Hand in die Ruheposition in völliger Dunkelheit, die Sequenz einzuleiten kontralateralen der aufgezeichneten Hemisphäre legen.
      2. Nach einer Variablen Zeit (intertrial Intervall: 2.000-3.000 ms), einen roten Laser (Fixierung Punkt) an der Basis des Objekts anwenden (Entfernung: 28 cm von den Affen Augen). Wenn das Tier seinen Blick innerhalb eines Fensters elektronisch definierten Fixierung (+/-2,5 °) für 500 ms unterhält, leuchtet das Objekt von oben mit einer Lichtquelle.
      3. Nachdem eine Variable Verzögerung (300-1500 ms), Programmieren eine Verdunkelung des Lasers (visuelle GO Cue) anweist, den Affen, heben Sie die Hand von der Ruheposition und erreichen, greifen und halten das Objekt für eine Variable Intervall (Haltezeit: 300-900 ms).
      4. Wenn das Tier die ganze Sequenz korrekt ausführt, belohnen sie mit einem Tropfen des Saftes.
    3. Verwenden Sie eine ähnliche Tasksequenz für die Roboter-Setup.
      1. Was das Karussell-Setup der Affe, die Hand in die Ruheposition in völliger Dunkelheit, die Sequenz einzuleiten kontralateralen der aufgezeichneten Hemisphäre legen möchte.
      2. Nach einer Variablen Zeit (intertrial Intervall: 2.000-3.000 ms), Leuchten die LED (Fixierung Punkt) auf das Objekt (Entfernung von innen;: 28 cm von den Affen Augen). Wieder, wenn das Tier seinen Blick innerhalb eines Fensters elektronisch definierten Fixierung (+/-2,5 °) für 500 ms unterhält, beleuchten Sie das Objekt von innerhalb mit einer weißen Lichtquelle.
      3. Nachdem eine Variable Verzögerung (300-1500 ms), schalten Sie die LED (visuelle GO Cue), Instruktion der Affe, heben Sie die Hand von der Ruheposition und erreichen, fassen und halten das Objekt für eine Variable Intervall (Haltezeit: 300-900 ms).
      4. Wenn das Tier die ganze Sequenz korrekt ausführt, belohnen sie mit einem Tropfen des Saftes.
    4. Während des Vorgangs zu quantifizieren die Leistung des Affen, wobei besonderes Augenmerk auf das Timing. Messen Sie beide Zeit verstrichene zwischen der Go-Signal und dem Beginn der Handbewegung (Reaktionszeit) und zwischen dem Beginn der Bewegung und der Aufzug des Objekts (greifen Zeit).
  2. Führen Sie Speicher-geführte greifen (MGG; "Greifen in der Dunkelheit"). Verwenden Sie die MGG-Aufgabe, um festzustellen, ob Neuronen antwortauslösung oder Motor-Dominant sind.
    Hinweis: Die Reihenfolge ist ähnlich dem für die VGG beschrieben, aber das Objekt ist in völliger Dunkelheit erfasst.
    1. Identisch mit der VGG Aufgabe, lassen Sie den Affen legen Sie die Hand auf die aufgezeichneten Hemisphäre kontralateralen in der Ruheposition in völliger Dunkelheit, die Sequenz einzuleiten.
    2. Nach einer Variablen Zeit (intertrial Intervall: 2.000-3.000 ms), eine rote Laser/LED (Fixierung Punkt) um die Fixierung Stelle angegeben sein, gelten (an der Basis des Objekts für die Karussell-Einrichtung, in der Mitte des Objekts für die Roboter-Setup; Entfernung: 28 cm von den Affen Augen) . Wenn das Tier seinen Blick innerhalb eines Fensters elektronisch definierten Fixierung (+/-2,5 °) für 500 ms unterhält, leuchtet das Objekt.
    3. Schalten Sie nach einer bestimmten Zeit (400 ms) das Licht aus.
    4. Nach einer Variable Verzögerung Periode (300-1500 ms) folgt Licht versetzt, Dim/ausschalten und die Fixierung Punkt (CUE gehen), der Affe, heben die Hand und Reichweite, Griff zu unterrichten und halten das Objekt (Haltezeit: 300-900 ms).
    5. Wenn das Tier die ganze Sequenz korrekt ausführt, geben Sie einen Tropfen Saft als Belohnung.
  3. Führen Sie Passive Fixierung. Wie für die VGG Aufgabe wählen Sie die am besten geeignete Einrichtung (Karussell oder Roboter-Setup) je nach Ziel der Forschung.
    Hinweis: Zwei verschiedene passive Fixierung Aufgaben: passive Fixierung der Objekte der realen Welt (mit den Objekten zu Begriffen in das Karussell und Roboter-Setups) und passive Fixierung von 3D/2D Bildern von Objekten.
    1. Führen Sie passive Fixierung der Objekte der realen Welt.
      1. Präsentieren Sie die Fixierung Punkt (rote Laser für das Karussell-Setup projiziert an der Basis des Objekts und der roten LED im Roboter-Setup).
      2. Wenn das Tier seinen Blick innerhalb eines Fensters elektronisch definierten Fixierung (+/-2,5 °) für 500 ms unterhält, leuchtet das Objekt für 2.000 ms.
      3. Wenn das Tier seinen Blick innerhalb des Fensters für 1.000 ms unterhält, belohnen sie mit einem Tropfen des Saftes.
    2. Durchführen Sie passive Fixierung von 3D/2D Bildern von Objekten.
      1. Alle visuellen Reize präsentieren auf einem schwarzen Hintergrund (Luminanz von 8 cd/m2) mit einem Monitor (Auflösung von 1.280 × 1.024 Pixel) ausgestattet mit einem schnellen Verfall P46-Phosphor und bei 120 Hz betrieben (Betrachtungsabstand: 86 cm).
      2. Präsentieren Sie in den 3D Tests die Reize stereoskopisch abwechselnd die linke und Rechte augenbilder auf einem Bildschirm (CRT-Monitor), in Kombination mit zwei ferroelektrischer Flüssigkristalle Fensterläden. Suchen Sie diese Rollläden vor den Affen Augen, bei 60 Hz betreiben und mit der vertikalen Rücklaufdauer des Monitors synchronisiert.
      3. Die Testphase zu starten, durch die Vorlage eines kleinen Quadrat in der Mitte des Bildschirms (Fixierung Punkt; 0,2 ° × 0,2 °) Bleibt die augenposition innerhalb einer elektronisch definierten 1° quadratisches Fenster (viel kleiner als für Objekte der realen Welt) für mindestens 500 ms, präsentieren Sie die visuelle Reize auf dem Bildschirm für eine Gesamtzeit von 500 ms.
      4. Wenn der Affe eine stabile Fixierung bis der Impuls-Offset unterhält, belohnen sie mit einem Tropfen des Saftes.
      5. Für eine angemessene Untersuchung der Form Selektivität eine umfassende Reihe von Tests mit 2D-Bildern während passive Fixierung Aufgabe, in der folgenden Reihenfolge ausgeführt.
      6. Führen Sie einen Suche Test. Testen Sie die visuelle Selektivität der Zelle mit einer breiten Palette von Bildern (Oberfläche Bilder; Abbildung 4A), einschließlich der Bilder des Objekts, der Griff ist in der VGG. Vergleichen Sie für diese und alle nachfolgenden Sehaufgaben das Bild evoziert die stärkste Reaktion ("bevorzugte Bild" bezeichnet), ein zweites Bild, das Neuron schwach reagiert (genannt "nonpreferred"). Reagiert die Nervenzelle unter Studie auch auf die Bilder der Objekte, suchen Sie nach bestimmten Reiz Komponenten der Zelle Reaktionsfähigkeit (Contour Test, rezeptiven Feld Test und Reduktion Test) fahren.
      7. Führen Sie einen Kontur-Test. Erhalten Sie aus der ursprünglichen Oberfläche Bilder von realen Objekten (2D oder 3D Bilder mit Textur, Schattierung und Perspektive) schrittweise vereinfachte Versionen der gleichen Reiz Form (Silhouetten und Umrisse; Abbildung 4 b). Sammeln Sie mindestens 10 Versuche pro Zustand, um festzustellen, ob das Neuron die originaloberfläche, die Silhouette oder die Gliederung von der ursprünglichen Form bevorzugt.
      8. Führen Sie einen Test der rezeptiven Feld (RF). Um die RF eines Neurons abzubilden, präsentieren die Bilder der Objekte an verschiedenen Positionen auf einem Display (in diesem Experiment 35 Positionen; Reiz Größe von 3°), deckt die zentralen Gesichtsfeldes19,20. Um genügend Anreiz Wiederholungen in allen möglichen Positionen in einer angemessenen Zeit zu sammeln, Reduzierung der Impuls-Dauer (geflasht Reize; Impuls Dauer: 300 ms, intertrial Intervall: 300 ms).
      9. Führen Sie einen Test der Reduktion. Führen Sie einen Reduktion Test mit Kontur Fragmente präsentiert in der Mitte der Russischen Föderation, die minimale effektive Form Funktion (MESF) zu identifizieren. Generieren Sie das Set von Reizen in Photoshop durch Zuschneiden der Kontur der einzelnen ursprünglichen Konturen Formen entlang der Hauptachsen (Abb. 3 b). Gestalten Sie die MESF als das kleinste Form Fragment evozieren eine Antwort, die zu mindestens 70 % der intakten Umriss Antwort und nicht deutlich kleiner als diese Antwort8ist.
      10. Für eine bessere Einschätzung der Lage Abhängigkeit (der Effekt der Reiz Position auf Fragment Selektivität) ausführen zwei verschiedene Tests. Führen Sie eine Reduktion Test mit den Fragmenten befindet sich an der Position in den ursprünglichen Umriss besetzt. Laufen Sie eine Reduzierung der Test mit der Fragmente in der Mitte der Masse der Form.
      11. Führen Sie in dieser Phase eine neue RF-Zuordnung mit Hilfe der MESF.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Abbildung 5 stellt die Antworten der ein Beispiel Neuron aufgenommen vom Bereich F5p mit vier Objekte getestet: zwei unterschiedliche Formen - eine Kugel und eine Platte-in zwei verschiedenen Größen (6 und 3 cm) gezeigt. Diese besondere Neuron reagiert nicht nur auf die große Kugel (optimale Anregung, oberen linken Feld), sondern auch auf die große Platte (unten links). Im Vergleich dazu war die Reaktion auf die kleinere Objekte schwächer (oberen und unteren rechten Platten).

Abbildung 6 zeigt eine Beispiel-Neuron in AIP aufgezeichnet während VGG und passive Fixierung getestet. Dieses Neuron reagierte nicht nur während der greifen (VGG Aufgabe, Panel A) sondern auch auf die visuelle Darstellung von 2D Bildern von Objekten präsentiert auf einem Bildschirm (passive Fixierung auch das Bild der Objekte in der habgierigen Aufgabe; Abbildung 6 b). Beachten Sie, dass die bevorzugte Impulse in die passive Fixierung Aufgabe nicht unbedingt das Objekt zu Begriffen, aber ein anderes 2D Bild, mit dem das Tier hat keine Vorkenntnisse greifen (Mandarine). Abbildung 6 zeigt die RF dieser Zelle als mit dem bevorzugten und nonpreferred Bild getestet. Abbildung 6zeigt ein Beispiel für die Antworten, die in der Reduzierung der Test. Dieses Beispiel Neuron reagiert auf kleinste Fragmente im Test (1-1,5 °).

Figure 1
Abbildung 1: Parieto-Frontal Netzwerk visuelle Objektbearbeitung und motorischen Planung und Durchführung beteiligt. Posterioren parietalen Bereich AIP Projekte in Gebiete PFG, 45 und F5a, und dann zu F5p, M1 und schließlich in das Rückenmark.

Figure 2
Abbildung 2: Entscheidungsbaum für die Prüfung Objekt Selektivität: experimentelles Protokoll verwendet, um antwortauslösung Antworten in unserer neuronalen Populationen testen. Die VGG Aufgabe kann entweder durch eine MGG oder eine Sehaufgabe (passive Fixation) verfolgt werden. Zwei verschiedene passive Fixierung Aufgaben können je nach Region von Interesse betrachtet werden: passive Fixierung der Objekte der realen Welt und passive Fixierung von 2D Bildern von Objekten. Das Primaten-antwortauslösung-System entwickelt hat, um die Manipulation von realen Objekten, die Bilder der Objekte6,13 nicht unterstützen und daher, es wird prognostiziert, dass Regionen mit einer dominanten Motoreinheit deutlich mehr werden auf die Vision von real, erfassbaren Objekten reagieren. Jedoch kann Form Selektivität nur erkundet werden, im Detail mit einem Reduktion Ansatz, die mit den Bildern der Objekte leichter umgesetzt werden können. In der 2D passive Fixierung Aufgabe bedeutet eine positive Antwort (d. h. visuelle Selektivität zu den Bildern der Objekte), dass es möglich ist, die neuronale Antwort noch weiter zu verfeinern. Dies führt uns zu führen Sie eine neue experimentelle Aufgabe niedriger Level-Features in den Reiz zu erkunden. Im Gegensatz dazu zeigt eine negative Antwort das Ende des Experiments.

Figure 3
Abbildung 3. Antwortauslösung Setups. (A). Karussell-Setup. Links: Karussell Design (unsichtbar, die Affen). Rechts: Detail der Karussell-Platte zeigt das Objekt erfasst werden und die Affen Hand nähert. Mit einem vertikal drehenden Karussell mit bis zu sechs Objekten präsentieren wir verschiedene Objekte, die Affen. (B). -Roboter-Setup. Links: Frontansicht des Roboter-Setups. Rechten Seite: die Details der vier verschiedene Objekte präsentiert vom Roboter (kleine/große Teller, kleine/große Kugel). Eine zweite und komplexere Objekte bei einzelligen Aufnahmen präsentieren lässt sich mittels einer kommerziellen Roboterarm mit einem Greifer ausgestattet. Für A und B, die Abfolge der Ereignisse identisch während visuelle Fixierung mit der Ausnahme ist, dass im Karussell-Setup, das Objekt von oben beleuchtet wird und in der Roboter-Setup wird das Objekt von innen beleuchtet. In der Phase Verständnis unterscheidet sich geringfügig die Aufgabe. Im Karussell-Setup gehen CUE bekundet wird, durch das Dimmen des Lasers. im Roboter-Setup schaltet die Fixierung LED komplett. Ein weiterer Unterschied bezieht sich auf die spezifische Funktionalität der beiden Setups. Während das Karussell-Setup vor allem Objekt Selektivität einer einzigartigen Stelle in den Bildraum, mit dem Roboter-Setup testen verwendet werden kann können wir Programmieren den Abstand, an dem das Objekt zu Begriffen dargestellt wird, die Position in der Frontoparallel Ebene, oder sogar dazu führen Störungen in Objektorientierung während greifen (z. B. eine schnelle 45° Drehung des Objekts die reichende Phase). Beide Systeme ermöglichen die Darstellung der verschiedenen Zielobjekte mit unterschiedlichen greifen Eigenschaften (Größe, Volumen, etc.), erfordern unterschiedliche greifende Strategien (Power-Grip vs. Präzision Griff). (C). Beispiel einer VGG Aufgabe (Karussell Setup). 1. Befestigung: In unserem Karussell VGG Aufgabe der Affe legt seine kontralaterale Hand auf eine ruhende Position Gerät um die Sequenz zu initiieren. Als nächstes wird ein Laser auf das Objekt-zu-sein-Begriffen, die in völliger Dunkelheit bleibt projiziert. 2. Licht auf: Wenn das Tier stabile Fixierung um ein elektronisch definierten Fenster rund um das Objekt für eine bestimmte Dauer behält, wird das Objekt durch eine externe Lichtquelle (visuelle Phase der Aufgabe) beleuchtet. Zu guter Letzt dimmt nach einer Variable Verzögerung der Laser, arbeitet als ein visueller Hinweis gehen und darauf hinweist, den Affen zu greifende Bewegung zu initiieren. Das Tier wird zu erreichen, greifen und Anheben des Objekts (erkannt durch Glasfaserkabel) belohnt.

Figure 4
Abbildung 4. Visuelle Reize. (A). Beispiel der gesetzten Impulse verwendet, um visuelle Form Selektivität zu bewerten. (B). aus der ursprünglichen Oberfläche Bilder in A produzieren wir schrittweise vereinfachte Versionen von visuellen Reizen (3D-Oberflächen, 2D Oberflächen, Silhouetten, Umrisse und Fragmente). Durch die Aufteilung der Gliederung in kleinere Segmente, suchen wir für die Minimum wirksame Form Funktion (MESF) erinnert an visuellen Selektivität.

Figure 5
Abbildung 5. VGG Aufgabe getestet mit dem Roboter-Setup (Roboter-Setup in Abbildung 3 b). Wir präsentierten vier verschiedene Objekte an der gleichen Position in der Tiefe: große Kugel (oben links), große Platte (unten links), kleine Platte (unten rechts) und kleine Kugel (oben rechts). Die neuronale Antwort richtet sich nach leichten Ausbruch im Objekt (bin Größe von 20 ms).

Figure 6
Abbildung 6. AIP-Neuron mit VGG (greifen auf dem Karussell) und passive Fixierung Aufgaben aufgenommen. (A). Aktivität während greifen. Peristimulus-Time Histogramm zeigt die Reaktion der eine AIP-Neuron (neuronale Antwort auf leichten Beginn auf das Objekt ausgerichtet). (B). visuelle Reaktion des gleichen Neurons Wenn Sie mit einer breiten Palette von 2D Bildern von realen Objekten, darunter ein Bild des Objekts zu Begriffen getestet (in zwei verschiedenen Ausrichtungen: Horizontal versus vertikal). (C). rezeptiven Feldzuordnung. 2D interpoliert Karten repräsentieren die durchschnittliche Antwort auf die bevorzugte (links) und nonpreferred (rechts) Reize für das Neuron in der A und B, wenn Sie mit 3° Bilder von Objekten getestet. Um die Karten zu erstellen, wir quantifiziert die net neuronale Reaktion (durch Abziehen der Baseline-Aktivität) erhalten an 35 verschiedenen Positionen auf dem Bildschirm (angegeben durch die Schnittpunkte der gestrichelten Rasterlinien; [0,0]: zentrale Lage; + 6 ° Azimut: kontralateralen), Abstand 2° auseinander und deckt die Ipsi und kontralaterale visuelle Hemifields. Farbe zeigt die Stärke der neuronalen Antwort (variierend zwischen 0 und die maximale Reaktion der Zelle). (D). Baum Farbplot repräsentieren die normalisierten net Antworten (Feuerrate minus Grundlinie Aktivität) des gleichen Neurons wie in Abbildung 6A-C auf den bevorzugten und nonpreferred Reiz (Umrisse des Bildes bevorzugte und nonpreferred) in der Verringerung der standard-Test (Verringerung der Test mit den Fragmenten befindet sich an der Position besetzt in den ursprünglichen Umriss; 4-Fragment Reize, erste Reihe; 8-Fragment Reize, zweite Zeile; 16-Fragment Reize, dritte Zeile). Die Farbe in jedem Kreis zeigt das Ausmaß der Reaktion (1 = 28 Spikes/s).

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Ein umfassender Ansatz für die Untersuchung von dorsal Stream erfordert eine sorgfältige Auswahl von Verhaltensstörungen Aufgaben und Sehtests: visuelle und habgierigen Paradigmen eingesetzt werden, entweder zusammen oder separat je nach den spezifischen Eigenschaften der Region.

In diesem Artikel geben wir Beispiele für die neuronale Aktivität im AIP und F5p als Reaktion auf eine Teilmenge von visuellen und motorischen Aufgaben aufgezeichnet, aber sehr ähnliche Reaktionen beobachtet werden, in anderen frontalen Bereichen wie Bereich 45 und F5a.

Wir schlagen zwei Versuchsaufbauten untersuchen die neurale Darstellung der Objekte während greifen. Mit einem vertikal drehenden Karussell (Abbildung 3A) mit bis zu sechs Objekten präsentieren wir verschiedene Objekte, die Affen. Die drehende Karussell ermöglicht die Präsentation der verschiedenen Zielobjekte (unterscheiden sich in Form, Größe, Volumen, etc.), erfordern unterschiedliche greifende Strategien (Power-Grip vs. Präzision Griff).

Eine zweite und komplexere Objekte bei einzelligen Aufnahmen präsentieren lässt sich mittels eines kommerziellen Roboterarm und Greifer (Abb. 3 b). In diesem Fall leitet der Roboter die Testversion ein Objekts (Abb. 3 b) anfassen und verschieben es an eine bestimmte Position im Raum bei völliger Dunkelheit, während der Affe Hand auf der Ruheposition bleibt. Darüber hinaus ist die Reihenfolge der Ereignisse in den zwei Setups identisch. Der Einsatz eines Roboters ermöglicht jedoch eine breite Manipulation der Versuchsparameter (Abstand an dem das Objekt dargestellt wird, Stellung in der Frontoparallel-Ebene oder die Ausrichtung des Objekts). Zu guter Letzt kann wie auf der rechten Seite von Abbildung 3 bgezeigt, der Roboter werden auch programmiert, verschiedene Objekte (Platte und Kugel in unserem Fall) zu erfassen.

Dieser experimentellen Ansatz ermöglicht die Bestimmung der Objektfunktionen fahren antwortauslösung Neuronen, die auf Objekt Beobachtung während greifen reagieren. Dieser Ansatz hat jedoch auch Grenzen. Bei jedem Test werden einige Neuronen von der weiteren Prüfung ausgeschlossen (z. B. keine Antworten auf die Bilder der Objekte, keine Kontur Selektivität), so dass die Schlussfolgerungen des Experiments nur auf eine Teilmenge aller Neuronen zeigen aufgabenbezogene beziehen können Tätigkeit während greifen. Jedoch in unserem vorherigen Studien8, die große Mehrheit (83 %) von Neuronen zeigen visuelle Antworten auf Objekt Beobachtung während greifen waren auch selektiv auf die Bilder der Objekte reagieren, und die große Mehrheit der letzteren Neuronen (90 %) waren auch selektiv für Kontur Versionen dieser Bilder. Daher kann unser Testprotokoll für ein sehr großer Teil aller visuell ansprechende Neuronen im frontalen und parietalen Kortex geeignet.

Einige antwortauslösung Neuronen, am ehesten in mehr Motor-bezogene Teilsektoren in den frontalen Kortex wie F5p, reagieren nur auf Objekte im Zusammenhang mit einer Aufgabe greifen können, und Antworten Sie niemals auf die Bilder der Objekte (auch mit binokulare Disparität) präsentiert auf einer Display. Dennoch können wir die Eigenschaften dieser Subpopulation von Neuronen, die mit dem Roboter untersuchen. Mit diesem Versuchsaufbau präsentieren wir die Objekte an verschiedenen Standorten in der Frontoparallel-Ebene, während passive Fixierung (analog zu einem RF-Test), bei verschiedenen 3D Ausrichtungen und in unterschiedlichen Entfernungen vom Tier und wir kombinieren saccadischen Auge Bewegungen auf das Objekt mit Objekt greifen21.

Unsere Absicht ist kein einzelnes oder starres experimentelles Protokoll für das Studium der Parieto-Frontal Neuronen, sondern unterstreichen die Notwendigkeit eines umfassenden und dynamischen Ansatzes mit den Aufgaben und Tests, die speziell für die Neuronen untersucht. Über optische Selektivität kann beispielsweise unser Protokoll leicht für das Studium der anderen visuellen Eigenschaften von Nervenzellen reagieren auf Objekte anpassen. Zum Beispiel folgten wir ein sehr ähnliches Vorgehen bei der Untersuchung von 3D Selektivität in F5a12 und AIP Neuronen13 während greifen. Wir haben auch greifen Ausführung und detaillierte visuelle Tests mit Videos von Aktionen, bei der die Aktion Beobachtung Antworten in AIP22Untersuchung kombiniert. Auf die gleiche Weise konnte viele andere experimentelle Aufgaben, nicht dazu, auch unser Protokoll je nach Fragestellung behandelt werden hinzugefügt werden. Diese Aufgaben umfassen das Studium der beiden rein physikalischen Eigenschaften des Reizes (z. B. Reiz Größe) und kognitive Aspekte wie Reiz Vertrautheit23 oder biologische Relevanz (Vorliebe für Formen, die biologisch relevant sind wie Gesichter24).

Weitere Studien in diesen Bereichen werden ein besseres Verständnis des Netzwerks und ermöglicht es uns, die Art der zu verwendenden Protokolle zu verfeinern.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Die Autoren haben nichts preisgeben.

Acknowledgments

Wir danken Inez Puttemans, Marc De Paep, Sara De Pril, Wouter Depuydt, Astrid Hermans, Piet Kayenbergh, Gerrit Meulemans, Christophe Ulens und Stijn Verstraeten für technische und administrative Unterstützung.

Materials

Name Company Catalog Number Comments
Grasping robot GIBAS Universal Robots UR-6-85-5-A Robot arm equipped with a gripper
Carousel motor Siboni RD066/†20 MV6, 35x23 F02 Motor to be implemented in a custom-made vertical carousel. It allows the rotation of the carousel.
Eye tracker SR Research EyeLink II Infrared camera system sampling at 500 Hz
Filter Wavetek Rockland 852 Electronic filters perform a variety of signal-processing functions with the purpose of removing a signal's unwanted frequency components.
Preamplifier BAK ELECTRONICS, INC. A-1 The Model A-1 allows to reduce input capacity and noise pickup and allows to test impedance for metal micro-electrodes
Electrodes FHC UEWLEESE*N4G Metal microelectrodes (* = Impedance, to be chosen by the researcher)
CRT monitor Vision Research Graphics M21L-67S01 The CRT monitor is equipped with a fast-decay P46-phosphor operating at 120 Hz
Ferroelectric liquid crystal shutters Display Tech FLC Shutter Panel; LV2500P-OEM The shutters operate at 60 Hz in front of the monkeys and are synchronized to the vertical retrace of the monitor

DOWNLOAD MATERIALS LIST

References

  1. Gallese, V., Fadiga, L., Fogassi, L., Rizzolatti, G. Action recognition in the premotor cortex. Brain. 119 (2), 593-609 (1996).
  2. Fogassi, L., Gallese, V., Buccino, G., Craighero, L., Fadiga, L., Rizzolatti, G. Cortical mechanism for the visual guidance of hand grasping movements in the monkey: a reversible inactivation study. Brain. 124 (3), 571-586 (2001).
  3. Rizzolatti, G., Camarda, R., Fogassi, L., Gentilucci, M., Luppino, G., Matelli, M. Functional organization of inferior area 6 in the macaque monkey. II. Area F5 and the control of distal movements. Exp. Brain Res. 71 (3), 491-507 (1988).
  4. Mishkin, M., Ungerleider, L. G. Contribution of striate inputs to the visuospatial functions of parieto-preoccipital cortex in monkeys. Behav. Brain Res. 6 (1), 57-77 (1982).
  5. Goodale, M. A., Milner, A. D. Separate visual pathways for perception and action. Trends Neurosci. 15 (1), 20-25 (1992).
  6. Baumann, M. A., Fluet, M. C., Scherberger, H. Context-specific grasp movement representation in the macaque anterior intraparietal area. J. Neurosci. 29 (20), 6436-6438 (2009).
  7. Murata, A., Gallese, V., Luppino, G., Kaseda, M., Sakata, H. Selectivity for the shape, size, and orientation of objects for grasping neurons of monkey parietal area AIP. J. Neurophysiol. 83 (5), 2580-2601 (2000).
  8. Romero, M. C., Pani, P., Janssen, P. Coding of shape features in the macaque anterior intraparietal area. J. Neurosci. 34 (11), 4006-4021 (2014).
  9. Sakata, H., Taira, M., Kusonoki, M., Murata, A., Tanaka, Y., Tsutsui, K. Neural coding of 3D features of objects for hand action in the parietal cortex of the monkey. Philos. Trans. R. Soc. Lond. B. Biol. Sci. 353 (1373), 1363-1373 (1998).
  10. Taira, M., Mine, S., Georgopoulos, A. P., Murata, A., Sakata, H. Parietal cortex neurons of the monkey related to the visual guidance of the hand movement. Exp Brain Res. 83 (1), 29-36 (1990).
  11. Janssen, P., Scherberger, H. Visual guidance in control of grasping. Annu. Rev. Neurosci. 8 (38), 69-86 (2015).
  12. Theys, T., Pani, P., van Loon, J., Goffin, J., Janssen, P. Selectivity for three-dimensional contours and surfaces in the anterior intraparietal area. J. Neurophysiol. 107 (3), 995-1008 (2012).
  13. Goffin, J., Janssen, P. Three-dimensional shape coding in grasping circuits: a comparison between the anterior intraparietal area and ventral premotor area F5a. J. Cogn. Neurosci. 25 (3), 352-364 (2013).
  14. Raos, V., Umiltá, M. A., Murata, A., Fogassi, L., Gallese, V. Functional properties of grasping-related neurons in the ventral premotor area F5 of the macaque monkey. J. Neurophysiol. 95 (2), 709-729 (2006).
  15. Umilta, M. A., Brochier, T., Spinks, R. L., Lemon, R. N. Simultaneous recording of macaque premotor and primary motor cortex neuronal populations reveals different functional contributions to visuomotor grasp. J. Neurophysiol. 98 (1), 488-501 (2007).
  16. Denys, K., et al. The processing of visual shape in the cerebral cortex of human and nonhuman primates: a functional magnetic resonance imaging study. J. Neurosci. 24 (10), 2551-2565 (2004).
  17. Theys, T., Pani, P., van Loon, J., Goffin, J., Janssen, P. Selectivity for three-dimensional shape and grasping-related activity in the macaque ventral premotor cortex. J.Neurosci. 32 (35), 12038-12050 (2012).
  18. Nelissen, K., Luppino, G., Vanduffel, W., Rizzolatti, G., Orban, G. A. Observing others: multiple action representation in the frontal lobe. Science. 310 (5746), 332-336 (2005).
  19. Janssen, P., Srivastava, S., Ombelet, S., Orban, G. A. Coding of shape and position in macaque lateral intraparietal area. J. Neurosci. 28 (26), 6679-6690 (2008).
  20. Romero, M. C., Janssen, P. Receptive field properties of neurons in the macaque anterior intraparietal area. J. Neurophysiol. 115 (3), 1542-1555 (2016).
  21. Decramer, T., Premereur, E., Theys, T., Janssen, P. Multi-electrode recordings in the macaque frontal cortex reveal common processing of eye-, arm- and hand movements. Program No. 495.15/GG14. Neuroscience Meeting Planner. , Washington DC: Society for Neuroscience. Online (2017).
  22. Pani, P., Theys, T., Romero, M. C., Janssen, P. Grasping execution and grasping observation activity of single neurons in macaque anterior intraparietal area. J. Cogn. Neurosci. 26 (10), 2342-2355 (2014).
  23. Turriziani, P., Smirni, D., Oliveri, M., Semenza, C., Cipolotti, L. The role of the prefrontal cortex in familiarity and recollection processes during verbal and non-verbal recognition memory. Neuroimage. 52 (1), 469-480 (2008).
  24. Tsao, D. Y., Schweers, N., Moeller, S., Freiwald, W. A. Patches of faces-selective cortex in the macaque frontal lobe. Nat. Neurosci. 11 (8), 877-879 (2008).

Tags

Neurowissenschaften Ausgabe 138 Form dorsal visuelle Stream Makaken greifen Fixierung rezeptiven Feld Einzelzelle Aufnahme
Untersuchung von Objekt-Vertretungen in den Makaken dorsalen Visual Stream mit Monoblock-Aufnahmen
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Caprara, I., Janssen, P., Romero, M. More

Caprara, I., Janssen, P., Romero, M. C. Investigating Object Representations in the Macaque Dorsal Visual Stream Using Single-unit Recordings. J. Vis. Exp. (138), e57745, doi:10.3791/57745 (2018).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter