Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Neuroscience

Оперантной протоколы для оценки анализа затрат выгод во время усиленного решений грызуны

Published: September 10, 2018 doi: 10.3791/57907
* These authors contributed equally

Summary

Анализ затрат выгод является весы подход, который мозг выполняет в ходе принятия решений. Здесь, мы предлагаем протокол обучить крыс на оперантного решений парадигмы где крыс выбрать высшие награды за счет ждет 15 s, чтобы получить их.

Abstract

Армирование руководствуясь решений является возможность выбора между конкурирующими курсы действий, основанных на значении относительного преимущества и их последствий. Этот процесс является неотъемлемой частью нормального человеческого поведения и было показано, чтобы быть нарушена неврологических и психиатрических расстройств, таких как наркомания, шизофрения и депрессия. Грызуны давно используется для раскрыть нейробиологии человеческого познания. С этой целью были разработаны несколько поведенческих задач; Однако большинство не автоматизирован и трудоемкий. Недавнее развитие открытым исходным кодом микроконтроллера позволило исследователей для автоматизации задач на основе оперантного для оценки различных когнитивных задач, стандартизации стимул презентации, улучшение записи данных и следовательно, улучшение Результаты этих исследований. Здесь мы описываем автоматизированной задержки задачи на основе подкрепления руководствуясь принятия решений, используя оперантного t-лабиринту контролируется пользовательской программы. С помощью этих решений задач, мы показывают изменения в местах потенциальной деятельности в передней поясной коры крыса, пока он выполняет задачу на основе задержки принятия затрат и выгод.

Introduction

Принятия решений — это процесс признания и выбор вариантов, основанных на ценностях и предпочтениями принимающего решения и последствия выбранного действия1. Хотя принятие решений широко изучены в различных областях (например, экономика, психология и нейронауки), нейронные механизмы, лежащие в основе таких когнитивных способностей являются полностью не поняли. Две подкатегории принятия решений являются восприятия решений и усиления руководствуясь принятия решений. Хотя они включают значительным пересекающихся элементов и концепций, восприятия решений опирается на имеющиеся сенсорной информации1,2, тогда как подкрепление руководствуясь принятия решений занимается относительное значение накопленный за конкретные сроки3действий. Одним из важных аспектов усиленного решений является анализ затрат выгод, который выполняется интуитивно мозга путем вычисления преимущества данного выбора и вычитая расходы каждого альтернативного варианта1.

T-лабиринту (или вариант Y-лабиринт) является одним из наиболее часто используемых лабиринты в научные эксперименты, используя грызунов. Животные помещены в начало руку (база T) и разрешено выбрать цели руку (один из стороны оружия). Такие задачи, как принудительное чередование или влево вправо дискриминации главным образом используются с грызунами в t-лабиринту для проверки ссылок и рабочей памяти4. T-лабиринты также широко используются в принятии решений эксперименты5,6,7. В простой дизайн вознаграждение помещается в руке только одна цель. Выбор является предсказуемым, и животных безусловно предпочли бы вознаграждение, а не ничего, независимо от значения награду. Другой вариант заключается в том, чтобы место награды в обе цели оружия и затем пусть животных сделать выбор какой путь принять в зависимости от нескольких параметров (т.е., природные предпочтение животного, разница в стоимости награды и расходы оплачиваются). В разработке на основе значений задача более сложная, задав свойства весы. Таким образом животное получает по-разному ценные награды, выбирая между двумя альтернативами, а также между расходами действий [то есть, количество ожидания (задержка основе) или количество усилий (на основе усилий) необходимо получать награды], Каждый вклад в решение, которое производится5,6.

В традиционной основе задержки t-лабиринту решений, животные проходят подготовку для выберите высокую награду руку (HRA) и избежать обратное низкое вознаграждение руку (ЛРА). По бокам HRA и ЛРА остаются неизменными на протяжении всего эксперимента. Хотя описанные выше задачи хорошо задокументировано в литературе, она страдает от нескольких процедурных недостатков. Во-первых имея фиксированной цели руку, животное знает, который руку на выбор с самого начала каждого судебного разбирательства. В этом случае животные могут выбрать цели руку, основанный на их памяти, а не на процесс принятия решений. Таким образом в основе задержки принятия парадигмы, если животное выбирает низкое вознаграждение за исследование вмешательство, он не будет ясно ли это из-за потери памяти или для изучения интервенции. Памяти контрольной группы для разделения наблюдаемое поведение от памяти проблемы могли бы быть рассмотрены, но это бремя исследователей и животных из-за дополнительной работы7. Второй проблемой является на момент принятия решений по животное: как только животные достигают решение зоны (соединение всех трех оружия), они обычно выглядят влево и вправо, взвесить затраты и выгоды относительно каждой руки и затем сделать их решение. Однако после нескольких испытаний, они выполняют такие вычисления до прибытия в зону в решение и просто запустить непосредственно на руки вознаграждения. Как результат, эти два недостатка — предварительно уклоном одной рукой и нахождение на момент принятия решений — как высоко прервать интерпретации электрофизиологических и данных нейровизуализации.

В методе, описано в этом документе предпочтительным руку (HRA) cued, слуховой сигнал и может варьироваться от судебного разбирательства в суде. Животных инициировать судебные процессы, введя тестовый зоны (рис. 1) и вызывая слуховой сигнал, «нос тыкая» инфракрасный ворота, который был размещен на стыке трех оружия. Звуковой сигнал (20 дБ, между 500 и 1000 мс) играют от диктора в конце цели руку.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Все процедуры объяснил здесь были утверждены и осуществляются в соответствии с руководство по уходу и использованию лабораторных животных и были одобрены Флори Комитет по этике в области Институт животного или исследовательский центр неврологии.

1. жилья, обработка и ограничение питания

  1. Использование самцов крысы взрослого (обычно 8 недель) (любого штаммов) и держать их в комнате с циклом свет/темно 12-h.
  2. Ограничение их доступа к продовольствию для поощрения животных для выполнения задачи.
    Примечание: Жилье животных сингулярно предлагается, как это обеспечивает лучший контроль каждого приема пищи.
  3. На 1-3 обработки животных примерно 5 минут, 2 раза в день.
    Примечание: Обработка знакомит животных с контакта человека и снижает уровень стресса и тревоги в животных на протяжении экспериментов.
  4. Вес животных после каждого сеанса обработки. Использовать в первый день вес как сумма свободных кормления и продолжайте около 80-85% суммы их бесплатно кормление животных.

2. экспериментальные установки

  1. Используйте t-лабиринту оснащены 3 разделов или оружия, 2 колонки стимул, 5 раздвижной двери и 5 инфракрасные датчики или датчики инфракрасного луча (IRB).
    Примечание: T-лабиринту могут быть построены из древесноволокнистых плит средней плотности (MDF) и поливинилхлорид (ПВХ).
  2. Управление лабиринт, здесь построен на Arduino микроконтроллер.
  3. Скопируйте код Arduino в компьютер.
  4. Скачать программное обеспечение Arduino от программного обеспечения веб-сайта и установить его на компьютере.
  5. Подключите к компьютеру с помощью USB-порт микроконтроллер.
  6. На компьютере щелкните значок программного обеспечения, перейдите в меню Сервиси затем выберите порт.
  7. Из раскрывающегося меню выберите COM-порт (последовательный порт), который соединяет программное обеспечение на компьютер.
  8. Перейдите в меню Сервис и выберите пункт доски. Из раскрывающегося меню выберите тип Arduino, который управляет t-лабиринту.
  9. Нажмите кнопку загрузить в верхнем левом углу окна интерфейса. Выберите код Arduino. Дождитесь завершения процесса.
  10. Выберите последовательный монитор в верхней правой части окна интерфейса. Затем в новом окне всплывающее, измените скорость передачи данных до 115200.

3. привыкания в лабиринте

  1. Перед каждой сессией привыкания принести животных в комнату эксперимент по крайней мере 1 h до эксперимента.
  2. Оставьте 10 гранул сахара на каждой цели руку и открыть все двери.
    Примечание: На данном этапе существует не нужно отслеживать перемещения животных (рис. 1).
  3. Дни 1-3: место животные индивидуально в лабиринт для периодов 10 мин, 1 x в день, чтобы изучить лабиринт без ограничений.
  4. 4-5 дней: место животные индивидуально в лабиринте. Оставьте 2 гранулы в каждой руке и дать им возможность отведать пищу от обеих сторон. Удалите животное из лабиринта, сразу после еды окатышей с обеих сторон или после 5 минут в лабиринте.
    Примечание: Основное различие между этой стадии и предыдущем этапе является, что животные должны быть удалены из лабиринта сразу после еды окатышей с обеих сторон. Это будет ознакомиться животное с удаляется из лабиринта в конце судебного разбирательства.
  5. После каждой сессии чистые полы лабиринт с 70% этанола и убедитесь, что этанол испарилась до размещения следующее животное в лабиринте.

4. дискриминация обучение

  1. Подготовка лабиринт
    1. День 6: Принести животных в комнату эксперимент по крайней мере 1 h до эксперимента.
    2. Запустите программу Arduino и установить пробную номер 14, из которых первые 4 испытания будет принудительно выбором и остальные будет выбор испытания.
      Примечание: Программа случайным образом будет генерировать равное количество попыток быть назначен с левой и правой стороне t-лабиринту.
    3. Перед началом каждого судебного разбирательства, место 4 гранулы в руки цель, которая должна быть cued как HRA и 2 гранулы в другую руку, которая является ЛРА.
  2. Принудительный выбор пробной подготовки (4 исследования)
    1. Псевдослучайным образом блокировать одной рукой перед каждого судебного разбирательства, так что животное вынужден выбрать другой рукой.
      Примечание: Заблокированных рука может быть высокую награду руку или более низкое вознаграждение руку пока слуховой сигнал освещаются на стороне HRA.
    2. Место животного в поле Начало (рис. 1). После 5-7 сек одновременно открыть ворота Пуск и нажмите кнопку Пуск в окне интерфейса Arduino.
    3. Соберите животных сразу после еды гранулы или после 5 минут в лабиринте.
    4. Оставьте животное в клетке дома на 2 мин.
  3. Выбор суда обучение (10 исследований)
    1. До начала каждого судебного разбирательства закройте дверь B в руку, которая выбрана программное обеспечение быть HRA. Оставьте открытой дверь А в противоположной рукой (ЛРА).
    2. Место животного в поле Начало (рис. 1). После 5-7 сек одновременно открыть ворота Пуск и нажмите кнопку начать.
    3. Пусть свободно выбирать либо руку животных. Если животное выбирает HRA, открытых дверей A, пусть животное войти в палату, закрыть дверь A и открытых дверей B незамедлительно дать животных доступ к выбранной еда хорошо.
    4. Если животное выбирает ЛРА, открытых дверей B для того чтобы дать животных доступ к еда хорошо.
    5. Удаление животных после того, как он съел всю еду в отдельных продуктах питания хорошо и оставить его в дома клетке за 2 мин.
    6. Выполните 10 выбор испытаний для каждого животного и записывать выбор животного (HRA или ЛРА) в каждом испытании.
    7. Вычислить процент высокую награду Выбор (КПЧ) для всех выбор испытаний после каждой тренировки.
    8. После завершения 14 тропы индивидуальные раз, полученные каждым инфракрасного датчика отображаются в окне интерфейса Arduino.

5. задержки обучение

  1. После того, как каждое животное достигла 80% КПЧ в обучении дискриминации (шаг 4), Начните обучение задержки, запустив 10 испытаний в день для каждого животного. В этой стадии дверь B – будет открыт только с задержкой 5 s, когда животное выбирает HRA.
  2. Если животное достигает HRC 80% в конце тренировки с задержкой 5 s, увеличить задержку до 10 s для следующей сессии обучения.
  3. Как только животное достиг HRC 80% с задержкой 10 s, увеличить задержку до 15 s для следующей сессии обучения.
  4. Запись животного выбор для каждого судебного разбирательства для вычисления КПЧ после каждой тренировки.
  5. После завершения судебных процессов отдельных раз, полученные каждым инфракрасный датчик отображаются в окне интерфейса Arduino.
    Примечание 1: Таймер запускается при нажатии кнопки Ввод. «Time_decision» это время после совать нос IRB-1. «Time_left_1» является время, когда животное ломает IRB - 1 Л и «Time_left_2», когда нарушается IRB - 2 Л. Если поведенческие исследования в сочетании с электрофизиологии или нейронной изображений (например, кальция изображений) методы, фильм записи предлагается для лучшей синхронизации поведения животного в нервные сигналы.

6. электрофизиологии (изготовление электродов)

  1. Используйте один или биполярных электродов для записи местных потенциалов поля (LFPs).
    Примечание: Использование биполярных электродов предлагается потому, что он позволяет местных повторно ссылки для снижения воздействия объем проводимости. Таким образом записанные LFP является дифференциального напряжения между 2 электродами с ~ 200 мкм расстоянием между советы.
  2. Чтобы сделать биполярного электрода, склеить 2 электроды вольфрама или ветер 2 провода из нержавеющей стали вместе (как правило, используются PFA-покрытием из нержавеющей стали провода с диаметром 50 мкм).
  3. Припой заземления и записи провода к мини-розетка стать соединитель для электрофизиологии, система записи.

7. анестезия

  1. Чтобы имплантировать электроды, анестезировать крысы внутрибрюшинного введения смеси кетамин (100 мг/кг) и ксилазина (8 мг/кг), или управляющими изофлюрановая как описано в следующих шагах.
    Примечание: Изофлюрановая рекомендуется за счет улучшения управления его глубины анестезии.
  2. Использование анестезии машина с контролируемой кислорода и потока паров анестетика.
  3. Чтобы анестезировать животное, изофлюрановая, поместите его в камере индукции и установить изофлюрановая в размере около 4% и кислорода в 500-1000 мл/мин на цистит машины.
  4. Продолжайте индукции, пока восстанавливающих рефлекс животного исчезает.
  5. Установите уровень анестезии обслуживания на 1-2,5% кислорода изофлюрановая и 300-400 мл/мин на машине.
  6. Тепло площадку с изоляцией (вата) на стереотаксического устройство и затем обездвижить животное в стереотаксического устройства.
  7. Измерьте уровень анестезии путем сжимать пальцы животного.

8. хирургическая процедура

  1. С помощью электробритвы или ножницами, бритья голова животного где разрез должен быть сделаны.
  2. Скраб области хирургии с этанолом и затем повидон йод, 4%.
  3. Смазать глаза для защиты роговицы животного во время операции.
  4. Использование ткани щипцы, осторожно потяните кожу между глазами и ушами животного. Ножницами, вырезать кожу, который зажат между щипцами и удалить надкостницы.
  5. Используйте перекись водорода для очистки и дезинфекции черепа.
  6. Найти местоположение точки вставки электрод с помощью стереотаксического координат и пометить его на череп с постоянным маркером.
  7. Используйте ручной дрелью сделать одно отверстие для электродов заземления, один для закрепления имплантата и одно отверстие в записи электрода.
  8. Вставьте электродов для сведения к минимуму возможного ущерба корковых и подкорковых очень медленными темпами.
  9. Подключите Электрод заземления к черепу, используя небольшой винт.
  10. Закрепите штекерный разъем на месте с помощью тонкого слоя стоматологического цемента акриловые.
  11. Придать бупренорфин (15 мкг/кг подкожно) или мелоксикам (1-3 мг/кг, подкожно) как болеутоляющее средство.
  12. Оставьте животное в клетке на подогреваемый Коврик для восстановления. Наблюдать животных по крайней мере каждые 30 минут, до тех пор, пока он оправился от анестезии.

9. После процедуры подготовки

  1. После операции позволяют по крайней мере 10-дневный восстановительный период. Дом животные индивидуально с свободный доступ к продовольствию и воде ad libitum и контролировать их на ежедневной основе (см. Rudebeck, Уолтон, Смит, Баннерман и Rushworth7 для получения дополнительной информации).
  2. После восстановления запустите ограничения диеты животного до 85% суммы их бесплатно кормления.
  3. Переквалифицироваться животных в лабиринт, чтобы напомнить этапа дискриминации (шаг 4).
  4. Далее, переподготовки мышей до тех пор, пока они достигли 80% HRC.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Здесь представлены данные записанные LFP от левой орбитофронтальной коры (OFC) и передней поясной коры (АКК) шести самцов крыс Wistar с помощью биполярного электрода (из PFA-покрытием из нержавеющей стали). Таблица 1 показывает длину поведенческих приобретение для каждого этапа обучения. Координаты для целевого места были определены от крыс мозг Атлас9 и заключаются в следующем: для AAC, 1,2 мм впереди bregma, 0,8 мм боковые средней линии, и 2 мм вентральной с черепом; а для ОФК, 3,5 мм впереди bregma, 2,3 мм боковые средней линии и 5,4 мм вентральной к черепу.

Записи были отфильтрованы полосовой (0.01 - 250 Гц) для извлечения LFPs и затем отведать в 1000 Гц. Спектральный анализ был проведен на LFPs с использованием мульти конуса10. Пять Slepian свечки и время-пропускная способность продукта три были использованы для достижения оптимального спектрального концентрации. Частотно-спектрограмм оценивались с использованием скольжения окно 300 мс, был перенесен за данные шаги 5 мс. Для лучшего наблюдения задачи зависимых модуляции спектральных держав и смягчить проблему Масштабирование мощность 1/f, все спектрограммы были базовые нормированные и преобразованы в децибел, используя dBtf = 10log10 (Stfвместеf), где Stf спектр на время t и частоты f иf mS является среднее спектр всех точек время в базовой линии в пределах диапазона частот11. Спектральная державы были рассчитаны для базовых (300 мс до тыкать носом), стимул (100 мс), pre-камеры (300 мс перед входом в камеру) и камеры (600 мс) времени windows. Статистический анализ проводился с помощью непараметрических на основе перестановка t-теста.

Как показано в верхней строке рисунок 2A, уменьшилось в низкой (4-12 Гц) и высокой (45-85 Гц) частота полномочия в АКК от начала до конца стимула. Сравнивая время, проведенное за пределами камеры с временем в камере, спектральный анализ показал никаких изменений в колебательных деятельности (как показано в верхней строке Рисунок 2B) в АКК.

Низкочастотных колебаний в ОФК также показали уменьшается в спектральных полномочия, в то время как животные подошел ИК ворота; Однако это появились ранее (-80 мс) и длился дольше по сравнению с низкой частоты колебаний в АКК (50-420ms). После наступления стимул (рисунок 2A, нижней строке) увеличилось середины/ВЧ-диапазона деятельности (23-100 Гц) в файле OFC. Никаких существенных изменений были замечены в windows время pre-камеры и камеры, когда они были по сравнению вместе (Рисунок 2Б, нижней строке). Эти результаты согласуются с предыдущими выводами, предполагая, что ОФК и АКК, оба участвуют в стоимости на основе принятия решений2,12,13.

Figure 1
Рисунок 1: схема выбора суда в задаче принятия задержка. Лабиринт меры 60 см х 10 см х 40 см. Поле Начало связано начало руку через раздвижной двери. Два других раздвижной двери (двери A и дверь B) размещены на каждой цели руку и вместе они делают камеру отложить животных доступ к награды. Дверь-А помещается 12,5 см, от точки входа для каждой руки и дверь B помещается непосредственно перед еда хорошо, 5 см от конца рукоятки. Поднял металла еда хорошо, 3 см в диаметре, помещается на дальнем конце каждой руки цели, 2 см над полом лабиринт.

Животное помещается в поле Начало и разрешено подход и нос тыкать инфракрасный ворота (IRB-1), чтобы вызвать слуховые стимул, что сигналы HRA (в этой панели, правую руку). СИБ - 2 Л и СИБ 2R timestamp выбор животного. Если животное поворачивает направо, дверь A открыт чтобы животное ввести руку (палата) и закрывается сразу же после вступления животного. После 15 s, дверь B открыт дать животных доступ к награде. Если животное выбирает повернуть налево, (дверь A открыт в левой стороне), двери B открыт сразу же после того, как он вводит левого желудочка. СИБ - 3L и СИБ 3R timestamp животного вход в палату.

Figure 2
Рисунок 2: временной и спектральной динамика деятельности АКК и ОФК нейронных. (A) Эта группа показывает частотно-участки АКК (верхняя строка) и ОФК (Нижняя строка) Нейронные мероприятий в ходе успешного дискриминации высокой наградой. Спектральная полномочия базовый нормированный путем вычитания окна после poking время из окна времени базовые. Значение 0 в абсциссе обозначает начала слуховой стимул. (B) Эта группа показывает частотно-участки АКК (верхняя строка) и ОФК (Нижняя строка) нервной деятельности, когда животное входит камера. Окно времени палата нормируется форкамеры временного окна. Значение 0 в абсциссе обозначает время открытия двери A. Цвет сумки изображают степени спектральные изменения в дБ шкале. Черные прямоугольники показывают значительные отклонения от уровня шанс (p < 0,05 на два-Двусторонняя перестановка тест). Пожалуйста, нажмите здесь, чтобы посмотреть большую версию этой фигуры.

Привыкания Дискриминации в учебных Обучение задержки (5s) Обучение задержки (10s) Задержку обучение (15) Итого
Крыса 1 3 дня 15 дней 8 дней 6 дней 5 дней 37 дней
Крыса 2 3 дня 18 дней 9 дней 6 дней 5 дней 41 дней
Крысы 3 3 дня 13 дней 7 дней 5 дней 6 дней 34 дней
Крыса 4 3 дня 15 дней 9 дней 6 дней 6 дней 39 дней
Крыса 5 3 дня 17 дней 8 дней 7 дней 5 дней 40 дней
Крыса 6 3 дня 16 дней 7 дней 6 дней 6 дней 38 дней

Таблица 1: Поведенческие изменчивость и время курс обучения для 6 крыс.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Грызуны давно используется в neuroscientific исследований, которые занимаются различные темы, от когнитивных способностей, таких как обучения и памяти2,14 и армированных поведение7,,1516 для централизованного контроля органов17,18 и neuropharmacology19,20. Предлагаемый протокол объяснил сложно поведенческих подходит для экспериментов с электрофизиологии и нейровизуализации. Мы описали задержки задачи на основе усиленных гидом для крыс, но она может быть адаптирована для мышей с крыс и мышей выполнить аналогично на сушу задач.

Мы использовали тыкать носом как стимул для инициирования аудио стимул. Однако, рычаг прессование и другие механизмы стимул, как визуальные и обонятельные стимулы могут также быть использованы отдельно или одновременно. Предлагаемая оперантной задача имеет ряд льгот и преимуществ по сравнению с существующими методами не оперантного. Наиболее привлекательным является автоматическое точные штампов времени курса животных решений, которые, в противном случае, очень сложно. Этот метод особенно хорошо подходит для исследования электрофизиологии и нейровизуализации. Еще одним преимуществом является удаление пространственных компонентов задачи, которые требуют пространственной памяти контрольных групп. Как весьма ответственная задача это вполне вероятно, что не все крысы хорошо работать на парадигме. Замените животного, если он простоя в начало руку, задержки ввода в зону решение для более чем 5 мин или производит выше ошибка, ставки по сравнению с другими животными в группе.

В любой момент решения предполагается одновременно оценивать затраты и значения любого выбора. Таким образом выбор HRA или ЛРА в решении этой задачи может быть результаты изменений в кодирования расходов, в кодировке выгоды, или при вычислении затрат выгод. Одно предостережение предложенного метода в настоящее время не в состоянии различать между процессами кодирования.

Есть ряд шагов, которые могут быть предприняты для максимального успеха в подготовке животных и записи их электрофизиологических сигналов. Во-первых обработка животных до подготовки кадров имеет решающее значение. Как записи сессий начать с подключения проводов записи головы животного-сцену, попробуйте акклиматизироваться их так, что они позволяют вам держать их головы. Это очень важно, так как редко обрабатываются животные становят тревожно во время этой процедуры и может повредить голову этап или записи кабель. Как правило, хорошо обрабатывается животных менее подчеркнул, проще работать с и как правило, производят меньше переменных данных.

Во-вторых грызуны оставить позади различные подсказки одоранта в лабиринте (то есть, феромон содержащих мочи и Кала, выделяют феромоны из их региона столбик, а в жидкости от их подушечки). Таким образом лабиринт должна быть уничтожена после каждого индивидуального использования и в конце эксперимента, чтобы свести к минимуму последствия этих остаточных одоранта молекул на результаты испытаний. Этанол (70%) является общей дезинфицирующего средства используются для очистки испытательного оборудования. Однако как многие дезинфектанты, сам алкоголь имеет запах, который может повлиять на поведение грызунов. Поэтому убедитесь, что он полностью испарилась до размещения животного в лабиринте.

В-третьих хотя LFPs менее чувствительны к шуму, чем шипы, использование твердых разъемы и хорошо обеспеченных кабель уменьшает уровень шума движения. Слегка распыления воды на полу лабиринт может уменьшить любое статическое электричество, которое создается путем трения между животного меха и поверхность пола.

В заключение протокол, описанные в этой статье может помочь разработать на основе задержки усиленные решений эксперименты и записать электрофизиологических сигналов пока животное выполняет задачу.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Авторы не имеют ничего сообщать.

Acknowledgments

Это исследование было поддержано RMH нейронауки Foundation, Австралия; в Австралии мозга фонд; РПИК Тйн Рид стипендий, Австралия; и проект грант от когнитивных наук и технологии Совета, Иран Аббас Haghparast.

Materials

Name Company Catalog Number Comments
T-maze Self made
Dustless Precision Sugar Pellets TSE Systems Intl. Group F0023 45 mg, Sucrose
Ketamine Hydrochloride Injection, USP Sigma-Aldrich 6740-87-0
Xylazine Sigma-Aldrich 7361-61-7
stereotaxic device Stoelting
Isofluran Santa Cruz Biotechnology sc-363629Rx
PFA-coated stainless-steel wires A-M systems
acrylic cement Vertex, MA, USA
(wooden or PVC (polyvinyl chloride)-made) local suppliers
Mini-Fit Power Connector Molex 15243048
ethannol 70% Local suppliers
buprenorphine diamondback drugs
Arduino UNO Arduino https://www.arduino.cc/
Infrared emitting diode Sharp GL480E00000F http://www.sharp-world.com/
Chronux Toolbox Chronux.org
Arduino codes https://github.com/dechuans/arduino-maze

DOWNLOAD MATERIALS LIST

References

  1. Gold, J. I., Shadlen, M. N. The neural basis of decision making. Annual Review of Neuroscience. 30, 535-574 (2007).
  2. Shi, Z., Müller, H. J. Multisensory perception and action: development, decision-making, and neural mechanisms. Frontiers in Integrative Neuroscience. 7, 81 (2013).
  3. Sutton, R. S., Barto, A. G. Reinforcement Learning: An Introduction. 1, MIT Press. Cambridge, MA. (1998).
  4. Khani, A., Rainer, G. Neural and neurochemical basis of reinforcement-guided decision making. Journal of Neurophysiology. 116, 724-741 (2016).
  5. Fatahi, Z., Haghparast, A., Khani, A., Kermani, M. Functional connectivity between anterior cingulate cortex and orbitofrontal cortex during value-based decision making. Neurobiology of Learning and Memory. 147, 74-78 (2018).
  6. Khani, A., et al. Activation of cannabinoid system in anterior cingulate cortex and orbitofrontal cortex modulates cost-benefit decision making. Psychopharmacology. 232, 2097-2112 (2015).
  7. Rudebeck, P. H., Walton, M. E., Smyth, A. N., Bannerman, D. M., Rushworth, M. F. Separate neural pathways process different decision costs. Nature Neuroscience. 9, 1161-1168 (2006).
  8. Gage, G. J., et al. Surgical implantation of chronic neural electrodes for recording single unit activity and electrocorticographic signals. Journal of Visualized Experiments. (60), e3565 (2012).
  9. Paxinos, G., Watson, C. The Rat Brain in Stereotaxic Coordinates. , Academic Press. San Diego, CA. (1998).
  10. Bokil, H., Andrews, P., Kulkarni, J. E., Mehta, S., Mitra, P. P. Chronux: a platform for analyzing neural signals. Journal of Neuroscience Methods. 192, 146-151 (2010).
  11. Cohen, M. X. Analyzing Neural Time Series Data: Theory and Practice. , MIT Press. Cambridge, MA. (2014).
  12. Luk, C. -H., Wallis, J. D. Choice coding in frontal cortex during stimulus-guided or action-guided decision-making. Journal of Neuroscience. 33, 1864-1871 (2013).
  13. Rudebeck, P. H., et al. Frontal cortex subregions play distinct roles in choices between actions and stimuli. Journal of Neuroscience. 28, 13775-13785 (2008).
  14. Goshadrou, F., Kermani, M., Ronaghi, A., Sajjadi, S. The effect of ghrelin on MK-801 induced memory impairment in rats. Peptides. 44, 60-65 (2013).
  15. Haghparast, A., et al. Intrahippocampal administration of D2 but not D1 dopamine receptor antagonist suppresses the expression of conditioned place preference induced by morphine in the ventral tegmental area. Neuroscience Letters. 541, 138-143 (2013).
  16. Esmaeili, M. -H., Kermani, M., Parvishan, A., Haghparast, A. Role of D1/D2 dopamine receptors in the CA1 region of the rat hippocampus in the rewarding effects of morphine administered into the ventral tegmental area. Behavioural Brain Research. 231, 111-115 (2012).
  17. Chaleek, N., Kermani, M., Eliassi, A., Haghparast, A. Effects of orexin and glucose microinjected into the hypothalamic paraventricular nucleus on gastric acid secretion in conscious rats. Neurogastroenterology & Motility. 24, e94-e102 (2012).
  18. Kermani, M., Eliassi, A. Gastric acid secretion induced by paraventricular nucleus microinjection of orexin A is mediated through activation of neuropeptide Yergic system. Neuroscience. 226, 81-88 (2012).
  19. Kermani, M., Azizi, P., Haghparast, A. The role of nitric oxide in the effects of cumin (Cuminum Cyminum L.) fruit essential oil on the acquisition of morphine-induced conditioned place preference in adult male mice. Chinese Journal of Integrative Medicine. , 1-6 (2012).
  20. Ahmadi, A., et al. Synthesis and antinociceptive behaviors of new methyl and hydroxyl derivatives of phencyclidine. Current Medicinal Chemistry. 19, 763-769 (2012).

Tags

Нейробиологии выпуск 139 t-лабиринту армированная поведения основанных на задержку принятия решений местных потенциалов поля передней поясной коры орбитофронтальной коры
Оперантной протоколы для оценки анализа затрат выгод во время усиленного решений грызуны
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Kermani, M., Fatahi, Z., Sun, D.,More

Kermani, M., Fatahi, Z., Sun, D., Haghparast, A., French, C. Operant Protocols for Assessing the Cost-benefit Analysis During Reinforced Decision Making by Rodents. J. Vis. Exp. (139), e57907, doi:10.3791/57907 (2018).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter