Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Neuroscience

SwarmSight : Suivi en temps réel des mouvements de l’antenne insectes et trompe Extension réflexe à l’aide d’une préparation commune et matériel conventionnel

Published: December 25, 2017 doi: 10.3791/56803

Summary

Ce protocole décrit les étapes pour utiliser le nouveau logiciel, SwarmSight, image par image suivi des insectes postes d’antenne et de la trompe de vidéos de caméra web conventionnel à l’aide d’ordinateurs classiques. Le logiciel gratuit, open-source traite les trames environ 120 fois plus vite que les humains et effectue au mieux qu’exactitude humaine.

Abstract

Beaucoup d’insectes scientifiquement et agricole important utilise des antennes pour détecter la présence de composés chimiques volatils et étendre leur trompe pendant la tétée. La capacité de rapidement obtenir des mesures à haute résolution des mouvements naturels d’antenne et de la trompe et à évaluer comment ils changent en réponse à des manipulations génétiques, développementale et chimiques peut aider à la compréhension du comportement de l’insecte. En étendant nos travaux antérieurs sur l’évaluation globale essaim insecte ou mouvements de groupe d’animaux du naturel et vidéos de laboratoire en utilisant le logiciel d’analyse vidéo SwarmSight, nous avons développé un module de logiciel nouvelle, libre et open source, appendice SwarmSight Suivi (SwarmSight.org) pour le suivi d’image par image des insectes postes d’antenne et de la trompe de vidéos de caméra web conventionnel à l’aide d’ordinateurs classiques. Le logiciel traite les trames environ 120 fois plus vite que les humains, effectue au mieux qu’exactitude humaine et, à l’aide de 30 images par seconde vidéos (fps), peut capturer antennaire dynamique jusqu'à 15 Hz. Le logiciel a été utilisé pour suivre la réponse antennaire des abeilles à miel à deux odeurs et trouvé des rétractations antennaires moyennes significatives loin de la source de l’odeur environ 1 s après la présentation de l’odeur. Nous avons observé des chaleur de densité antenne position plan de formation de cluster et cluster et signifie dépendance angle sur la concentration d’odeur.

Introduction

La plupart des arthropodes déplacent les antennes ou autres appendices pour échantillonner les signaux environnementaux et des signaux dans le temps et l’espace. Les animaux peuvent utiliser les antennes pour naviguer dans leur environnement en détectant des indices sensoriels tels que les substances chimiques volatiles et stimuli gustatifs et mécanique1,2,3,4. Chez les insectes, les antennes contiennent des récepteurs sensoriels qui se lient aux substances chimiques volatiles,4,5,6 et transmettent ce signal par l’intermédiaire de neurones sensoriels olfactifs au cerveau central régions1,7 ,8,9. Les insectes peuvent régler des antennes positions pour moduler les informations entrantes odeurs4,10,11. Cette modulation facilite activement informé des réponses comportementales aux odeurs et leurs plumes12,13.

Beaucoup d’insectes, y compris les hyménoptères (p. ex., les abeilles et bourdons), lépidoptères (papillons,par exemple ) et des diptères (p. ex., les mouches et les moustiques), entre autres, se nourrissent en étendant leur trompe14 , 15 , 16 , 17 , 18 , 19 , 20 , 21. extension de la trompe a été utilisée de manière fiable dans le passé pour une variété d’apprentissage et mémorisation des tâches22,23,24,25,26, 27,28,29,30,31. De même, une évaluation quantitative du mouvement des antennes avec une haute résolution temporelle et spatiale peut générer aperçu de la relation entre le stimulus, le comportement et l’état interne de l’animal. Travail en effet précédent a montré comment les mouvements antennaires contiennent une quantité riche d’informations sur le miel abeille suivi de l’environnement et comment les mouvements changent avec apprentissage32,33,34, 35,36,37,38.

Au cours de la dernière décennie, méthodes pour observer le comportement des animaux ont été grandement accélérées par les avancées dans les caméras vidéo à haute résolution, des vitesses et des algorithmes de vision de machine de traitement informatique. Tâches telles que détection animale, décompte, suivi et analyse de préférence de place ont été favorisés avec un logiciel sophistiqué qui peut traiter des vidéos du comportement animal et extrait pertinent mesure39,40, 41,42,43,44,45,46,47.

Ces technologies ont également aidé suivi des insectes déplacements d’antenne et de la trompe. Il est possible pour les évaluateurs humains d’utiliser un curseur de la souris pour suivre manuellement la position des antennes. Cependant, bien que cette méthode puisse être précise, la tâche prend du temps, et fatigue et inattention humaine peut entraîner des résultats peu fiables. Préparation et équipements spéciaux peuvent servir à réduire le recours à des logiciels complexes. Par exemple, un seul montage utilisé une caméra à haute vitesse et peint les pointes des antennes pour suivre le mouvement d’antenne48. Utilisateurs peuvent également être invités à sélectionner key-frames des vidéos pour aider le logiciel dans la détection de l’antenne et la trompe emplacement49. Une autre approche détecté les deux clusters motion plus grands afin d’identifier des antennes, mais il ne détecte pas la trompe emplacement50. Un autre logiciel peut détecter des emplacements d’antenne et de la trompe, mais nécessite environ 7,5 s de temps de traitement par cadre51, qui peut être prohibitif pour les études d’observation en temps réel ou à long terme. Enfin, il pourrait être possible de personnaliser les progiciels commerciaux (p. ex., EthoVision) pour effectuer la tâche46, mais leurs coûts de licences et de formation peuvent être prohibitifs.

Avec la méthode décrite ici, nous avons étendu nos travaux antérieurs sur motion analyse logiciel41 pour suivre l’emplacement des antennes insectes et trompe avec les objectifs suivants : (1) aucune exigence pour le matériel spécial ou préparation animaux complexe, (2). cadre de traitement en temps réel (30 images/s ou plus rapide) sur un ordinateur traditionnel, (3) facilité d’utilisation et (4) open source, le code facilement extensible.

La méthode originale qui en résulte et les logiciels open-source, Suivi d’appendices SwarmSight, ne nécessite pas de peinture des conseils antennes, peut utiliser une caméra web de consommateur pour capturer des vidéos et des images vidéo de processus à 30 à 60 fps sur un ordinateur conventionnel ( La figure 1). Le logiciel prend les fichiers vidéo comme entrée. L’utilisateur localise la position de la tête de l’insecte dans la vidéo et, après traitement, un fichier de valeurs séparées (.csv) par des virgules est produit avec l’emplacement des antennes et trompe. Le logiciel est capable de lire des centaines de formats vidéo (y compris les formats produites par la plupart des caméras numériques) grâce à l’utilisation de la bibliothèque de FFmpeg52.

Figure 1
Figure 1 : animale sortie de logiciels et d’installation. (A) A Ensileuses d’abeille miel avec sa tête et son corps attaché dans un harnais. Odeur (B) source est placé en face de l’animal, une caméra vidéo est positionné au-dessus, et un système d’aspiration est placé derrière l’animal. (C), l’antenne pointe et trompe variables détectés par le logiciel SwarmSight de la vidéo. (D) l’utilisateur positionne le capteur de l’antenne sur l’animal et ajuste les paramètres de filtre. Le logiciel détecte les positions d’antenne et de la trompe (anneaux jaune).S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Tout d’abord, corps de l’insecte et sa tête sont immobilisés dans un harnais telle que les mouvements de l’antenne et la trompe sont facilement observés (Figure 1 a). Une source d’odeur est placée en face de l’insecte, avec une source de vide placée à l’arrière, pour enlever les odeurs de l’air et de minimiser les effets potentiels d’adaptation sensorielle (Figure 1 b). Une caméra web conventionnel est placée au-dessus de la tête de l’insecte sur un trépied. Une LED peut être positionnée en vue de la caméra pour indiquer quand l’odeur est présenté.

Figure 2
Figure 2 : système de coordonnées antenne. X, valeurs Y utilisent le système de coordonnées vidéo où coin supérieur gauche est l’origine et l’augmentation des valeurs X et Y lorsque vous déplacez vers le coin inférieur droit. Angles sont exprimés en degrés par rapport à l’avant de la tête (généralement la source d’odeur). Une valeur de « 0 » signifie que la ligne formée par le flagelle de l’antenne est orientée directement en face de l’animal. Sous tous les angles sont positifs, sauf lorsqu’une pointe de l’antenne vers la direction opposée (par exemple, les points de flagelle droite vers la gauche). S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Après le tournage, le fichier vidéo s’ouvre avec le logiciel SwarmSight, lorsque l’utilisateur positionne le widget du capteur de l’antenne (Figure 1, carré noir) sur la tête de l’insecte et commence la lecture de vidéos. Lorsque les résultats sont enregistrés, le fichier .csv contient le X, Y des positions de l’antenne pointe, les angles de l’antenne par rapport à l’avant de la tête (Figure 2) et la trompe X, position Y. En outre, une métrique de secteur dominant est calculée pour chaque antenne. Les spectacles de métrique qui, des cinq secteurs 36 degrés autour de chaque antenne, contenait le plus de points jugés susceptibles d’être les antennes et peuvent être utiles si les mesures d’angle de position/antenne ne sont pas fiables en raison de la bruyantes ou autrement problématiques vidéos.

En bref, le logiciel fonctionne en utilisant un ensemble de filtres de motion53 et une inondation détendue remplissage algorithme54. Pour trouver les points susceptibles d’antenne, deux filtres sont utilisés : une différence 3-consécutives-cadre filtre41,55 et un filtre de56 médiane-fond soustraction. Un filtre de seuil de distance de couleur est utilisé pour la détection de point de trompe. Les 10 % des points de chaque filtre sont combinés, et un algorithme de remplissage d’inondation qui inspecte les points contigus avec lacunes jusqu'à 2 pixels (px) localise les points extrêmes. Parallèlement, décodage de trame, le traitement et pipelines de rendu et mémoire optimisée répartition du flux de données de filtre atteint des performances élevées. Le cru valeurs x et y coordonnées produites par le logiciel sont directement traitées avec un 3-châssis roulant filtre médian57 (voir Discussion). Les instructions pour télécharger le code source complet peuvent être trouvées en ligne58.

Voici un protocole pour préparer une ensileuse d’abeille miel pour antenne de suivi. Un protocole similaire pourrait être utilisé pour suivre les déplacements d’antenne/trompe de n’importe quel autre insecte. Dans la section résultats, les auteurs décrivent une sortie de trace d’antenne échantillon qui est détectée par le logiciel, la comparaison de la production de logiciels de suivi effectuée par des évaluateurs humains et évaluation du mouvement des antennes en réponse aux cinq substances odorantes.

Protocol

1. attraper et d’exploiter les abeilles à miel

  1. Suivre le protocole étapes1 3.1.1 de Smith et fardeau59.

2. préparer le harnais animaux et caméra vidéo

  1. Cacher les jambes en appliquant le ruban sur le dessus du tube harnais, inspecter visuellement que jambes ne peut pas être vu se déplaçant du haut.
  2. Immobiliser la tête en appliquant la cire chauffée à l’arrière de la tête de l’insecte. Visuellement que la tête est fixe et non mobile. À ce stade, les antennes et les mandibules devraient être les seuls appendices libres de se déplacer.
  3. Maximiser le contraste entre les antennes et les arrière-plans vidéo en plaçant une feuille blanche de papier sous le faisceau de l’insecte. Pour minimiser la nécessité de régler plus tard la caméra, marquer l’emplacement de l’atelier insecte sur le papier et ensuite placer de nouveaux individus au même endroit.
  4. Fixer la position de la caméra à l’aide d’un trépied ou un détenteur de webcam de placer la caméra plus haut de la tête de l’insecte. En utilisant le logiciel de la caméra, obtenir un aperçu de la vidéo et effectuer un zoom avant pour agrandir l’image en tête, ce qui permet un dégagement d’environ 20-30 % sur tous les côtés de la vidéo.
    1. Veiller à ce que les seuls objets mobiles dans la vue de la caméra sont les antennes ou les trompe/mandibules et repositionner la caméra ou l’animal si nécessaire.
      Remarque : SwarmSight vérifie le mouvement en pixels autour de la tête. Motion superflue dans le voisinage immédiat de la tête, causé par des objets tels que des jambes, ombres, fans ou des humains peut-être confondre le logiciel et bruit supplémentaire.
  5. Minimiser les ombres de l’antenne en réglant l’éclairage ambiant.
    Remarque : Le logiciel peut tolérer certaines ombres, mais pour de meilleurs résultats, ils devraient être réduites au minimum.
  6. Prévenir les ajustements d’exposition caméra automatique en utilisant le logiciel de vitesse d’obturation la caméra pour garder le temps d’exposition de caméra constant tout au long de la vidéo. Utilisation du logiciel, régler la vitesse d’obturation pour maximiser le contraste (scène vidéo pas trop clair ou trop foncé), en réglant le « curseur exposition » sous « Paramètres de la Webcam. »
    Remarque : Les instructions ci-dessus sont spécifiques à la webcam et le logiciel utilisé. Ceux-ci devront être adaptés si autres webcams sont utilisés.
  7. Placer la source de livraison odeur et s’assurer qu’il ne gêne pas la vue caméra en inspectant le flux vidéo de la caméra. Veiller à ce qu’un système d’aspiration est placée du côté opposé pour enlever les odeurs de stimulation.
  8. Placer une diode électroluminescente, ou un autre indicateur visuel qui change de luminosité pour indiquer la livraison de l’odeur, dans la vue caméra.
    Remarque : La valeur de luminosité de la LED est enregistrée par le logiciel et peut être utilisée pour déterminer les cadres exactes lors de la livraison de l’odeur commence et se termine.

3. film de chaque individu dans des Conditions expérimentales

  1. Chaque condition d’insecte et test individuelle en vidéo distinct fichiers en enregistrant chaque combinaison de test individuel séparément ou à l’aide de vidéo montage logiciel pour diviser un fichier vidéo en fichiers plus petits.
    Remarque : Le logiciel exige que l’utilisateur de localiser la position de la tête dans chaque vidéo et du chef doit rester fixe. Si la tête bouge, bruit supplémentaire sera introduit. La fonction de traitement par lots de SwarmSight permet à l’utilisateur définir rapidement l’emplacement de la tête de plusieurs vidéos et suppose que la tête de l’insecte reste fixe pendant la durée de chaque fichier vidéo. On trouvera en ligne60instructions sur la façon de diviser des fichiers vidéo.

4. vidéo analyse

  1. Téléchargez et installez le module « Suivi des antenne » en suivant les étapes indiquées en ligne58.
    Remarque : Tutoriels vidéo décrivant comment utiliser le logiciel sont disponibles sur le site ainsi.
  2. Ouvrir un fichier vidéo montrant un animal filmé en utilisant le bouton « Parcourir ».
  3. Positionnement du capteur de l’antenne et le capteur de traitement
    1. Une fois que la vidéo se charge, placez le widget « Antenne capteur » rectangulaire sur tête de l’animal, en utilisant les icônes de la rotation et l’échelle pour aligner le widget avec la tête (voir la Figure 1 par exemple).
    2. Placez le widget « Capteur de traitement » circulaire sur la LED qui indique quand l’odeur ou le stimulus est présenté.
      NOTE : Le capteur de traitement enregistre la valeur de luminosité du pixel au centre du widget pour chaque image.
  4. À partir de traitement vidéo
    1. Appuyez sur le bouton « Play » (triangle noir) dans le coin inférieur gauche pour commencer l’analyse des trames.
      NOTE : Les points d’antenne et trompe probables détectés sera en surbrillance jaune. Les anneaux jaunes indique l’emplacement des pointes des appendices. Les angles (où 0 est directement en face de l’animal) de l’antenne et la longueur de rallonge de trompe seront montrés dans le widget « Modèle » dans le coin inférieur gauche (voir Figure 1). Le widget de « Secteurs dominants » dans le coin inférieur droit indique l’intensité relative des cinq secteurs 36 degrés où le plus de points antenne ont été détectés. Les secteurs les plus sombres contiennent le plus de points, tandis que les plus légères ont le moins. Le nombre de secteur (1-5) avec le plus de points s’affichera dans les coins inférieurs du widget (voir Figure 1).
  5. Réglage des seuils de filtre et en ajoutant des zones d’exclusion
    1. Pour modifier la sensibilité des filtres, réglez les curseurs dans la section « Filtres », sur le panneau de droite.
      Remarque : Selon les conditions d’éclairage et de la vitesse du mouvement général des appendices, des sensibilités différentes de filtre sera optimales. L’utilisateur peut trouver les valeurs optimales en ajustant les valeurs et en observant les zones en surbrillance dans le widget de capteur d’antenne. Quand on trouve un ensemble idéal de sensibilités, seulement les appendices seront surlignés. Il est recommandé de faire avance rapide vers d’autres parties de la vidéo pour que la sensibilité du filtre est optimale, trop.
    2. Éventuellement, pour ignorer les objets étrangers, sur le panneau droit, développez la section de « Capteur d’antenne », cliquez sur la « Zone d’Exclusion Add » bouton (voir Figure 1) et cliquez sur un ensemble de points pour former un polygone rouge, dont le contenu sera ignoré par le logiciel.
      Remarque : Si la vidéo contient motion superflue et que le mouvement se trouve dans zone du widget antenne capteur (par exemple, déplacer les jambes fortes ombres, matériel de laboratoire, etc.), le logiciel peut confondre pour le mouvement de l’appendice.
Les objets étrangers peuvent être ignorés par le dessin de polygones rouges ou « Zones d’Exclusion ». Quoi que ce soit à l’intérieur d’un polygone rouge ne doit pas servir pour le suivi.
  • Enregistrement des résultats
    1. Une fois que les filtres et les widgets ont été mis en place, arrêter la vidéo, le redémarrer depuis le début et lisez-le jusqu’au bout.
      Remarque : Une fois qu’a joué l’intégralité de la vidéo, les positions des appendices pour toutes les images vidéo sont sauvegardées dans la mémoire.
    2. Pour enregistrer les données de position de l’appendice dans un fichier, développez la section « Enregistrer » sur la droite, puis cliquez sur « enregistrer à. Bouton CSV ». Puis choisissez un dossier dans lequel enregistrer le fichier.
      Remarque : La « enregistrer dans. Bouton CSV » permettra d’économiser les résultats de traitement dans un fichier .csv. Par défaut, l’utilisateur sera offert pour enregistrer le fichier .csv dans le même dossier que le fichier vidéo et aura une date et une heure dans le cadre du nom de fichier. Le fichier .csv obtenu contiendra un ensemble de colonnes qui contiennent des informations sur la position des appendices, y compris les angles de l’antenne et secteurs dominants, ainsi que l’orientation et la position de la tête. La description de chaque colonne est fournie en ligne61.
    3. Éventuellement, utiliser les colonnes (s) et les champs de valeur (s) dans la section enregistrer pour créer une colonne supplémentaire (ou plus si séparés par des virgules) dans le fichier .csv pour enregistrer les informations, telles que l’ID de l’objet ou le nom d’une condition expérimentale.
      Remarque : La valeur dans la zone de colonnes s’affiche dans l’en-tête de la première colonne et la valeur dans la zone valeur (s) sera répétée dans toutes les lignes de la première colonne.
  • Traitement par lots
    Remarque : Le logiciel peut traiter plusieurs fichiers vidéo en un lot. Toutefois, l’utilisateur doit fournir les informations d’emplacement tête pour chaque vidéo avant de commencer le traitement par lots.
    1. Dans le panneau de droite, dans la section « Vidéos », cliquez sur le bouton « Batch Processing » pour ouvrir une fenêtre qui permet de créer une liste de fichiers vidéo à traiter dans l’ordre par le logiciel.
    2. Utilisez le bouton « Ajouter plus vidéo fichiers de lot » pour sélectionner un ou plusieurs fichiers vidéo à inclure dans la liste des lots.
    3. Éventuellement, utiliser les touches « CTRL » ou « SHIFT » pour sélectionner plusieurs vidéos qui utiliseront le même ensemble de paramètres du widget.
      NOTE : Bons candidats pour la réutilisation de paramètre sont des séries de vidéos de l’animal même qui n’a pas été déplacée entre les différentes conditions expérimentales.
    4. Commencer le réglage des paramètres du widget à utiliser pour les vidéos sélectionnées en cliquant sur le bouton « Set capteur Positions pour sélectionnés ».
    5. Ajuster les paramètres en antenne capteur, capteur de traitement, filtres, ou sauvegarder des sections et cliquez sur « Enregistrer les paramètres à lot » lorsque terminé.
    6. Une fois les paramètres pour chaque vidéo ont été sélectionnés, commencer le traitement par lots en cliquant sur le bouton « Start Processing ».
      Remarque : Le logiciel charge les fichiers vidéo dans l’ordre dans lequel ils apparaissent dans la liste des lots, les traiter et enregistrer leurs fichiers .csv correspondants dans le même dossier où se trouvent les fichiers vidéo. Une barre de progression au sommet fournira une heure estimée d’arrivée après que la première vidéo est terminée.
  • Representative Results

    Dans les sections ci-dessous sont un exemple de tracé des angles antennes produite à partir les données du logiciel, de la comparaison de l’exactitude de logiciel et de la vitesse avec les évaluateurs humains et les résultats d’une expérience où miel abeille antenne mouvement est affectée par la présentation de odeurs différentes. R logiciel62,63 a été utilisée pour effectuer l’analyse et de générer des données. On trouvera en ligne58code R pour analyse et figure génération ainsi que des tutoriels vidéo.

    Sortie du logiciel :

    La figure 3 montre les traces choisis au hasard cinq angles antenne détecté par le logiciel de vidéos d’abeilles présentés avec les versions de diluer l’huile minérale pure et 35 x de heptanal et heptanol, ainsi que l’air pur.

    Figure 3
    Figure 3 : cinq échantillons de traces d’antennes angles détectés par SwarmSight. Axe des ordonnées indique antenne angle en degrés, où « 0 » est directement en face de l’animal, vers la source de l’odeur, avec des valeurs plus élevées alors à l’opposé de la source de l’odeur. Heptanol, heptanal et leurs 35 x versions dilué l’huile minérale, ainsi que l’air pur, ont été appliqués pendant le gris 0 - 3 600 ms windows aux butineuses abeille Miel unique. Antenne de gauche est marqué en rouge, à droite, repère bleu. Cinq abeilles au hasard, un de chaque condition, sont représentés dans les cinq parcelles. S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

    Validation du logiciel :

    Pour valider que le logiciel peut détecter de manière fiable les emplacements des antennes, des positions d’antenne situées par l’homme ont été comparées avec les postes offerts par le logiciel. Deux évaluateurs humains devaient trouver les conseils de l’antenne et la trompe dans 425 images vidéo (~ 14 s de la vidéo). Un module logiciel personnalisé enregistré aux emplacements de l’appendice marqués par les noteurs, avancés automatiquement des images vidéo et enregistre la quantité de temps passé sur la tâche. Comme un exemple de correspondance entre les valeurs de l’homme - et logiciel-situé, superpose les traces coordonnées verticales d’une antenne pour le logiciel et les deux emplacements détectés humaines apparaissent en Figure 4 a. La distance entre les positions marquées antenne deux noteurs a été calculée et nommée « Distance inter humaine. » La distance entre l’emplacement de l’antenne détecté par le logiciel et l’emplacement le plus proche détectés par les évaluateurs humains a été calculée et nommée « Logiciel plus proche Distance humaine » (Figure 4 b).

    Figure 4
    Figure 4 : comparaison avec les évaluateurs humains. (A) deux évaluateurs humains et conseils antenne SwarmSight situé à 425 images vidéo. Les coordonnées de pointe Y antenne gauche image par image trouvent par les évaluateurs humains et logiciels sont superposées. (B) superpose image par image désaccord (distance en pixels vidéo) entre évaluateurs humains (orange) et le désaccord entre le logiciel et la valeur la plus proche évaluateur humain (noir). (C) l’homme vs homme antenne pointe emplacements (orange) et logiciel vs humains emplacements (noir). Histogrammes (D) et des distributions cumulatives (pointillées) de l’homme contre l’homme et de logiciels vs distances humain image par image désaccord. S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

    Distance inter humaine était de 10,9 px en moyenne, au sein de 55,2 px dans 95 % des cadres, et avait une valeur maximale de 81,6 px. Le logiciel-plus proche Distance humaine était 8.0 px en moyenne, au sein de 18,3 px dans 95 % des cadres, et avait une valeur maximale de 49,0 px (voir les histogrammes de distance dans la Figure 4et Figure 4). 5 px était environ la largeur d’une antenne. Dans l’ensemble, la Distance entre l’homme était petite pour les cadres au début de la tâche et a augmenté dans la seconde moitié de la tâche. Nous soupçonnons que c’était à cause de la fatigue de l’évaluateur. Pendant ce temps, niveaux de logiciels plus proche Distance humaine est restée constantes tout au long de la tâche.

    Logiciel vitesse et précision la comparaison avec les évaluateurs humains :

    Les humains évalué l’antenne pointe trompe emplacements et à une vitesse moyenne de 0,52 images par seconde (fps). Pour estimer les fps humaine, le nombre total d’images évalué par les humains (425) a été divisé par la durée totale, ils ont passé sur la tâche (873 s et 761 s). Le logiciel évalué les cadres à 65 images par seconde en moyenne sur un PC Dual-Core sous Windows 7. Ainsi que la vitesse de traitement élevée et précision similaire ou mieux que les évaluateurs humains, le logiciel peut s’attendre à effectuer le travail d’environ 125 évaluateurs humains par unité de temps.

    Détection de la réponse d’antenne aux odeurs :

    Afin de démontrer que le protocole peut être utilisé pour détecter des différences de comportement importants mouvement insectes, nous avons soumis 23 abeilles femelles aux deux odeurs différentes. Pure heptanal et heptanol, 35 x huile minérale dilutions des deux odeurs et l’air pur comme le contrôle, ont été présentés pendant 4 s (cinq conditions au total). Vidéos, comme décrit dans le protocole ci-dessus, ont été traitées avec le logiciel SwarmSight, et les angles de l’antenne analysés (Figure 5).

    Figure 5
    Figure 5 : antenne angle moyen et la densité de la chaleur des cartes pour cinq conditions odeur. Chaleur (A) cartes montrant la densité d’antenne angle avant, pendant (région médiane plus sombre) et après l’administration de l’heptanol, air et heptanal odorisants pour abeilles femelles (n = 23). Les courbes noires sont image par image antenne moyenne des angles (les deux antennes). Lignes horizontales sont des angles avant odeur moyenne (de base). Notez le cluster des emplacements d’antenne préférée (grappe rouge dans l’intrigue de fond) loin de la source de l’odeur odeur pure conditions, et les changements correspondants à l’angle de l’antenne moyenne.Notez également l’amas de « rebond » après la conclusion de l’odeur et de sa dépendance de début apparent sur la concentration d’odeur (Voir l’emplacement du cluster dans les quatre autres parcelles). Échelle de densité chaleur carte couleurs est arbitraire mais uniforme dans toutes les conditions. (B) changement d’angle moyen de pré odeur moyenne (barres d’erreur S.E.M). À l’exception de l’air, tous signifient changements ont été importants (t-test p < 0,05). S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

    Des images vidéo de 9 segments de s de la vidéo consistant en 3 s avant l’apparition de l’odeur, 3,6 s de présentation de l’odeur et 2.4 s après la conclusion de l’odeur étaient alignées à travers tous les individus et les conditions (300 images/segment). Les moyens de l’image par image les deux angles de l’antenne de tous les individus ont été calculés pour chaque condition et appelés « Signifie Angles » (Figure 5 a, courbes noires). Les angles de l’antenne moyenne des cadres avant l’apparition d’odeurs entre les personnes pour chaque condition ont été calculées et appelés « Odeur avant lignes de base » (Figure 5 a, des lignes horizontales fines).

    Dans toutes les conditions, sauf contrôle, les angles moyennes est passée de lignes de base, chaque pic une fois 750-1 050 ms après l’apparition de l’odeur (Figure 5 a, courbes noires région de 0 - 3 600 ms). Les changements moyens de lignes de base ont été testés pour l’importance (Figure 5 b) en comparant les moyens de deux antennes d’individus au moment pic odeur-présentation angle moyen de chaque État à la moyenne de référence à l’aide d’une série de 1-sample t-test () Normalité de Shapiro teste non significative dans toutes les conditions). Le changement de l’angle moyen de référence est de 26,9 ° pour pure heptanal (moyenne a atteint 750 ms après l’apparition de l’odeur), 21,1 ° heptanal (à 990 ms), 0,2 m 19,6 ° pour heptanol pure (à 1 050 ms), 19,3 ° heptanol 0,2 M (à 780 ms) et 3,45 ° pour le contrôle aérien (aucun Pic). Dans toutes les conditions, sauf le contrôle, la modification de l’angle moyen de base était significative (Holm ajusté p < 0,05). Nous constatons que l’angle moyen prend plus de temps pour revenir à la base en réponse à odorisants pure que de substances odorantes dilué (passe-bas filtré moyenne retourné à base 3 690 ms après l’apparition d’odeurs pour pure et à 2 940 ms dilué heptanol ; pour fois heptanal, retour ont été 4 260 ms MS pure et 3 000 pour les versions diluées).

    Visualisation à l’aide de cartes de chaleur :

    Pour visualiser les réponses de l’antenne, antenne angle densité chaleur cartes pour chaque condition ont été générés (Figure 5 a, fond bleu-rouge). Angles d’antenne dans les 10 segments vidéo de s pour chaque individu / condition ont convolé avec un noyau gaussien (progiciel R masse, kde2d fonction64). Zones bleues montrent de faibles densités des angles de l’antenne, alors que les zones rouges montrent de fortes densités des angles de l’antenne. La carte de chaleur dans l’intrigue de fond de 5 a Figure pour la condition de l’heptanal pure illustre le comportement de l’antenne.

    La carte montre que, avant que l’odeur est présente (t < 0), la densité d’angle antenne est relativement uniformément répartie dans l’ensemble de tous les angles. Environ 1 s après l’apparition de l’odeur (t ~ 1 000 ms), une paire de grappes bleues et rouges s’affiche. En rouge ombré de zones, les antennes ont été trouvés plus fréquemment que dans les zones ombragées bleu. Le groupe blue indique que les antennes ont tendance à éviter les angles plus petits (source de l’odeur se trouvait dans la direction de 0 degrés), tandis que le rouge cluster indique que les antennes préféraient des angles supérieures (de la source de l’odeur). La grappe rouge disparaît peu à peu que la présentation de l’odeur est maintenue. L’autre rouge, quoique moins intenses, cluster apparaît environ 1 s après la conclusion de l’odeur. Nous nommons les deuxième grappes rouges « Clusters de rebond ». En accord avec les temps de rétablissement d’angle moyen ci-dessus, nous constatons que les grappes de rebond semblent apparaître plus tôt et sont moins intenses pour odeurs dilués que pour les odeurs pures.

    Discussion

    La méthode présentée ici permet un suivi en temps réel des mouvements antenne et trompe les insectes sans nécessiter de préparations spéciales des animaux ou du matériel.

    Limites :

    Malgré ces avantages, il existe certaines limitations de la méthode. Il s’agit de l’exigence que la tête de l’animal n’a pas de mouvement, la nécessité pour l’utilisateur de sélectionner l’emplacement et l’orientation de l’animal pour chaque vidéo, l’exigence d’avoir accès à un ordinateur Windows et l’incapacité du logiciel à suivre mouvement en trois dimensions (3D) et de certains postes visuellement ambigu appendice décrits ci-dessous.

    Le logiciel nécessite que la tête de l’animal est fixée en place et ne bouge pas pendant la vidéo. Ceci est similaire à la préparation de précédents travaux48,49,50,,51. Il est possible de modifier le logiciel pour faire une détection automatique des rotations de la tête, cependant, ce qui consomme le temps de traitement supplémentaire et introduire une nouvelle source d’erreur. Si le logiciel modifié devait détecter la rotation de la tête mal, cela affecterait les angles d’antennes, que leur calcul est par rapport à l’angle de rotation de la tête. Actuellement, l’utilisateur sélectionne l’orientation siège une fois par vidéo. Cette approche, bien que pas sans l’erreur humaine, minimise les erreurs de calcul angle lorsque la tête n’est pas autorisée à se déplacer pendant la vidéo.

    Le logiciel nécessite également un système de d’exploitation Windows 7 (ou version ultérieur) (OS). L’objectif était de rendre le logiciel facile à installer, configurer et utiliser par des utilisateurs sans compétences en administration informatique programmation ou sophistiqué. Nous avons décidé de cible Windows parce qu’il est largement disponible, et dans les cas où l’accès est limité, les machines virtuelles (p. ex., VirtualBox, VMware, Parallels) avec Windows peuvent être créés facilement. Ce choix d’OS grandement simplifie l’installation de logiciels par l’utilisation d’un programme d’installation facile à utiliser, command-line-libre et évite les bugs spécifiques à différents OS.

    Le logiciel suit seulement la position des appendices dans l’espace 2D. Insectes sont connus pour déplacer leur antenne en 3D, ce qui pourrait signifier que des informations importantes sont perdues lorsque coordonnées uniquement 2D sont mesurées. Alors que l’utilisation de caméras ou de miroirs multiples pourrait aider à collecter les informations supplémentaires requises pour la localisation 3D, il est possible de calculer, avec l’utilisation des relations trigonométriques, une position estimée de hors-plan de supposer que les antennes sont Single de segments de ligne de longueur constante et ne se déplacer que sur un côté de l’avion de la caméra. Pour les abeilles à miel, cette hypothèse est vraie pour obtenir des estimations approximatives pour le poste en 3D, mais ne serait pas nécessairement le cas pour les autres espèces et les situations.

    Le logiciel ne détecte pas correctement les antennes et la trompe Astuce emplacements dans certains situations ambiguës. Si un animal déplace une antenne pour que, dans la vidéo, il chevauche une longue trompe, le logiciel détectera probablement le bout de l’antenne comme la pointe de la trompe. L’angle de l’antenne, cependant, est encore probablement calculé correctement (à partir de la partie non chevauchantes). De même, si l’extrémité de l’antenne se déplacent directement au-dessus de la tête de l’animal (c'est-à-dire, pas sur les côtés) puis le logiciel peut seulement détecter la partie de l’antenne qui est visible à l’extérieur de la tête, assumer l’emplacement précédent de l’antenne ou détecter les rayonnements non essentiel bruit vidéo comme emplacement de l’antenne. Dans les deux situations, évaluateurs humains même ont de la difficulté à discerner l’antenne de la trompe ou la tête. Pour atténuer ce problème, nous recommandons l’application un filtre médian57 roulant 3-frame, symétrique à raw X et Y coordonnées produites par le logiciel. Ce filtre élimine les fluctuations de grande transitoire (single-frame) position et préserve plus longs mouvements de position d’antenne. Nous avons trouvé que le filtre 3-châssis performants que sans filtre, tandis que les filtres plus larges (par exemple, 5, 11 ou 15 frames) réduit la précision. On trouvera en ligne58R d’exemple de code qui utilise le filtre et un tutoriel vidéo.

    Valeur comme un outil scientifique :

    La disponibilité d’une méthode d’obtenir rapidement des mouvements précis appendice insectes dans un souci de rentabilité a le potentiel d’ouvrir de nouveaux champs d’investigation.

    Réflexe d’extension trompe (PER) est une réponse comportementale couramment utilisée pour enquêter sur l’apprentissage et la mémoire d’une variété d’insectes,59. Des études antérieures comptent généralement sur une certaine étendue-ou-non binaire PER, bien que les analyses vidéo et électromyographiques ont montré des topologies beaucoup plus complexes à trompe mouvements65,66. La méthode ici permet la quantification rapide des mouvements de la trompe en hautes résolutions spatiales et temporelles.

    Mouvements d’insectes antenne en réponse aux odeurs sont mal compris. Une raison à cela est que les antennes ont tendance à se déplacer aussi rapidement qu’un moyen rentable et automatisé, d’obtenir des données de mouvement antenne n’a pas été disponible. La méthode présentée ici peut être utilisée pour obtenir rapidement des données de mouvement d’antenne pour un grand nombre d’insectes dans un grand nombre de conditions. Cela pourrait aider, par exemple, des chercheurs qui le mappage entre les mouvements de l’antenne en réponse à divers stimuli, odeurs volatiles en particulier. À l’aide de caméras qui captent les trames à 30 Hz, le logiciel peut servir à caractériser la dynamique mouvement antennaire jusqu'à 15 Hz (limite de Nyquist). Si caractérisation dans des fréquences plus élevées est nécessaires, les caméras avec des taux plus élevés de capture (par exemple, 60 ou 120 fps) pourraient être utilisés. Toutefois, un ordinateur plus rapide peut être requis pour traiter des vidéos fps plus élevés en temps réel. Nous spéculons que classes d’odeurs et peut-être même certaines odeurs individuelles, ont des mouvements antennaires caractéristiques innées. Si ces classes ou composés pourraient être découverts, inconnu des odeurs ou leur classe pu détecter de mouvement antennaire des insectes non formés. Si une telle correspondance existe, alors la combinaison des données de mouvement antenne suffisantes et machine de pointe, des algorithmes d’apprentissage devrait commencer à découvrir. Aussi, comment ce mappage change en réponse à l’apprentissage, de formes au cours du développement, ou est perturbé avec interventions génétiques pourraient offrir aperçu des fonctions du système olfactif.Enfin, ce travail pourrait donner un aperçu de détection artificielle des odeurs si elle révèle des méthodes d’échantillonnage optimal pour les odeurs dans des environnements complexes.

    Travaux futurs :

    Ici, nous avons montré que les données de mouvement antenne peuvent être rapidement obtenues et analysées : les réponses de comportement significatif peuvent être détectés des données générées par notre logiciel, et plusieurs zones d’enquête ont été identifiés.

    Les cours de temps d’antenne a suscité le stimulus d’angle des déviations et récupération au niveau de référence et tout effet de rebond de stimulus-conclusion et sa dépendance sur la concentration d’odeur peuvent être étudiées et modélisées mathématiquement. En outre, toute modification des mouvements de l’antenne induit par appétence ou conditionnement aversif peut également être évaluée avec le logiciel.

    Meilleure différenciation des odeurs peut également être explorée. Dans cette étude, les odeurs, en pur et 35 x versions diluées a suscité des réactions semblables : les antennes, en moyenne, est apparu rapidement retirer loin de la source de l’odeur et revenir à l’odeurs des lignes de base après quelques secondes. Nous pensons que même les versions diluées peuvent avoir été très forts stimulus olfactifs pour les abeilles. Si elle est vraie, une plus large gamme de concentrations pourrait servir à déterminer si les réponses antennaires différencient les odeurs. En outre, une analyse plus sophistiquée peut révéler mieux différences dans les mouvements antennaires en réponse aux différentes odeurs. Nous avons fait les fichiers de données utilisés pour générer des données dans ce manuscrit disponible aux chercheurs intéressés sur le site Web de SwarmSight67.

    En outre, en dehors de la portée de ce manuscrit, le logiciel pourrait être étendu pour traiter des vidéos d’animaux placés dans des chambres avec double miroir incliné à 45° (voir Figure 1 , par exemple). Cela pourrait servir à précisément localiser et suivre les appendices et leur mouvement dans l’espace 3D. Cependant, les algorithmes de tracking 3D devait efficacement : (a) lever l’ambiguïté entre plusieurs antennes lorsqu’ils sont visibles dans l’un des miroirs latéraux, (b) correctes par rapport aux défauts dans les angles de miroir et (c) tenir compte des distorsions en raison de la caméra de positionnement.

    Enfin, des gains additionnels dans la précision de la position peut être réalisé via l’utilisation d’un Kalman filter68, quels modèles et utilise les informations d’état physique comme appendice vitesse et d’accélération pour contraindre les emplacements prévus. Toutefois, les gains dans l’exactitude doivent être évaluées contre toute réduction de la vitesse en raison des calculs supplémentaires.

    Conclusion :

    Beaucoup d’insectes utilise antennes de goûter activement des composés volatils dans leur environnement local. Patrons de mouvements antennaires peuvent donnent un aperçu de perception de l’odeur insectes et comment elle est affectée par la climatisation, des composés toxiques et d’altérations génétiques. De même, les mouvements de trompe ont été utilisés pour évaluer la perception de l’odeur et sa modulation. Cependant, obtenir rapidement de grandes quantités de données de mouvement de haute résolution Appendice a été difficile. Ici, un protocole et des logiciels est décrite qui automatise cette tâche. En résumé, nous avons créé et démontré comment la combinaison de matériel peu coûteux, une préparation animale commune et le logiciel libre peuvent être utilisés pour obtenir rapidement des données de mouvement appendice insectes à haute résolution. La sortie du logiciel, comment il surpasse les évaluateurs humains en vitesse et précision, et comment ses données de sortie peuvent être analysées et visualisées apparaissaient.

    Disclosures

    Les auteurs déclarent qu’ils n’ont aucun intérêt financier concurrentes.

    Acknowledgments

    JB, SMC et RCG appuyés par les NIH R01MH1006674 à SMC et NIH R01EB021711 à RCG. CMJ et BHS appuyés par le projet de laboratoire d’idées de la NSF au « Cracking the code olfactif » à BHS. Nous remercions Kyle Steinmetz, Taryn Oboyle et Rachael Halby pour leur assistance dans le cadre de cette recherche.

    Materials

    Name Company Catalog Number Comments
    Insect harness N/A N/A Use materials needed for Protocol sections 1-3.1.1 of Smith & Burden (2014)
    Odor delivery source N/A N/A Use materials needed for Protocol section 3 of Smith & Burden (2014)
    Vacuum source N/A N/A Use materials needed for Protocol section 3 of Smith & Burden (2014)
    LED connected to odor delivery source N/A N/A Use materials needed for Protocol section 3 of Smith & Burden (2014)
    Low Voltage Soldering Iron Stannol Low Voltage Micro Soldering Iron 12V, 8W
    DC Power Supply Tekpower HY152A
    Tripod AmazonBasics 50-Inch Lightweight Tripod Optional
    Camera Genius WideCam F100 FLIR Flea3 or another camera with manual focus can be used.
    Camera software Genius N/A Software comes with camera. On MacOS, Photo Booth app can be used to record videos.
    Camera shutter speed software Genius N/A Genius camera software allows shutter speed setting. In Mac OS, iGlasses by ecamm can be used instead: http://www.ecamm.com/mac/iglasses/
    Windows Operating System Microsoft Windows 7 Professional Versions 7 or later are compatible. Oracle VirtualBox, Parallels Desktop, or VMWare Fusion can be used to create a Windows virtual machine in MacOS environments.
    SwarmSight software SwarmSight Appendage Tracking Download from http://SwarmSight.org
    R software R Project R 3.4.0 Download from: https://cran.r-project.org/bin/windows/base/
    R Studio software RStudio RStudio Desktop Download from: https://www.rstudio.com/products/rstudio/download/

    DOWNLOAD MATERIALS LIST

    References

    1. Hansson, B. S. Insect Olfaction. , Springer Science & Business Media. New York. (1999).
    2. Masson, C., Mustaparta, H. Chemical information processing in the olfactory system of insects. Physiol Rev. 70 (1), 199-245 (1990).
    3. Firestein, S. How the olfactory system makes sense of scents. Nature. 413 (6852), 211-218 (2001).
    4. Schneider, D. Insect antennae. Annu Rev Entomol. 9 (1), 103-122 (1964).
    5. Kaissling, K. Chemo-electrical transduction in insect olfactory receptors. Annu Rev Neurosci. 9 (1), 121-145 (1986).
    6. Nakagawa, T., Vosshall, L. B. Controversy and consensus: noncanonical signaling mechanisms in the insect olfactory system. Curr Opin Neurobiol. 19 (3), 284-292 (2009).
    7. Heisenberg, M. What do the mushroom bodies do for the insect brain? An introduction. Learn Memory. 5 (1), 1-10 (1998).
    8. Zars, T. Behavioral functions of the insect mushroom bodies. Curr Opin Neurobiol. 10 (6), 790-795 (2000).
    9. Heisenberg, M. Mushroom body memoir: from maps to models. Nature Rev Neurosci. 4 (4), 266-275 (2003).
    10. Pelletier, Y., McLEOD, C. D. Obstacle perception by insect antennae during terrestrial locomotion. Physiol Entomol. 19 (4), 360-362 (1994).
    11. Suzuki, H. Antennal movements induced by odour and central projection of the antennal neurones in the honey-bee. J Insect Physiol. 21 (4), 831-847 (1975).
    12. Wachowiak, M. All in a sniff: olfaction as a model for active sensing. Neuron. 71 (6), 962-973 (2011).
    13. Bruce, T. J., Wadhams, L. J., Woodcock, C. M. Insect host location: a volatile situation. Trends Plant Sci. 10 (6), 269-274 (2005).
    14. Lunau, K., Wacht, S. Optical releasers of the innate proboscis extension in the hoverfly Eristalis tenax L.(Syrphidae, Diptera). J Comp Physiol [A]. 174 (5), 575-579 (1994).
    15. Szucsich, N. U., Krenn, H. W. Morphology and function of the proboscis in Bombyliidae (Diptera, Brachycera) and implications for proboscis evolution in Brachycera. Zoomorphology. 120 (2), 79-90 (2000).
    16. Harder, L. D. Measurement and estimation of functional proboscis length in bumblebees (Hymenoptera: Apidae). Can J Zool. 60 (5), 1073-1079 (1982).
    17. Hobbs, G. A. Further studies on the food-gathering behaviour of bumble bees (Hymenoptera: Apidae). Canadian Entomol. 94 (05), 538-541 (1962).
    18. Krenn, H. W. Functional morphology and movements of the proboscis of Lepidoptera (Insecta). Zoomorphology. 110 (2), 105-114 (1990).
    19. Krenn, H. W. Feeding mechanisms of adult Lepidoptera: structure, function, and evolution of the mouthparts. Annu Rev Entomol. 55, 307-327 (2010).
    20. Hepburn, H. R. Proboscis extension and recoil in Lepidoptera. J Insect Physiol. 17 (4), 637-656 (1971).
    21. Ramírez, G., Fagundez, C., Grosso, J. P., Argibay, P., Arenas, A., Farina, W. M. Odor Experiences during Preimaginal Stages Cause Behavioral and Neural Plasticity in Adult Honeybees. Front Behav Neurosci. 10, (2016).
    22. Takeda, K. Classical conditioned response in the honey bee. J Insect Physiol. 6 (3), 168-179 (1961).
    23. Bitterman, M. E., Menzel, R., Fietz, A., Schäfer, S. Classical conditioning of proboscis extension in honeybees (Apis mellifera). J Comp Psychol. 97 (2), 107 (1983).
    24. Lambin, M., Armengaud, C., Raymond, S., Gauthier, M. Imidacloprid-induced facilitation of the proboscis extension reflex habituation in the honeybee. Arch Insect Biochem Physiol. 48 (3), 129-134 (2001).
    25. Masterman, R., Smith, B. H., Spivak, M. Brood odor discrimination abilities in hygienic honey bees (Apis mellifera L.) using proboscis extension reflex conditioning. J Insect Behav. 13 (1), 87-101 (2000).
    26. Rix, R. R., Christopher Cutler, G. Acute Exposure to Worst-Case Concentrations of Amitraz Does Not Affect Honey Bee Learning, Short-Term Memory, or Hemolymph Octopamine Levels. J Econ Entomol. 110 (1), 127-132 (2017).
    27. Urlacher, E., et al. Measurements of Chlorpyrifos Levels in Forager Bees and Comparison with Levels that Disrupt Honey Bee Odor-Mediated Learning Under Laboratory Conditions. J Chem Ecol. 42 (2), 127-138 (2016).
    28. Charbonneau, L. R., Hillier, N. K., Rogers, R. E. L., Williams, G. R., Shutler, D. Effects of Nosema apis, N. ceranae, and coinfections on honey bee (Apis mellifera) learning and memory. Sci Rep. 6, (2016).
    29. Urlacher, E., Devaud, J. -M., Mercer, A. R. C-type allatostatins mimic stress-related effects of alarm pheromone on honey bee learning and memory recall. PLOS ONE. 12 (3), e0174321 (2017).
    30. Eiri, D. M., Nieh, J. C. A nicotinic acetylcholine receptor agonist affects honey bee sucrose responsiveness and decreases waggle dancing. J Exp Biol. 215 (12), 2022-2029 (2012).
    31. Liang, C. -H., Chuang, C. -L., Jiang, J. -A., Yang, E. -C. Magnetic Sensing through the Abdomen of the Honey bee. Sci Rep. 6, (2016).
    32. Erber, J., Pribbenow, B., Bauer, A., Kloppenburg, P. Antennal reflexes in the honeybee: tools for studying the nervous system. Apidologie. 24, 283 (1993).
    33. Erber, J., Kierzek, S., Sander, E., Grandy, K. Tactile learning in the honeybee. J Comp Physiol [A]. 183 (6), 737-744 (1998).
    34. Erber, J., Pribbenow, B. Antennal Movements in the Honeybee: How Complex Tasks are Solved by a Simple Neuronal System. Prerational Intelligence: Adaptive Behavior and Intelligent Systems Without Symbols and Logic, Volume 1, Volume 2 Prerational Intelligence: Interdisciplinary Perspectives on the Behavior of Natural and Artificial Systems, Volume 3. , 109-121 (2000).
    35. McAfee, A., Collins, T. F., Madilao, L. L., Foster, L. J. Odorant cues linked to social immunity induce lateralized antenna stimulation in honey bees (Apis mellifera L). Sci Rep. 7, (2017).
    36. Dötterl, S., Vater, M., Rupp, T., Held, A. Ozone Differentially Affects Perception of Plant Volatiles in Western Honey Bees. J Chem Ecol. 42 (6), 486-489 (2016).
    37. Wang, Z., et al. Honey Bees Modulate Their Olfactory Learning in the Presence of Hornet Predators and Alarm Component. PLOS ONE. 11 (2), e0150399 (2016).
    38. Søvik, E., Plath, J. A., Devaud, J. -M., Barron, A. B. Neuropharmacological Manipulation of Restrained and Free-flying Honey Bees, Apis mellifera. J Vis Exp. (117), e54695 (2016).
    39. Fang, Y., Du, S., Abdoola, R., Djouani, K., Richards, C. Motion Based Animal Detection in Aerial Videos. Procedia Computer Science. 92, 13-17 (2016).
    40. Miller, B., Lim, A. N., Heidbreder, A. F., Black, K. J. An Automated Motion Detection and Reward System for Animal Training. Cureus. 7 (12), (2015).
    41. Birgiolas, J., Jernigan, C. M., Smith, B. H., Crook, S. M. SwarmSight: Measuring the temporal progression of animal group activity levels from natural-scene and laboratory videos. Behav Res Methods. , (2016).
    42. Stern, U., Zhu, E. Y., He, R., Yang, C. -H. Long-duration animal tracking in difficult lighting conditions. Sci Rep. 5, 10432 (2015).
    43. Macrì, S., Mainetti, L., Patrono, L., Pieretti, S., Secco, A., Sergi, I. A tracking system for laboratory mice to support medical researchers in behavioral analysis. Engineering in Medicine and Biology Society (EMBC), 2015 37th Annual International Conference of the IEEE. , 4946-4949 (2015).
    44. Crall, J. D., Gravish, N., Mountcastle, A. M., Combes, S. A. BEEtag: a low-cost, image-based tracking system for the study of animal behavior and locomotion. PLOS ONE. 10 (9), e0136487 (2015).
    45. York, J. M., Blevins, N. A., McNeil, L. K., Freund, G. G. Mouse short-and long-term locomotor activity analyzed by video tracking software. J Vis Exp. (76), e50252 (2013).
    46. Noldus, L. P., Spink, A. J., Tegelenbosch, R. A. EthoVision: a versatile video tracking system for automation of behavioral experiments. Behav Res Methods. 33 (3), 398-414 (2001).
    47. Egnor, S. E. R., Branson, K. Computational Analysis of Behavior. Annu Rev Neurosci. 39 (1), 217-236 (2016).
    48. Cholé, H., Junca, P., Sandoz, J. -C. Appetitive but not aversive olfactory conditioning modifies antennal movements in honeybees. Learn Memory. 22 (12), 604-616 (2015).
    49. Shen, M., et al. Interactive tracking of insect posture. Pattern Recognit. 48 (11), 3560-3571 (2015).
    50. Mujagić, S., Würth, S. M., Hellbach, S., Dürr, V. Tactile conditioning and movement analysis of antennal sampling strategies in honey bees (apis mellifera l). J Vis Exp. (70), (2012).
    51. Shen, M., Szyszka, P., Deussen, O., Galizia, C. G., Merhof, D. Automated tracking and analysis of behavior in restrained insects. J Neurosci Methods. 239, 194-205 (2015).
    52. Bellard, F., Niedermayer, M. FFmpeg. , Available from: http://ffmpeg.org (2012).
    53. Cucchiara, R., Grana, C., Piccardi, M., Prati, A. Detecting moving objects, ghosts, and shadows in video streams. IEE Trans Pattern Anal Mach. 25 (10), 1337-1342 (2003).
    54. Shaw, J. R. QuickFill: An efficient flood fill algorithm. The Code Project. , (2004).
    55. Zhang, H., Wu, K. A vehicle detection algorithm based on three-frame differencing and background subtraction. Computational Intelligence and Design (ISCID), 2012 Fifth International Symposium on Computational Intelligence and Design. 1, 148-151 (2012).
    56. Elgammal, A., Harwood, D., Davis, L. Non-parametric Model for Background Subtraction. Computer Vision - ECCV 2000. , 751-767 (2000).
    57. Zeileis, A., Grothendieck, G. zoo: S3 infrastructure for regular and irregular time series. arXiv preprint math/0505527. , (2005).
    58. SwarmSight.org. Swarmsight. , Available from: http://swarmsight.org/ (2017).
    59. Smith, B. H., Burden, C. M. A Proboscis Extension Response Protocol for Investigating Behavioral Plasticity in Insects: Application to Basic, Biomedical, and Agricultural Research. J Vis Exp. (91), e51057 (2014).
    60. Abbass, H. How to split a video or audio file with VLC Player. Darktips. , Available from: https://darktips.com/split-video-audio-file/ (2012).
    61. SwarmSight.org. SwarmSight Appendage Tracking CSV File Column Reference. , Available from: http://swarmsight.org/Examples/Appendage%20Tracking/ColumnReference (2017).
    62. R Core Team. R: A Language and Environment for Statistical Computing. , R Foundation for Statistical Computing. Vienna, Austria. Available from: http://www.R-project.org/ (2014).
    63. Team, R. s RStudio: integrated development for R. , RStudio, Inc. Boston, MA. (2015).
    64. Venables, W. N., Ripley, B. D. Modern Applied Statistics with S-PLUS. , Springer Science & Business Media. New York. (2013).
    65. Smith, B. H., Menzel, R. An Analysis of Variability in the Feeding Motor Program of the Honey Bee; the Role of Learning in Releasing a Modal Action Pattern. Ethology. 82 (1), 68-81 (1989).
    66. Smith, B. H. An analysis of blocking in odorant mixtures: an increase but not a decrease in intensity of reinforcement produces unblocking. Behavioral neuroscience. 111 (1), 57 (1997).
    67. Birgiolas, J. SwarmSight Antenna Tracking CSV files. , Available from: https://github.com/JustasB/SwarmSight/tree/master/Examples/Appendage%20Tracking/Birgiolas%20et.%20al.%20(2015)%20JOVE%20figures/Figures%204%265/CSVs (2017).
    68. Kalman, R. E. A New Approach to Linear Filtering and Prediction Problems. J Basic Eng. 82 (1), 35-45 (1960).

    Tags

    Neurosciences numéro 130 Olfaction abeilles mouvements de l’antenne réflexe d’extension trompe analyse vidéo logiciel insectes comportement animal vision industrielle
    SwarmSight : Suivi en temps réel des mouvements de l’antenne insectes et trompe Extension réflexe à l’aide d’une préparation commune et matériel conventionnel
    Play Video
    PDF DOI DOWNLOAD MATERIALS LIST

    Cite this Article

    Birgiolas, J., Jernigan, C. M.,More

    Birgiolas, J., Jernigan, C. M., Gerkin, R. C., Smith, B. H., Crook, S. M. SwarmSight: Real-time Tracking of Insect Antenna Movements and Proboscis Extension Reflex Using a Common Preparation and Conventional Hardware. J. Vis. Exp. (130), e56803, doi:10.3791/56803 (2017).

    Less
    Copy Citation Download Citation Reprints and Permissions
    View Video

    Get cutting-edge science videos from JoVE sent straight to your inbox every month.

    Waiting X
    Simple Hit Counter