Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Suivi entièrement automatisé des jambes chez les insectes en mouvement libre à l’aide de la segmentation et du suivi des jambes d’apprentissage des fonctionnalités (FLLIT)

Published: April 23, 2020 doi: 10.3791/61012

Summary

Nous décrivons des protocoles détaillés pour l’utilisation de FLLIT, une méthode d’apprentissage automatique entièrement automatisée pour le suivi du mouvement des griffes des jambes dans le déplacement libre de Drosophila melanogaster et d’autres insectes. Ces protocoles peuvent être utilisés pour mesurer quantitativement les mouvements subtils de la marche dans les mouches sauvages de type, les mouches mutantes et les modèles de mouche de la neurodégénérescence.

Abstract

Le modèle Drosophila a été inestimable pour l’étude de la fonction neurologique et pour comprendre les mécanismes moléculaires et cellulaires qui sous-tendent la neurodégénérescence. Tandis que les techniques de mouche pour la manipulation et l’étude des sous-ensembles neuronaux sont devenues de plus en plus sophistiquées, la richesse des phénotypes comportementaux résultants n’a pas été capturée à un détail semblable. Pour être en mesure d’étudier les mouvements subtils des jambes volantes pour la comparaison entre les mutants nécessite la capacité de mesurer et de quantifier automatiquement les mouvements rapides et rapides des jambes. Par conséquent, nous avons développé un algorithme d’apprentissage automatique des griffes de jambe pour le suivi automatisé des griffes des jambes dans les mouches à marche libre, la segmentation des membres basée sur l’apprentissage des fonctionnalités et le suivi (FLLIT). Contrairement à la plupart des méthodes d’apprentissage profond, FLLIT est entièrement automatisé et génère ses propres ensembles de formation sans besoin d’annotation utilisateur, en utilisant des paramètres morphologiques intégrés dans l’algorithme d’apprentissage. Cet article décrit un protocole en profondeur pour effectuer l’analyse de la démarche à l’aide de FLLIT. Il détaille les procédures pour la configuration de la caméra, la construction de l’arène, l’enregistrement vidéo, la segmentation des jambes et le suivi des griffes de jambe. Il donne également un aperçu des données produites par FLLIT, qui comprend des positions brutes du corps et des jambes dans chaque cadre vidéo, 20 paramètres de démarche, 5 parcelles et une vidéo suivie. Pour démontrer l’utilisation de FLLIT, nous quantifions les paramètres de démarche malades pertinents dans un modèle de mouche de Spinocerebellar ataxia 3.

Introduction

Au cours des dernières décennies, les maladies neurodégénératives et les troubles du mouvement sont devenus plus répandus dans nos populations vieillissantes. Bien que notre compréhension de nombreuses maladies neurodégénératives ait progressé au niveau moléculaire et cellulaire, les caractéristiques fondamentales des circuits neuronaux affectés sous-jacents à la maladie demeurent mal comprises. Les outils de suivi comportemental récemment développés1,2,3,4 nous permettent maintenant d’étudier les anomalies de mouvement dans les modèles de maladies animales afin d’identifier la dysrégulation moléculaire, cellulaire et de circuit maladie sous-jacente.

Les voies moléculaires impliquées dans beaucoup de maladies neurodégénératives sont conservées dans la mouche des fruits Drosophila melanogaster, et les modèles de maladie de Drosophila ont aidé à élucider les mécanismes fondamentaux sous-jacents neurodegeneration5,6. Nous avons récemment montré que les modèles de mouche de la maladie de Parkinson (PD) et Spinocerebellar ataxia 3 (SCA3) présentent des signatures distinctes et conservées de démarche qui ressemblent à celles des maladies humaines respectives1, démontrant que le modèle de mouche peut être utilisé pour comprendre les mécanismes de circuit sous-jacents au dysfonctionnement du mouvement dans des désordres spécifiques de mouvement. L’arsenal riche et sans cesse croissant d’outils dans le modèle de mouche pour la manipulation ciblée et la visualisation des neurones au seul gène et le niveau unique de cellules7,8,9,10 fait de la mouche un modèle idéal pour sonder la relation entre les voies de la maladie, les circuits neuronaux et la manifestation phénotypique comportementale in vivo. Pour permettre une analyse précise et automatisée de la démarche des insectes, nous avons récemment mis au point une méthode d’apprentissage automatique, lasegmentation LImb à base de gains F eature Let le rackage T(FLLIT)1.

FLLIT se compose d’un algorithme multi-étapes entièrement automatisé qui segmente les premiers segments des pixels de jambe, qui sont ensuite utilisés pour localiser et suivre les griffes correspondantes de jambe. FLLIT utilise un algorithme de stimulation pour la segmentation, contrairement aux algorithmes d’apprentissage profond utilisés dans les travaux récents2,3. Il existe certaines similitudes avec les réseaux neuronaux convolutionnels en ce que pour les deux cadres, l’extraction des fonctionnalités se fait automatiquement par l’apprentissage des grains convolutionnels. La première étape de FLLIT consiste à utiliser des opérations morphologiques (bord et squelettisation) pour générer automatiquement des échantillons positifs (pixels sur les jambes) et négatifs (fond ou pixels sur le corps de mouche) avec une grande confiance. Par conséquent, FLLIT est entièrement automatisé et ne nécessite pas d’échantillons de formation annotés par l’utilisateur. À l’aide des échantillons de formation ci-dessus, un classificateur est ensuite formé dans le cadre d’un algorithme de stimulation. Un ensemble de classificateurs faibles est itérativement appris, avec chacun composé d’un ensemble de grains convolutionnels pour l’extraction des caractéristiques et un arbre de décision. Le classificateur final appris est ensuite utilisé pour la segmentation des jambes et est en mesure de mieux discerner les régions difficiles / échantillons durs mieux que les opérations morphologiques, produisant une segmentation globale beaucoup plus précise pour le suivi1. Des jambes segmentées, nous localisons les bouts et les suivons à l’aide de l’algorithme hongrois : en faisant correspondre les conseils sur les cadres de telle sorte que la somme de la distance parcourue par chaque pointe soit réduite au minimum. FLLIT peut gérer les cas d’occlusion en se souvenant du dernier endroit vu (dans les coordonnées centrées sur la mouche) de sorte qu’une pointe de jambe est récupérée une fois qu’elle n’est plus sous occlusion.

Nous avons déjà montré que FLLIT peut suivre automatiquement et avec précision les mouvements des jambes et analyser la démarche dans une mouche ou une araignée banale et libre en mouvement de la vidéo à grande vitesse1; FLLIT devrait donc être largement applicable pour le suivi des jambes arthropodes. En extrayant des ensembles de formation d’apprentissage automatique à l’aide de paramètres morphologiques, FLLIT s’entraîne automatiquement à segmenter et à suivre les pattes d’insectes sans avoir besoin d’annotation manuelle laborieuse, ce qui est nécessaire pour la plupart des méthodes d’apprentissage profond. FLLIT est donc entièrement automatisé. Après la segmentation et le suivi des jambes, FLLIT produit automatiquement des positions brutes du corps et des jambes dans chaque cadre vidéo, 20 paramètres de démarche, 5 parcelles et une vidéo suivie pour l’analyse de la démarche et la visualisation des mouvements de la démarche. Ce protocole fournit un guide étape par étape pour l’utilisation de FLLIT.

Protocol

1. Configuration du système

  1. Assurez-vous que la station d’enregistrement dispose d’une caméra à grande vitesse et d’une scène au-dessus pour tenir la chambre de l’aréna(figure 1). Ajuster la caméra pour enregistrer à un minimum de 250 images par seconde (fps), avec une vitesse d’obturation en conséquence rapide (dans ce cas, l’enregistrement est effectué à 1000 fps avec une vitesse d’obturation de 1 ms).
    REMARQUE : Vérifiez que la vidéo convient au suivi en vous assurant qu’il y a un flou minimal ou nul des jambes en mouvement dans toutes les images. Si la jambe en mouvement est si floue qu’un annotateur humain ne peut pas le suivre, alors la vitesse d’enregistrement de la caméra et/ou la vitesse d’obturation doit être augmentée.
  2. Placez les lumières LED infrarouges en haut de la scène avec un diffuseur (feuille translucide) entre la caméra et l’échantillon(figure 1A,B).
  3. Faire la chambre d’enregistrement en coupant une feuille acrylique de 1,6 mm d’épaisseur. Dans cette expérience, utilisez un champ de vision de 11 mm x 11 mm. Placez la chambre entre deux toboggans en verre(figure 1C).

2. Préparation des mouches pour l’enregistrement

  1. Transférer les mouches pour être enregistrées dans un nouveau flacon de nourriture 24 h avant l’enregistrement.
    REMARQUE : N’utilisez pas de CO2 (habituellement utilisé pour anesthésier les mouches lors de la première collection) sur les mouches moins de 24 h avant l’enregistrement.
  2. Environ 40 minutes avant l’enregistrement, transférer les mouches dans des flacons vides et garder sur la glace pendant 5-7 min.
  3. Pendant ce temps, essuyez l’arène et dégagez des toboggans en verre avec de l’eau et une lingette.
    REMARQUE : N’utilisez pas d’éthanol pour nettoyer les chambres et les toboggans.
  4. Préparez la chambre d’enregistrement. Fixer l’une des diapositives en verre microscopique sous la chambre avec du ruban adhésif.
  5. Lorsque les mouches ont été anesthésiés sur la glace, transférer une mouche dans chaque chambre à l’aide d’une brosse propre.
    REMARQUE : Les mouches mâles et femelles peuvent être utilisées dans cette configuration, et, dans la mesure du possible, les mouches des deux sexes doivent être analysées pour éviter les biais sex-spécifiques.
  6. Fixez la chambre avec une autre glissière en verre microscopique avec du ruban adhésif(figure 1C).
  7. Gardez les mouches chambrés à température ambiante pendant 15 à 20 min pour l’acclimatation.

3. Génération de vidéos pour l’analyse FLLIT

REMARQUE : Cette étape est spécifique à la caméra vidéo utilisée. Dans ce cas, une caméra vidéo disponible dans le commerce est utilisée (voir Tableau des matériaux).

  1. Allumez la source d’alimentation. Attendez que la LED verte pour l’alimentation et la LED orange pour la connexion à l’interface ethernet se stabilise. Allumez la puissance de la LED infrarouge. Assurez-vous que la tension reste à 12,5 V.
  2. Ouvrez l’application Viewer sur le système informatique connecté.
  3. Modifiez le taux d’image d’enregistrement à 1000 fps. Réglez la vitesse d’obturation à 1/1000 s (1 ms).
  4. Placez la chambre à la volée sur l’arène d’enregistrement et sélectionnez le bouton LIVE. Assurez-vous que la caméra est concentrée sur les pointes des jambes lorsque la mouche marche debout sur le sol de la chambre; les pointes de jambe doivent être au point fort.
  5. Enregistrement de clic(figure 2).
  6. Enregistrez la marche de mouche, en veillant à ce que :
    La mouche a marché dans une trajectoire relativement droite sans toucher le bord de l’arène.
    La mouche marchait au moins trois foulées par jambe.
    La mouche ne s’arrête pas pendant la promenade.
    La distance parcourue équivaut à au moins une longueur de corps.

    REMARQUE : Il est essentiel d’avoir l’arrière-plan soustrait proprement pour une segmentation précise. L’algorithme automatisé de soustraction de fond utilisé par FLLIT exige que la mouche image se déplace au moins une longueur de corps dans la distance.
  7. Cliquez sur Rec Done pour arrêter l’enregistrement (figure 2).
  8. Crop la vidéo pour s’assurer que l’enregistrement englobe seulement une marche droite de la mouche (comme décrit dans l’étape 3.6).
  9. Cliquez sur Enregistrer (figure 2). Enregistrez les fichiers en format '.mraw' ou '.tiff' dans les dossiers respectifs.
    REMARQUE : Le format '.mraw' donne plus de flexibilité pour changer le nom du fichier (si nécessaire) et pour le stockage des vidéos par rapport au format de fichier '.tiff'.

4. Installation du programme FLLIT

REMARQUE : Des instructions à jour peuvent être trouvées à : https://github.com/BII-wushuang/FLLIT/blob/master/Compiled/Readme.pdf

  1. Télécharger FLLIT sur n’importe quel système d’exploitation
    1. Téléchargez FLLIT à partir du lien Github suivant : https://github.com/BII-wushuang/FLLIT/archive/master.zip. Extraire le contenu du fichier zip.
    2. Téléchargez des exemples de données à partir du lien Google Drive suivant : https://bit.ly/2EibvNY. Créez une data de dossier sous FLLIT-master/Compiled et placez des dossiers de jeu de données dans ce répertoire de données.
  2. Installer FLLIT à Ubuntu
    1. Naviguez vers l’annuaire FLLIT/Compiled.
    2. Cliquez à droite et sélectionnez Open in Terminal.
    3. Émettre la commande suivante pour télécharger et installer les bibliothèques de temps d’exécution MATLAB à $HOME/MCR :
      bash MCR_2016a.sh
    4. Une fois l’installation des bibliothèques de temps d’exécution MATLAB terminée, émettez la commande suivante pour s’assurer que les droits exécutables sont accordés à FLLIT :
      chmod x FLLIT
    5. Ouvrez un terminal dans l’annuaire FLLIT/Compiled et émettez la commande suivante pour exécuter FLLIT :
      bash run_FLLIT.sh $HOME/MCR/v901
  3. Installer FLLIT dans Windows
    1. Pour les 7e et 10e éditions Home, installez La boîte à outils Docker à :
      (https://github.com/docker/toolbox/releases/download/v19.03.1/DockerToolbox-19.03.1.exe).
    2. Pour Windows 10 Pro ou Enterprise Edition, installez Docker Desktop pour Windows à : (https://download.docker.com/win/stable/Docker-%20Desktop-%20Installer.exe).
    3. Pour permettre l’exécution d’applications d’INTERFACE dans un conteneur Docker sur Windows, installez d’abord VcXSrV (https://sourceforge.net/projects/vcxsrv). Au départ de VcXsrv, configurez les paramètres comme dans la figure S1.
      REMARQUE : Assurez-vous que Docker et VcXsrv sont en cours d’exécution avant de commencer FLLIT.
    4. Double clic FLLIT.bat pour exécuter FLLIT.
      REMARQUE: Lors de l’exécution pour la première fois, il faudra un certain temps pour tirer l’image Docker de Docker Hub.
  4. Installer FLLIT dans MacOS
    1. Télécharger Docker Desktop pour MacOS à https://download.docker.com/mac/stable/Docker.dmg
    2. Installez socat en ouvrant un terminal et en émettant la commande suivante :
      installer socat installation
    3. Commencez socat avec:
      socat TCP-LISTEN:6000,reuseaddr,fork UNIX-CLIENT: "$DISPLAY" et désavouer
    4. Installez XQuartz (https://www.xquartz.org) pour permettre l’exécution d’applications d’interface graphique dans un conteneur Docker sur MacOS. Démarrez XQuartz et modifiez les préférences en vérifiant les connexions Autoriser des clients du réseau dans l’onglet Sécurité comme indiqué dans la figure S2.
      REMARQUE : Assurez-vous que Docker, socat et XQuartz sont tous en cours d’exécution avant de commencer FLLIT.
    5. Ouvrez un terminal dans l’annuaire FLLIT/Compiled et exécutez FLLIT avec la commande suivante :
      bash FLLIT_Mac.sh
      REMARQUE: Lors de l’exécution pour la première fois, il faudra un certain temps pour tirer l’image Docker de Docker Hub.

5. Exécution FLLIT pour le suivi automatisé des jambes

  1. Segmentation
    1. Convertissez la vidéo en fichiers TIFF individuels et copiez-les dans le dossier de données FLLIT.
    2. Exécuter FLLIT (In Ubuntu, cliquez à droite pour ouvrir FLLIT dans terminal).
    3. Sélectionnez le dossier contenant les images TIFF image par image de la vidéo à suivre et cliquez sur le bouton Ajouter.
    4. Dans la fenêtre pop-up choisir 0 pour effectuer la segmentation des jambes seulement, ou 1 pour inclure le suivi des jambes avec la segmentation des jambes.
    5. Cliquez sur Fait pour initier la segmentation et le suivi de la vidéo sélectionnée.
  2. Suivi
    1. Pour vérifier l’exactitude du suivi et effectuer des corrections d’erreur (le cas échéant), cliquez sur Select Data Folder. Sélectionnez le dossier à suivre et cliquez sur Open.
    2. Cliquez sur View Tracking.
      REMARQUE : Vérifiez que le mode Spectateur reste sélectionné lors de la visualisation des positions de la jambe suivie. Dans le cas contraire, toute correction antérieure apportée sera surestimée.
    3. Vérifier l’étiquetage pour toutes les jambes dans le premier cadre
      REMARQUE : Étant donné que les étiquettes de jambe sont placées en fonction de la position à l’écran, si la mouche marche debout, le côté droit de la mouche est étiqueté comme L1 (avant-jambe), L2 (mi-jambe), L3 (jambe arrière) et le côté GAUCHE de la mouche est étiqueté comme R1 (avant-jambe), R2 (mi-jambe), R3 (jambe arrière), respectivement(figure 3). Si la mouche marche à l’envers, les étiquettes de la jambe seront correctement annotées.
    4. Si une jambe est mal étiquetée et qu’une correction est nécessaire, cliquez sur Pause visualisation, suivie de Adjust Prediction (figure 3).
    5. Du panneau droit dirigé jambe à ajuster, sélectionnez la jambe qui nécessite une correction.
    6. Double clic sur la position correcte pour cette jambe dans la fenêtre d’image, cliquez sur Enregistrer, puis sortir. Pour passer à l’image précédente ou cadre subséquent, cliquez sur Pause visualisation suivie par l’avant et vers l’arrière -lt;I et I -gt; boutons, respectivement ( Figure3).
    7. Pour corriger les vidéos mal suivies, ouvrez le dossier de données de la vidéo à retracker et sélectionnez Manually Initiate Tracking.
    8. Cliquez sur le bouton De suivi, qui changera ensuite son étiquette en Initial.
    9. Cliquez sur Ajuster la prévision et corriger les étiquettes des jambes en cliquant deux fois sur chaque bout de jambe, puis en l’assignant avec l’étiquette de jambe correcte. Cliquez sur Enregistrer et sortir.
    10. Cliquez sur Cv pour lancer le suivi.
  3. Traitement de données et génération de vidéos
    1. Cliquez sur le processus de données. Dans la fenêtre popup, tapez le nombre d’images par seconde (fps) à laquelle les vidéos ont été enregistrées (p. ex., 1 000 fps).
    2. Utilisez l’équation suivante pour calculer le champ de vision réel de la vidéo capturée afin que les paramètres de la démarche puissent être mesurés en millimètres :

      Equation 1

      REMARQUE : Par exemple, si la taille réelle de la chambre est de 7 mm, la largeur du cadre d’image est de 137 mm, la largeur de la chambre dans le cadre d’image sur l’écran de l’ordinateur est de 81 mm, et la largeur du champ de vision était de 11,83 mm(figure S3).
    3. Pour voir les résultats de suivi, rendez-vous dans le dossier De suivi sous le dossier Résultats.
    4. Pour générer une vidéo de la mouche suivie, sélectionnez Faire la vidéo. La vidéo sera enregistrée dans le même dossier Résultats que celui des données vidéo originales analysées.
      REMARQUE : Les images Start (first) et End (dernier) de la vidéo peuvent être sélectionnées.
  4. Normalisation à la longueur du corps de chaque mouche.
    REMARQUE : Comme chaque mouche peut être légèrement différente en taille, certains paramètres de démarche doivent être normalisés à la longueur du corps de chaque mouche pour faciliter les comparaisons (p. ex., la longueur de la foulée peut être plus longue chez les gros mouches et plus courte chez les petites mouches).
    1. Ouvrez trois images fixes de la vidéo de chaque mouche (généralement d’abord, milieu et dernier cadre) à l’aide d’un logiciel d’image.
    2. Magnifier chaque image de cadre à 800% et étiqueter le pixel antérieur le plus de la tête et le pixel postérieur le plus de l’abdomen à la ligne médiane en utilisant une couleur vive (par exemple, jaune).
    3. Ouvrez les images étiquetées dans ImageJ.
    4. Utilisez l’échelle de jeu pour entrer l’échelle en conséquence : Définir la distance en pixels : 512 ; Distance connue : Champ de vision réel (mm) mesuré à l’étape 5.3.2.; Unité de longueur: mm.
    5. Tracez une ligne droite entre les pixels de pointe étiquetés de tête et d’abdomen pour obtenir la longueur du corps.
    6. Échelle de set ouverte à nouveau pour obtenir la valeur dans une distance connue, qui est la longueur du corps en mm.
    7. Prenez une moyenne de la longueur déterminée dans chacune des trois images pour obtenir la taille moyenne du corps en mm.

Representative Results

Après la segmentation des jambes, le suivi et le traitement des données, FLLIT génère automatiquement des données brutes pour les positions du corps et de chaque griffe de jambe, 20 paramètres de démarche, 5 parcelles et une vidéo suivie(tableau 1).

Ici, nous démontrons ces analyses à l’aide d’un modèle de mouche de Spinocerebellar ataxia 3 (SCA3). Le conducteur pan-neuronal Elav-GAL4 a été utilisé pour conduire soit le SCA3 humain de type sauvage pleine longueur avec 27 glutamines dans le tractus polyQ (UAS-SCA3-flQ27), ou un SCA3 humain mutant pleine longueur avec 84 glutamines dans le tractus polyQ (UAS-SCA3-flQ84)11. SCA3 est caractérisé par une démarche ataxique avec le corps virant, le placement erratique du pied et les étapes courtes ettapiées 12,13 ( tableau2). Pour caractériser la démarche des mouches mutantes SCA3 et pour déterminer si elles présentent une démarche similaire à celle des patients humains, nous avons analysé les paramètres de démarche pertinents générés par FLLIT, à savoir : Nombre de virages, régularité de l’empreinte, chevauchement et tailles du domaine des jambes, et longueurs de foulée des jambes(tableau 2).

Nous avons constaté que les mouches SCA3-Q84 présentaient plus de virages(figure 4A, A),placement erratique des pieds comme en témoigne la régularité des faibles empreintes (écarts standard élargis de l’AEP14) (figure 4B), augmentation du chevauchement du domaine des jambes(figure 4C-D), domaines de jambes agrandis en longueur et en superficie(figure 4E,F),et diminution de la longueur des foulées(figure 4G).

FLLIT génère également une vidéo montrant la mouche et les jambes suivies dans les vues centrées sur l’arène et centrée sur le corps, la trajectoire du corps et la direction de la tête, et les déplacements verticaux et latéraux de chaque jambe (figure 5). Les vidéos suivies permettent une comparaison côte à côte des mouvements des jambes chez différentes mouches. Les vidéos représentatives d’Elav-GAL4-gt;SCA3-flQ27 (Vidéo 1) et Elav-GAL4-gt;SCA3-flQ84 (Vidéo 2) mouches démontrent que par rapport à Elav-GAL4 -gt;UAS-SCA3-flQ27 mouches (Figure 5A), Elav-GAL4 -gt;UAS-SCA3-flQ84 mouches (Figure 5B,exposition irrégulière ) domaines de jambe croisés de différentes tailles, indicatif d’une démarche ataxique et tapieuse.

Figure 1
Figure 1. Configuration de la station d’enregistrement et de l’arène. Enregistrements de la (A) vues latérales et (B). (C) Un exemple d’une arène utilisée pour faire des enregistrements de mouches pour le suivi FLLIT. S’il vous plaît cliquez ici pour voir une version plus grande de ce chiffre.

Figure 2
Figure 2 : Vue de la fenêtre active pendant l’enregistrement de la démarche volante à l’aide d’une double caméra de tête, ce qui permet l’enregistrement simultané de deux mouches. S’il vous plaît cliquez ici pour voir une version plus grande de ce chiffre.

Figure 3
Figure 3 : Fenêtre FLLIT active affichant le panneau de bouton et les jambes étiquetées après segmentation et suivi. S’il vous plaît cliquez ici pour voir une version plus grande de ce chiffre.

Figure 4
Figure 4 : Données représentatives générées par FLLIT pour les paramètres pertinents de la démarche des mouches exprimant le caractère sauvage (SCA3-flQ27) vs mutant (SCA3-flQ84) SCA3. (A) Nombre de virages dans la trajectoire du corps. (B) Régularité de l’empreinte mi-jambe normalisée à la longueur du corps. (C-C') Domaines de jambe parcourues de chaque jambe. (D) Domaine se chevauchent entre les jambes. (E) Longueur de domaine à jambe moyenne normalisée à la longueur du corps. (F) Zone de domaine de jambe moyenne normalisée à la longueur du corps2. (G) Longueur de foulée mi-jambe normalisée à la longueur du corps. S’il vous plaît cliquez ici pour voir une version plus grande de ce chiffre.

Figure 5
Figure 5 : Instantané des vidéos représentatives générées par FLLIT. (A) Elav-GAL4-gt;UAS-SCA3-flQ27 et (B) Elav-GAL4 -gt;UAS-SCA3-flQ84 flies. S’il vous plaît cliquez ici pour voir une version plus grande de ce chiffre.

Video 1
Vidéo 1 : Vidéo représentative d’une mouche exprimant pan-neuronal sauvage-type humain pleine longueur SCA3 (Elav-GAL4 -gt;UAS-SCA3-flQ27). S’il vous plaît cliquez ici pour voir cette vidéo. (Clic droit à télécharger.)

Video 2
Vidéo 2: Vidéo représentative d’une mouche exprimant pan-neuronal mutant humain pleine longueur SCA3 (Elav-GAL4 -gt;UAS-SCA3-flQ84). S’il vous plaît cliquez ici pour voir cette vidéo. (Clic droit à télécharger.)

Supplemental Figure 1
Figure supplémentaire 1 : Configurations pour VcXSrv. S’il vous plaît cliquez ici pour voir une version plus grande de ce chiffre.

Supplemental Figure 2
Figure supplémentaire 2 : Configuration pour Xquartz. S’il vous plaît cliquez ici pour voir une version plus grande de ce chiffre.

Supplemental Figure 3
Figure supplémentaire 3 : Image étiquetée avec les dimensions nécessaires au calcul du champ de vision. S’il vous plaît cliquez ici pour voir une version plus grande de ce chiffre.

Catégorie Paramètres Description Fichier/parcelle (le cas échéant)
Données brutes Position du corps Coordonnées positionnelles du centroïde du corps dans chaque cadre Les deux premières colonnes de CoM.csv
Trajectoire du corps Angle de rotation de l’axe du corps en degrés (par rapport à l’axe y) Troisième colonne de CoM.csv
Griffe de jambe centrée sur l’arène
Positions
Coordonnées de position de chaque griffe de jambe dans chaque cadre en fonction des coordonnées de l’arène trajectoire.csv
Griffe de jambe centrée sur le corps
Positions
Coordonnées de position de chaque griffe de jambe dans chaque cadre
basé sur les coordonnées de l’aréna
norm_trajectory.csv
Mouvement du corps Longueur du corps (mm) Longueur de l’échantillon d’animal estimé dans chaque cadre (position antérieure-la plus sur la tête à postérieur-plus
position sur les ailes)
bodylength.csv
Vitesse corporelle instantanée
(mm/s)
Vitesse instantanée du corps (centroïde) chez l’échantillon animal BodyVelocity.csv; BodyVelocity.pdf BodyVelocity.pdf BodyVelocity.pdf BodyVel
Points tournants du corps
Trajectoire
Pour localiser les points de rotation, la trajectoire est réduite à une courbe linéaire à la pièce à l’aide du Dougl asâASPeucker
algorithme, suivant lequel un événement tournant est identifié comme impliquant un angle de 50 degrés entre deux
segments linéaires constituant la trajectoire simplifiée
BodyTrajectory.pdf (en anglais seulement)
Paramètres individuels de foulée Durée de la foulée (ms) La durée d’un événement de foulée StrideParameters.csv (en)
Période de foulée (ms) La durée d’un événement de foulée à l’autre
Déplacement de foulée (mm) Déplacement de la griffe de jambe pendant un événement de foulée
Chemin de foulée couvert (mm) Chemin total couvert par la griffe de jambe pendant un événement de foulée
Position extrême antérieure
(mm)
Position d’atterrissage (par rapport au corps) d’une griffe de jambe à la fin d’un événement de foulée
Position extrême postérieure (mm) Position de décollage (par rapport au corps) d’une griffe de jambe au début d’un événement de foulée
Amplitude de foulée (mm) Déplacement le long de la direction du mouvement pour un événement de foulée
Linearité Stance (mm) Défini comme l’écart du chemin de foulée d’une courbe lissée sur (à 20ms d’intervalles) l’antérieur correspondant
et les positions extrêmes postérieures de la foulée
Étirement de foulée (mm) Distance de la position de griffe de jambe du centre du corps au milieu d’un événement de foulée
Mouvement de jambe Vitesse des jambes (mm/s) La vitesse instantanée de chaque jambe LegSpeed.csv; Gait.pdf
Indice de la démarche Cela mesure le type de coordination de la démarche dont a fait preuve l’échantillon d’animaux (à six pattes) pendant son mouvement. Une démarche
l’indice de 1 correspond à une démarche trépied, 1 correspond à une démarche tétrapode tandis que 0 constitue une démarche non canonique.
Dans notre mise en œuvre, l’indice de démarche est obtenu en moyenne mobile sur une fenêtre de 120 ms
GaitIndex.csv; GaitIndex.pdf
Pourcentage de mouvement Pourcentage du temps qu’une jambe est en mouvement LegParameters.csv
Période moyenne de foulée (ms) Durée moyenne d’un événement de foulée à l’autre LegParameters.csv
Régularité de l’empreinte (mm) Mesuré comme les écarts standard des LegParameters.csv
positions extrêmes antérieures d’une jambe
Zone de domaine de trajectoire de jambe
(mm2)
La zone de la coque convexe minimale qui contient toute la trajectoire de la jambe dans le cadre de référence centré sur le corps LegParameters.csv; LegDomain.pdf (en anglais seulement)
Longueur et largeur de la
domaine de trajectoire des jambes (mm)
Obtenu par la distance maximale projetée des positions de griffe sur le majeur (longueur de domaine) et mineur
(largeur de domaine) axes principaux
LegParameters.csv
Intersection/chevauchement de domaine de jambe
(mm2)
L’intersection/chevauchement entre chaque LegDomainOverlap.csv (en)
Largeur de stance (mm) Moyenne de la distance entre le PEA et la PPE des jambes gauche et moyenne StanceWidth.csv

Tableau 1 : Paramètres de démarche générés par FLLIT.

Caractéristique de démarche
Caractéristiques de la démarche de Spinocerebellar ataxia 3 (SCA3) Virant Placement erratique de pied et croisement de jambe au-dessus Étapes de rôdage De courtes foulées
Paramètre de mesure Nombre d’événements de tour du corps Régularité de l’empreinte Taille des domaines de jambe, degré de chevauchement de domaine Longueur de foulée
Fichier FLLIT BodyTrajectory.pdf (en anglais seulement) LegParameters.csv LegDomainOverlap.csv (en) StrideParameters.csv (en)

Tableau 2 : Tableau montrant les caractéristiques caractéristiques de la démarche SCA3 chez les patients humains avec leurs paramètres FLLIT correspondants et leurs fichiers de sortie.

Discussion

Dans ce manuscrit, nous décrivons en détail les étapes impliquées dans l’utilisation de FLLIT, un programme automatisé d’apprentissage automatique1, pour analyser la démarche dans la marche libre Drosophila. Après le suivi et l’analyse des données, FLLIT génère automatiquement des données brutes pour les informations de position du corps et des griffes des jambes, produisant vingt caractéristiques du corps et de la démarche ainsi qu’une vidéo de la mouche suivie pour permettre la visualisation de la démarche.

Il existe maintenant un certain nombre de méthodes pour le suivi du mouvement des jambes de Drosophila et d’autres animaux1,2,3,4,14,15,16, donnant aux chercheurs un large éventail d’options en fonction des objectifs de l’expérience. Certaines d’entre elles sont des approches basées sur l’impression des pieds, qui sont très précises mais qui ne rapportent que des points de contact de griffe avec la surface de détection4,14. D’autre part, les approches récentes d’apprentissage profond2,3,16 sont très polyvalents, permettant l’analyse des comportements qui nécessitent le suivi des articulations des jambes et d’autres parties du corps dans n’importe quel animal, avec la mise en garde que les algorithmes doivent d’abord être formés avec les jeux de données annotés de l’utilisateur. Un troisième type d’approche utilise la morphologie ou les méthodes basées sur l’image-contraste1,15,17 pour trouver le contour de chaque jambe pour identifier les positions de griffe. En général, ces méthodes traitent mal les comportements où les jambes se croisent (par exemple pendant le toilettage). FLLIT combine les deuxième et troisième approches, en utilisant des paramètres morphologiques pour former un algorithme de stimulation pour la segmentation des jambes. Cela permet à FLLIT de contourner la tâche laborieuse de l’annotation de l’utilisateur pour générer le jeu de données de formation, tout en améliorant la précision à l’aide de l’apprentissage automatique. Les améliorations futures à FLLIT devront faire face à des cas où les jambes se croisent, pour permettre l’analyse de comportements plus complexes.

FLLIT est robuste à de légers changements dans l’éclairage, la résolution d’enregistrement et la vitesse de cadre1. Cependant, la vitesse de cadre des vidéos enregistrées ne devrait pas tomber en dessous de 250 fps, et FLLIT fonctionne de manière optimale pour les vidéos enregistrées à 1000 fps. S’il y a flou de mouvement dans les images, de sorte qu’il est difficile pour un annotateur humain d’identifier la position de jambe, FLLIT ne sera pas en mesure d’identifier avec précision les bouts de jambe dans ces cadres. À la lumière de cela, il est essentiel que la caméra soit fortement concentrée sur les pointes de jambe. Pour éviter les artefacts de segmentation, l’aréna doit être nettoyé à fond et ne doit pas être déplacé pendant l’enregistrement. Pour une soustraction précise de fond et une segmentation propre, la mouche doit déplacer au moins une longueur du corps pendant l’enregistrement, sans s’arrêter. Après la segmentation automatique et le suivi de l’étiquetage de toutes les jambes doivent être vérifiés. Si la démarche de vol n’est pas suivie ou mal suivie, le fichier doit être retracé manuellement à l’aide de l’option de suivi manuel (étape 5.2.7 - 5.2.10).

Les maladies neurodégénératives et les troubles du mouvement sont de plus en plus répandus dans nos sociétés vieillissantes. Les modèles de mouche de la neurodégénérescence ont été étudiés pendant plus de 2 décennies, au cours desquelles des progrès ont été réalisés concernant les aspects moléculaires et cellulaires de la pathophysiologie de la maladie. Cependant, les conséquences comportementales spécifiques de la maladie ont été techniquement difficiles à évaluer. Par exemple, alors que les rapports de mouvements tremblants à la mouche ont été faites18,19, ceux-ci n’avaient pas été quantitativement étudiés jusqu’à récemment1. L’essai d’escalade a été une mesure utile et quantitative, mais relativement grossière6. Ce déficit technique a également entravé l’analyse des mouvements à haute résolution dans d’autres modèles animaux. L’avènement de nouveaux outils d’analyse comportementale, par conséquent, a promis de rajeunir le domaine des troubles du mouvement pour permettre aux chercheurs d’étudier comment les mécanismes moléculaires et cellulaires des maladies neuromusculaires mènent à des résultats comportementaux spécifiques dans les modèles animaux. Dans cet article et dans notre travail précédent1, nous avons montré en utilisant FLLIT que les modèles de mouche de SCA3 présentent une démarche ataxique hyperkinétique, tandis que les modèles de mouche présentent une démarche rigide hypokinétique, récapitulant les marques de mouvement des maladies humaines respectives1. L’analyse de la démarche nous a également permis d’identifier des populations neuronales distinctes sous-jacentes à des dysfonctionnements spécifiques du mouvement. À l’avenir, l’analyse détaillée des mouvements, combinée avec les puissants outils d’imagerie et fonctionnels disponibles à la mouche, nous permettra d’obtenir un aperçu nouveau des mécanismes de dysfonctionnement locomoteur, illuminant notre compréhension des maladies neurodégénératives en ce qui concerne les mécanismes de circuit.

FLLIT devrait être largement applicable à étudier la démarche dans d’autres petits arthropodes, car il a été précédemment démontré pour être très précis pour le suivi des mouvements des pattes d’araignée1. Alors que nous nous concentrons ici sur l’utilisation de phénotypage de mouvement détaillé pour quantifier la démarche pathogène et ses circuits sous-jacents, les progrès dans le suivi des mouvements ont déjà révolutionné, et auront un impact continu sur, la compréhension de la coordination de la marche normale et la démarche et ses circuits sous-jacents, en particulier dans une myriade de branches différentes de l’arbre évolutionnaire.

Disclosures

Les auteurs n’ont rien à divulguer.

Acknowledgments

Les auteurs souhaitent remercier Moumita Chatterjee et Alice Liu pour leur soutien technique, et le Bloomington Drosophila Stock Centre (Indiana, Usa) d’avoir mis à disposition les souches Drosophila utilisées dans ce travail. Ces travaux ont été soutenus par l’Institute of Molecular and Cell Biology, Singapour; l’Institut de bioinformatique, Singapour; l’Agence pour la technologie scientifique et la recherche Joint Council Organization (subvention numéro 15302FG149 à SA et LC); le Programme phare de recherche clinique (maladie de Parkinson) administré par le Conseil national de recherches médicales du ministère de la Santé de Singapour (numéro de subvention NMRC/TCR/013-NNI/2014 à SA), l’Université de l’Alberta (subvention de démarrage à LC) et le Conseil de recherches en sciences naturelles et en génie du Canada (NSERC) (numéro de subvention RGPIN-2019-04575 à LC).

Materials

Name Company Catalog Number Comments
Acrylic Sheets Dama 1.6 mm thickness, Clear sheets Singapore, Singapore
Clear Glass slides Biomedia BMH 880101 Singapore, Singapore
High speed camera Photron Fastcam MC2.1 Tokyo, Japan. A shutter speed of 1 msec or faster is ideal to reduce motion blur of captured images
Infra Red LED Any - Generic from hardware store 940nm Infrared Light Board Singapore, Singapore
Kimwipe Kimberly Clark 34155-01LS Irving, Texas, USA

DOWNLOAD MATERIALS LIST

References

  1. Wu, S., et al. Fully automated leg tracking of Drosophila neurodegeneration models reveals distinct conserved movement signatures. PLoS Biology. 17 (6), 3000346 (2019).
  2. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 19, 1281-1289 (2018).
  3. Pereira, T. D., et al. Fast animal pose estimation using deep neural networks. Nature Methods. 16 (1), 117-125 (2019).
  4. Machado, A. S., Darmohray, D. M., Fayad, J., Marques, H. G., Carey, M. R. A quantitative framework for whole-body coordination reveals specific deficits in freely walking ataxic mice. eLife. 4, (2015).
  5. Lu, B., Vogel, H. Drosophila models of neurodegenerative diseases. Annual Reviews in Pathology. 4, 315-342 (2009).
  6. McGurk, L., Berson, A., Bonini, N. M. Drosophila as an In Vivo Model for Human Neurodegenerative Disease. Genetics. 201 (2), 377-402 (2015).
  7. Dionne, H., Hibbard, K., Cavallaro, A., Kao, J. -C., Rubin, G. M. Genetic reagents for making split-GAL4 lines in Drosophila. bioRxiv. , (2017).
  8. Cande, J., et al. Optogenetic dissection of descending behavioral control in Drosophila. eLife. 7, (2018).
  9. Nern, A., Pfeiffer, B. D., Rubin, G. M. Optimized tools for multicolor stochastic labeling reveal diverse stereotyped cell arrangements in the fly visual system. Proceedings of the National Academy of Sciences of the United States of America. 112 (22), 2967-2976 (2015).
  10. Xie, T., et al. A Genetic Toolkit for Dissecting Dopamine Circuit Function in Drosophila. Cell Reports. 23 (2), 652-665 (2018).
  11. Warrick, J. M., et al. Ataxin-3 suppresses polyglutamine neurodegeneration in Drosophila by a ubiquitin-associated mechanism. Molecular Cell. 18 (1), 37-48 (2005).
  12. Ebersbach, G., et al. Comparative analysis of gait in Parkinson's disease, cerebellar ataxia and subcortical arteriosclerotic encephalopathy. Brain. 122 (7), 1349-1355 (1999).
  13. Stolze, H., et al. Typical features of cerebellar ataxic gait. Journal of Neurology, Neurosurgery and Psychiatry. 73 (3), 310-312 (2002).
  14. Mendes, C. S., Bartos, I., Akay, T., Marka, S., Mann, R. S. Quantification of gait parameters in freely walking wild type and sensory deprived Drosophila melanogaster. eLife. 2, 00231 (2013).
  15. DeAngelis, B. D., Zavatone-Veth, J. A., Clark, D. A. The manifold structure of limb coordination in walking Drosophila. eLife. 8, (2019).
  16. Gunel, S., et al. DeepFly3D, a deep learning-based approach for 3D limb and appendage tracking in tethered, adult Drosophila. eLife. 8, (2019).
  17. Isakov, A., et al. Recovery of locomotion after injury in Drosophila melanogaster depends on proprioception. The Journal of Experimental Biology. 219, Pt 11 1760-1771 (2016).
  18. Aw, S. S., Lim, I. K. H., Tang, M. X. M., Cohen, S. M. A Glio-Protective Role of mir-263a by Tuning Sensitivity to Glutamate. Cell Reports. 19 (9), 1783-1793 (2017).
  19. Eberl, D. F., Duyk, G. M., Perrimon, N. A genetic screen for mutations that disrupt an auditory response in Drosophila melanogaster. Proceedings of the National Academy of Sciences of the United States of America. 94 (26), 14837-14842 (1997).

Tags

Comportement Numéro 158 Drosophila insecte apprentissage automatique suivi analyse de la démarche neurodégénérescence
Suivi entièrement automatisé des jambes chez les insectes en mouvement libre à l’aide de la segmentation et du suivi des jambes d’apprentissage des fonctionnalités (FLLIT)
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Banerjee, A., Wu, S., Cheng, L., Aw, More

Banerjee, A., Wu, S., Cheng, L., Aw, S. S. Fully Automated Leg Tracking in Freely Moving Insects using Feature Learning Leg Segmentation and Tracking (FLLIT). J. Vis. Exp. (158), e61012, doi:10.3791/61012 (2020).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter