RESEARCH
Peer reviewed scientific video journal
Video encyclopedia of advanced research methods
Visualizing science through experiment videos
EDUCATION
Video textbooks for undergraduate courses
Visual demonstrations of key scientific experiments
BUSINESS
Video textbooks for business education
OTHERS
Interactive video based quizzes for formative assessments
Products
RESEARCH
JoVE Journal
Peer reviewed scientific video journal
JoVE Encyclopedia of Experiments
Video encyclopedia of advanced research methods
EDUCATION
JoVE Core
Video textbooks for undergraduates
JoVE Science Education
Visual demonstrations of key scientific experiments
JoVE Lab Manual
Videos of experiments for undergraduate lab courses
BUSINESS
JoVE Business
Video textbooks for business education
Solutions
Language
French
Menu
Menu
Menu
Menu
A subscription to JoVE is required to view this content. Sign in or start your free trial.
Research Article
Please note that some of the translations on this page are AI generated. Click here for the English version.
Erratum Notice
Important: There has been an erratum issued for this article. View Erratum Notice
Retraction Notice
The article Assisted Selection of Biomarkers by Linear Discriminant Analysis Effect Size (LEfSe) in Microbiome Data (10.3791/61715) has been retracted by the journal upon the authors' request due to a conflict regarding the data and methodology. View Retraction Notice
Cet article propose un système basé sur l’intelligence artificielle pour détecter automatiquement si les élèves sont attentifs à la classe ou s’ils sont distraits. Ce système est conçu pour aider les enseignants à maintenir l’attention des élèves, à optimiser leurs leçons et à introduire dynamiquement des modifications afin qu’ils soient plus engageants.
Le niveau d’attention des élèves dans une salle de classe peut être amélioré grâce à l’utilisation de techniques d’intelligence artificielle (IA). En identifiant automatiquement le niveau d’attention, les enseignants peuvent employer des stratégies pour retrouver la concentration des élèves. Cela peut se faire par le biais de diverses sources d’information.
L’une d’entre elles consiste à analyser les émotions reflétées sur le visage des élèves. L’IA peut détecter des émotions telles que le neutre, le dégoût, la surprise, la tristesse, la peur, le bonheur et la colère. De plus, la direction du regard des élèves peut également indiquer leur niveau d’attention. Une autre source consiste à observer la posture corporelle des élèves. En utilisant des caméras et des techniques d’apprentissage profond, la posture peut être analysée pour déterminer le niveau d’attention. Par exemple, les élèves qui sont avachis ou qui reposent la tête sur leur bureau peuvent avoir un niveau d’attention inférieur. Les montres intelligentes distribuées aux élèves peuvent fournir des données biométriques et autres, y compris des mesures de fréquence cardiaque et d’inertie, qui peuvent également être utilisées comme indicateurs d’attention. En combinant ces sources d’information, un système d’IA peut être entraîné à identifier le niveau d’attention dans la classe. Cependant, l’intégration des différents types de données pose un défi qui nécessite la création d’un jeu de données étiqueté. Les commentaires d’experts et les études existantes sont consultés pour un étiquetage précis. Dans cet article, nous proposons l’intégration de ces mesures et la création d’un ensemble de données et d’un classificateur d’attention potentiel. Pour fournir un retour d’information à l’enseignant, nous explorons différentes méthodes, telles que les montres intelligentes ou les ordinateurs directs. Une fois que l’enseignant prend conscience des problèmes d’attention, il peut ajuster son approche pédagogique pour réengager et motiver les élèves. En résumé, les techniques d’IA peuvent identifier automatiquement le niveau d’attention des élèves en analysant leurs émotions, la direction de leur regard, leur posture corporelle et leurs données biométriques. Ces informations peuvent aider les enseignants à optimiser le processus d’enseignement-apprentissage.
Dans les contextes éducatifs modernes, il est essentiel d’évaluer et de maintenir avec précision l’attention des élèves pour un enseignement et un apprentissage efficaces. Cependant, les méthodes traditionnelles d’évaluation de l’engagement, telles que l’auto-évaluation ou les observations subjectives de l’enseignant, prennent du temps et sont sujettes à des biais. Pour relever ce défi, les techniques d’intelligence artificielle (IA) sont apparues comme des solutions prometteuses pour la détection automatisée de l’attention. Un aspect important de la compréhension des niveaux d’engagement des élèves est la reconnaissance des émotions1. Les systèmes d’IA peuvent analyser les expressions faciales pour identifier les émotions, telles que la neutralité, le dégoût, la surprise, la tristesse, la peur, le bonheur et la colère2.
La direction du regard et la posture du corps sont également des indicateurs cruciaux de l’attention des élèves3. En utilisant des caméras et des algorithmes d’apprentissage automatique avancés, les systèmes d’IA peuvent suivre avec précision l’endroit où les élèves regardent et analyser leur posture corporelle pour détecter des signes de désintérêt ou de fatigue4. De plus, l’intégration de données biométriques améliore la précision et la fiabilité de la détection de l’attention5. En recueillant des mesures, telles que la fréquence cardiaque et les niveaux de saturation en oxygène dans le sang, à l’aide de montres intelligentes portées par les élèves, il est possible d’obtenir des indicateurs objectifs d’attention, complétant ainsi d’autres sources d’information.
Cet article propose un système qui évalue le niveau d’attention d’un individu à l’aide de caméras couleur et d’autres capteurs différents. Il combine la reconnaissance des émotions, l’analyse de la direction du regard, l’évaluation de la posture corporelle et les données biométriques pour fournir aux éducateurs un ensemble complet d’outils permettant d’optimiser le processus d’enseignement-apprentissage et d’améliorer l’engagement des élèves. En utilisant ces outils, les éducateurs peuvent acquérir une compréhension globale du processus d’enseignement-apprentissage et améliorer l’engagement des élèves, optimisant ainsi l’expérience éducative globale. En appliquant des techniques d’IA, il est même possible d’évaluer automatiquement ces données.
L’objectif principal de ce travail est de décrire le système qui nous permet de capturer toutes les informations et, une fois capturées, d’entraîner un modèle d’IA qui nous permet d’obtenir l’attention de toute la classe en temps réel. Bien que d’autres travaux aient déjà proposé de capter l’attention à l’aide d’informations visuelles ou émotionnelles6, ce travail propose l’utilisation combinée de ces techniques, ce qui fournit une approche holistique pour permettre l’utilisation de techniques d’IA plus complexes et efficaces. De plus, les ensembles de données disponibles jusqu’à présent se limitent soit à un ensemble de vidéos, soit à un ensemble de données biométriques. La littérature ne comprend pas d’ensembles de données fournissant des données complètes avec des images du visage ou du corps de l’élève, des données biométriques, des données sur la position de l’enseignant, etc. Avec le système présenté ici, il est possible de capturer ce type de jeu de données.
Le système associe un niveau d’attention à chaque élève à chaque moment donné. Cette valeur est une valeur de probabilité d’attention comprise entre 0 % et 100 %, qui peut être interprétée comme un niveau d’attention faible (0 %-40 %), un niveau d’attention moyen (40 %-75 %) et un niveau d’attention élevé (75 %-100 %). Tout au long du texte, cette probabilité d’attention est appelée le niveau d’attention, l’attention des élèves, ou le fait que les élèves soient distraits ou non, mais ils sont tous liés à la même valeur de sortie de notre système.
Au fil des ans, le domaine de la détection automatique de l’engagement s’est considérablement développé en raison de son potentiel à révolutionner l’éducation. Les chercheurs ont proposé différentes approches pour ce domaine d’étude.
Ma et al.7 ont introduit une nouvelle méthode basée sur une machine de Turing neuronale pour la reconnaissance automatique de l’engagement. Ils ont extrait certaines caractéristiques, telles que le regard oculaire, les unités d’action faciale, la pose de la tête et la pose du corps, pour créer une représentation complète de la reconnaissance de l’engagement.
EyeTab8, un autre système innovant, a utilisé des modèles pour estimer où une personne regarde avec ses deux yeux. Il a été spécialement conçu pour fonctionner sans problème sur une tablette standard sans aucune modification. Ce système exploite des algorithmes bien connus pour le traitement des images et l’analyse de la vision par ordinateur. Leur pipeline d’estimation du regard comprend un détecteur oculaire basé sur des caractéristiques de type Haar, ainsi qu’une approche d’ajustement de l’ellipse de limbe basée sur RANSAC.
Sanghvi et al.9 proposent une approche qui s’appuie sur des techniques basées sur la vision pour extraire automatiquement des caractéristiques posturales expressives à partir de vidéos enregistrées à partir d’une vue latérale, capturant le comportement des enfants. Une évaluation initiale est réalisée, impliquant l’entraînement de plusieurs modèles de reconnaissance à l’aide d’expressions posturales affectives contextualisées. Les résultats obtenus démontrent que les modèles de comportement postural peuvent prédire efficacement l’engagement des enfants avec le robot.
Dans d’autres travaux, tels que Gupta et al.10, une méthode basée sur l’apprentissage profond est utilisée pour détecter l’engagement en temps réel des apprenants en ligne en analysant leurs expressions faciales et en classifiant leurs émotions. L’approche utilise la reconnaissance des émotions faciales pour calculer un indice d’engagement (IE) qui prédit deux états d’engagement : engagé et désengagé. Divers modèles de deep learning, notamment Inception-V3, VGG19 et ResNet-50, sont évalués et comparés afin d’identifier le modèle de classification prédictive le plus efficace pour la détection de l’engagement en temps réel.
Dans Altuwairqi et al.11, les chercheurs présentent une nouvelle approche multimodale automatique pour évaluer les niveaux d’engagement des étudiants en temps réel. Pour garantir des mesures précises et fiables, l’équipe a intégré et analysé trois modalités distinctes qui capturent les comportements des élèves : les expressions faciales pour les émotions, les frappes au clavier et les mouvements de la souris.
Guillén et al.12 proposent le développement d’un système de surveillance qui utilise l’électrocardiographie (ECG) comme signal physiologique primaire pour analyser et prédire la présence ou l’absence d’attention cognitive chez les individus lors de l’exécution d’une tâche.
Alban et al.13 utilisent un réseau neuronal (NN) pour détecter les émotions en analysant les valeurs de fréquence cardiaque (FC) et d’activité électrodermale (EDA) de divers participants dans les domaines temporel et fréquentiel. Ils constatent qu’une augmentation de la racine carrée moyenne des différences successives (RMSDD) et de l’écart-type des intervalles normal-à-normal (SDNN), associée à une diminution de la FC moyenne, indique une activité accrue dans le système nerveux sympathique, qui est associée à la peur.
Kajiwara et coll.14 proposent un système novateur qui utilise des capteurs portables et des réseaux neuronaux profonds pour prévoir le niveau d’émotion et d’engagement chez les travailleurs. Le système suit un processus en trois étapes. Initialement, les capteurs portables capturent et collectent des données sur les comportements et les ondes de pouls. Par la suite, les caractéristiques des séries chronologiques sont calculées sur la base des données comportementales et physiologiques acquises. Enfin, les réseaux neuronaux profonds sont utilisés pour saisir les caractéristiques de la série chronologique et faire des prédictions sur les émotions et les niveaux d’engagement de l’individu.
Dans d’autres recherches, telles que Costante et al.15, une approche basée sur un nouvel algorithme d’apprentissage métrique de transfert est proposée, qui utilise la connaissance préalable d’un ensemble prédéfini de gestes pour améliorer la reconnaissance des gestes définis par l’utilisateur. Cette amélioration est obtenue avec une dépendance minimale à l’égard d’échantillons d’apprentissage supplémentaires. De même, un cadre de reconnaissance de l’activité humaine basé sur des capteurs16 est présenté pour répondre à l’objectif de la reconnaissance impersonnelle d’activités humaines complexes. Les données de signal collectées à partir de capteurs portés au poignet sont utilisées dans le cadre de reconnaissance de l’activité humaine développé, en utilisant quatre modèles DL basés sur RNN (Long-Short Term Memories, Bidirectional Long-Short Term Memories, Gated Recurrent Units et Bidirectional Gated Recurrent Units) pour étudier les activités effectuées par l’utilisateur du dispositif portable.
Le protocole suivant suit les directives du comité d’éthique de la recherche humaine de l’Université d’Alicante avec le numéro de protocole approuvé UA-2022-11-12. Le consentement éclairé de tous les participants a été obtenu pour cette expérience et pour l’utilisation des données ici.
1. Configuration du matériel, des logiciels et de la classe

Figure 1 : Pipeline de matériel et de données. Les données des appareils photo et des montres connectées sont collectées et transmises aux algorithmes d’apprentissage automatique pour être traitées. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 2 : Position des capteurs, de l’enseignant et des élèves. Schéma montrant les positions des caméras, des montres intelligentes et de l’interface graphique dans la salle de classe avec l’enseignant et les élèves. Veuillez cliquer ici pour voir une version agrandie de cette figure.
2. Pipeline de capture et de traitement des données
REMARQUE : Toutes ces étapes sont effectuées automatiquement par un logiciel de traitement déployé sur un serveur. L’implémentation utilisée pour les expériences dans ce travail a été écrite en Python 3.8.

Figure 3 : Données capturées par la smartwatch. La smartwatch fournit un gyroscope, un accéléromètre, une fréquence cardiaque et une condition lumineuse comme flux de données. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 4 : Exemples de catégories prises en compte par le modèle de reconnaissance d’activité. Quatre actions différentes sont reconnues par le modèle de reconnaissance d’activité : l’écriture manuscrite, la frappe sur un clavier, l’utilisation d’un smartphone et la position de repos. Veuillez cliquer ici pour voir une version agrandie de cette figure.
Le groupe cible de cette étude est constitué des étudiants de premier cycle et de master, et le groupe d’âge principal se situe donc entre 18 et 25 ans. Cette population a été choisie parce qu’elle peut manipuler des appareils électroniques avec moins de distractions que les élèves plus jeunes. Au total, le groupe comprenait 25 personnes. Ce groupe d’âge peut fournir les résultats les plus fiables pour tester la proposition.
Les résultats du niveau d’attention montré à l’enseignant comportent 2 parties. La partie A du résultat montre des informations individuelles sur le niveau d’attention actuel de chaque élève. La partie B est alors destinée à obtenir l’attention moyenne de toute la classe et son histoire temporelle tout au long de la leçon. Cela nous permet de capter une tendance générale de l’attention de l’élève en classe et d’adapter la méthodologie utilisée par l’enseignant en direct. Chaque seconde, l’interface demande de nouvelles informations au serveur. De plus, cette vue intègre l’utilisation des notifications du navigateur, ce qui permet d’afficher des changements drastiques dans l’attention des élèves de manière non intrusive pendant que l’enseignant effectue ses activités normalement, sans qu’il soit nécessaire de garder cette interface graphique au premier plan. Un exemple de cette interface graphique peut être vu dans la figure 5.

Figure 5 : Interface utilisateur graphique du système. Le niveau d’attention est indiqué dans une interface graphique accessible par n’importe quel navigateur Internet sur n’importe quel appareil compatible, tel qu’une tablette, un smartphone et un ordinateur de bureau ou portable. Veuillez cliquer ici pour voir une version agrandie de cette figure.
En ce qui concerne le modèle de reconnaissance d’activité, un réseau de neurones récurrents a été défini, de sorte qu’il reçoit une séquence de 200 mesures avec 6 valeurs chacune en entrée : à savoir, trois valeurs de l’accéléromètre et 3 du gyroscope. Le modèle dispose d’une couche LSTM de 64 unités, suivie d’une couche entièrement connectée activée par SoftMax avec quatre neurones de sortie, un par catégorie. L’architecture est illustrée à la figure 6.

Figure 6 : Architecture du classificateur d’activités. En entrée, le modèle prend les données de la smartwatch et les traite à travers une couche LSTM suivie d’une couche entièrement connectée. Le résultat est la probabilité que l’échantillon représente chaque activité. Veuillez cliquer ici pour voir une version agrandie de cette figure.
En sortie, le classifieur renvoie la classe correspondant à l’action estimée effectuée par l’étudiant. Ce réseau neuronal a été formé à l’aide de données capturées auprès de 6 individus différents. Chacun a été enregistré pendant 200 secondes en train d’effectuer des actions des quatre catégories différentes. Toutes les données prises ont été dupliquées, générant un nouvel ensemble de données en miroir en inversant la valeur obtenue à partir des capteurs dans l’axe des abscisses. Cela revient à recueillir des données à partir de la main droite et de la main gauche de tous les individus. Il s’agit d’une pratique courante dans le domaine de l’apprentissage automatique et elle vise à générer davantage d’échantillons à partir de l’ensemble de données existant afin d’éviter le surapprentissage.
Les 200 mesures (un enregistrement par seconde) sont regroupées en flux de 4 s pour correspondre à l’entrée du réseau LSTM en déplaçant la fenêtre d’une seconde à la fois. En conséquence, nous avons obtenu 197 combinaisons de données prises dans un intervalle de 4 s. En résumé, au total, il y a 9 456 entrées de données, 6 personnes, 4 classes, 2 mains et 197 ensembles d’entraînement. Les données ont été séparées en 90 % d’entraînement et 10 % de validation, et le réseau a été entraîné pour 300 époques et une taille de lot de 64.
Comme le montre la figure 7, le modèle a été entraîné pour 300 époques. La perte de validation était inférieure à 0,1 % et la précision de la validation était de 97 %. Les métriques obtenues mettent en évidence les bonnes performances du modèle.

Figure 7 : Pertes et précisions de l’entraînement et de la validation. Les pertes et les précisions de l’entraînement et de la validation montrent que les performances du modèle sont adéquates et ne souffrent pas de surapprentissage. Veuillez cliquer ici pour voir une version agrandie de cette figure.
Enfin, les résultats de chaque sous-système (posture de la tête, estimation de la pose, prédiction des émotions et reconnaissance d’activité) sont fusionnés dans un classificateur stimulant qui fournit une valeur de probabilité selon que l’élève est attentif ou non à la leçon.
Afin de faire progresser la clarification conceptuelle et procédurale pour un étiquetage précis et l’avis d’experts, les études existantes ont été consultées comme décrit ci-dessous.
En ce qui concerne l’apport d’experts, la méthode Delphi a été choisie 20,21,22, une méthode de plus en plus pertinente dans le domaine technologique 23. Comme souligné dans une publication précédente, la méthode Delphi est définie comme un processus itératif, de groupe et anonyme pour générer des opinions sur un sujet et explorer le consensus entre les experts sur ce sujet23. Dans le cas présenté ici, 6 experts ont contribué pendant 2 semaines et 2 cycles de consultation, en accord avec Khodyakov et al.24. En raison de l’importance du profil des experts participants, la consultation a inclus des spécialistes universitaires des domaines de la psychologie, de la pédagogie et de l’informatique. Une méthode quantitative a été utilisée pour recueillir les données. Les résultats ont conduit à un consensus sur l’étiquetage utilisé dans cette étude.
En ce qui concerne les études consultées comme base pour le marquage, nous avons commencé par une étude exploratoire dans les principales bases de données, telles que WOS et Scopus. Les contributions d’études antérieures 25,26,27,28 méritent d’être mentionnées à cet égard. Tous abordent le problème des soins sous des angles spécifiques, mais pas de manière holistique à partir d’un système intelligent, comme cette étude entend l’aborder. D’autre part, il existe des études qui combinent deux sources spécifiques, comme dans Zaletelj et al.29, où elles se concentrent sur les traits du visage et du corps, mais elles sont loin des approches globales comme cette étude. Un travail précédent se démarque30, citant la taxonomie de Posner, qui est prise en compte dans cette étude. Posner considère l’attention comme un ensemble de systèmes neuronaux isolables (vigilance, orientation et contrôle exécutif), qui travaillent souvent ensemble pour organiser le comportement30.
Le classificateur boosting est un algorithme d’ensemble qui apprend les poids pour chaque sortie faible du classificateur et génère une valeur finale au moyen d’une combinaison pondérée de chaque décision individuelle. Ces informations, comme nous l’avons vu à l’étape 2.9, sont présentées en temps réel via une interface Web afin que l’enseignant puisse remarquer des changements drastiques dans le niveau d’attention de la classe à l’aide des notifications du navigateur. Grâce à cette interface de visualisation, qui montre l’évolution en temps réel du niveau d’attention global des élèves, les enseignants peuvent adapter leurs classes pour impliquer les élèves dans leurs leçons et tirer le meilleur parti de la classe.
Le tableau 1 présente la structure de l’ensemble de données, qui est composée des éléments suivants : Appareil photo individuel : une image par seconde à 960 x 720 pixels RVB ; Caméras Zenital : deux images par seconde à 1920 x 1080 pixels RGB ; Gyroscope : 50 données par seconde, chaque donnée est décomposée en 3 valeurs à virgule flottante avec 19 valeurs décimales, correspondant aux coordonnées X, Y, Z. Mesure l’accélération angulaire en °/s ; Accéléromètre : 50 données par seconde, chaque donnée est décomposée en 3 valeurs à virgule flottante avec 19 valeurs décimales, correspondant aux coordonnées X, Y, Z. Mesure l’accélération en m/s2 ; Vecteur de rotation : 50 données par seconde, chaque donnée est décomposée en un quaternion avec 4 valeurs à virgule flottante avec 19 décimales (avec des valeurs comprises entre -1 et 1) ; Fréquence cardiaque : une valeur par seconde mesurant les battements par minute ; Capteur de lumière : environ 8 à 10 valeurs par seconde mesurant le niveau de lumière avec des entiers ; Direction de la tête : Pour chaque image, 3 nombres décimaux représentent l’axe X (roulis), l’axe Y (tangage) et l’axe Z (lacet), qui indiquent l’inclinaison de la tête ; Pose du corps : Pour chaque image, 18 nombres décimaux représentent les coordonnées X et Y de 9 points clés.
| Appareil photo individuel | Appareils photo Zenithal | Gyroscope | Accéléromètre | Vecteur de rotation | Fréquence cardiaque | Condition légère | Direction de la tête | Posture du corps |
| Image RVB de 960 x 720 pixels | 2 x (1920 x 1080 pixels) | 50 x 3 (XYZ) | 50 x 3 (XYZ) | 50 x quaternion | battements par minute | 10 x lumens | 3 (XYZ) nombres décimaux | 9 x 2 (XY) nombres décimaux |
| Image RVB | nombres décimaux | nombres décimaux |
Tableau 1 : Structure de l’ensemble de données. L’ensemble de données affiche des données différentes à des fins de classification. Toutes les données présentées proviennent de données biométriques et d’images prises par différentes caméras.
Les auteurs déclarent qu’ils n’ont pas d’intérêts financiers concurrents connus ou de relations personnelles qui auraient pu sembler influencer les travaux rapportés dans cet article.
Cet article propose un système basé sur l’intelligence artificielle pour détecter automatiquement si les élèves sont attentifs à la classe ou s’ils sont distraits. Ce système est conçu pour aider les enseignants à maintenir l’attention des élèves, à optimiser leurs leçons et à introduire dynamiquement des modifications afin qu’ils soient plus engageants.
Ce travail a été développé avec le financement du Programa Prometeo, projet ID CIPROM/2021/017. Le professeur Rosabel Roig est titulaire de la chaire de l’UNESCO « Éducation, recherche et inclusion numérique ».
| 4 GPU  ; Nvidia A40 Ampère | NVIDIA | TCSA40M-PB | GPU pour serveur de traitement de modèle centralisé |
| FusionServer 2288H V5 | X-Fusion | 02311XBK | Plate-forme qui comprend alimentation et carte mère pour serveur de traitement de modèle centralisé |
| Carte mémoire Evo Plus 128 GB | Samsung | MB-MC128KA/EU | Carte mémoire pour le fonctionnement du raspberry pi 4b 2gb.  ; Un pour chaque framboise. |
| NEMIX RAM - 512 GB Kit DDR4-3200 PC4-25600 8Rx4 EC | NEMIX | M393AAG40M32-CAE | RAM pour serveur de traitement de modèle centralisé |
| Processeur Intel Xeon Gold 6330 | Intel CD8068904572101 Processeur pour serveur de traitement de modèle centralisé | ||
| Raspberry PI 4B 2GB | Raspberry | 1822095 | Serveur local qui reçoit les demandes des horloges et les envoie au serveur général. Un étudiant sur deux. |
| Samsung Galaxy Watch 5 (40mm) | Samsung | SM-R900NZAAPHE | Horloge qui surveille l’activité de chaque élève. Pour chaque élève. |
| Samsung MZQL23T8HCLS-00B7C PM9A3 3.84Tb Nvme U.2 PCI-Express-4 x4 2.5inch Ssd | Samsung | MZQL23T8HCLS-00B7C | Stockage interne pour serveur de traitement de modèle |
| centralisé WebCam HD Pro C920 Webcam | FullHD Logitech | 960-001055 | Webcam HD. Un pour chaque élève plus deux pour les poses des élèves. |