RESEARCH
Peer reviewed scientific video journal
Video encyclopedia of advanced research methods
Visualizing science through experiment videos
EDUCATION
Video textbooks for undergraduate courses
Visual demonstrations of key scientific experiments
BUSINESS
Video textbooks for business education
OTHERS
Interactive video based quizzes for formative assessments
Products
RESEARCH
JoVE Journal
Peer reviewed scientific video journal
JoVE Encyclopedia of Experiments
Video encyclopedia of advanced research methods
EDUCATION
JoVE Core
Video textbooks for undergraduates
JoVE Science Education
Visual demonstrations of key scientific experiments
JoVE Lab Manual
Videos of experiments for undergraduate lab courses
BUSINESS
JoVE Business
Video textbooks for business education
Solutions
Language
pl_PL
Menu
Menu
Menu
Menu
A subscription to JoVE is required to view this content. Sign in or start your free trial.
Research Article
Please note that some of the translations on this page are AI generated. Click here for the English version.
Erratum Notice
Important: There has been an erratum issued for this article. View Erratum Notice
Retraction Notice
The article Assisted Selection of Biomarkers by Linear Discriminant Analysis Effect Size (LEfSe) in Microbiome Data (10.3791/61715) has been retracted by the journal upon the authors' request due to a conflict regarding the data and methodology. View Retraction Notice
Ten artykuł proponuje system oparty na sztucznej inteligencji, który automatycznie wykrywa, czy uczniowie zwracają uwagę na klasę, czy są rozproszeni. System ten ma za zadanie pomóc nauczycielom utrzymać uwagę uczniów, zoptymalizować ich lekcje i dynamicznie wprowadzać modyfikacje, aby były one bardziej angażujące.
Poziom koncentracji uczniów w klasie może być poprawiony dzięki zastosowaniu technik sztucznej inteligencji (AI). Automatycznie identyfikując poziom uwagi, nauczyciele mogą stosować strategie, aby odzyskać koncentrację uczniów. Można to osiągnąć za pomocą różnych źródeł informacji.
Jednym ze źródeł jest analiza emocji odbitych na twarzach uczniów. Sztuczna inteligencja może wykrywać emocje, takie jak neutralne, wstręt, zaskoczenie, smutek, strach, szczęście i złość. Dodatkowo, kierunek wzroku uczniów może również potencjalnie wskazywać na ich poziom uwagi. Innym źródłem jest obserwacja postawy ciała uczniów. Korzystając z kamer i technik głębokiego uczenia, można analizować postawę w celu określenia poziomu uwagi. Na przykład uczniowie, którzy się garbią lub opierają głowy na ławkach, mogą mieć niższy poziom uwagi. Smartwatche rozdawane uczniom mogą dostarczać danych biometrycznych i innych, w tym pomiarów tętna i bezwładności, które mogą być również wykorzystywane jako wskaźniki uwagi. Łącząc te źródła informacji, system sztucznej inteligencji można wytrenować w celu określenia poziomu uwagi w klasie. Jednak integracja różnych typów danych stanowi wyzwanie, które wymaga utworzenia zestawu danych z etykietą. Opinie ekspertów i istniejące badania są konsultowane w celu dokładnego etykietowania. W tym artykule proponujemy integrację takich pomiarów oraz stworzenie zestawu danych i potencjalnego klasyfikatora uwagi. Aby przekazać nauczycielowi informację zwrotną, badamy różne metody, takie jak smartwatche lub bezpośrednie komputery. Gdy nauczyciel zda sobie sprawę z problemów z uwagą, może dostosować swoje podejście do nauczania, aby ponownie zaangażować i zmotywować uczniów. Podsumowując, techniki sztucznej inteligencji mogą automatycznie identyfikować poziom uwagi uczniów, analizując ich emocje, kierunek spojrzenia, postawę ciała i dane biometryczne. Informacje te mogą pomóc nauczycielom w optymalizacji procesu nauczania-uczenia się.
W nowoczesnych środowiskach edukacyjnych, dokładna ocena i utrzymanie uwagi uczniów jest kluczowe dla efektywnego nauczania i uczenia się. Jednak tradycyjne metody mierzenia zaangażowania, takie jak samoocena lub subiektywne obserwacje nauczycieli, są czasochłonne i podatne na uprzedzenia. Aby sprostać temu wyzwaniu, techniki sztucznej inteligencji (AI) okazały się obiecującymi rozwiązaniami w zakresie automatycznego wykrywania uwagi. Jednym z istotnych aspektów zrozumienia poziomu zaangażowania uczniów jest rozpoznawanie emocji1. Systemy sztucznej inteligencji mogą analizować mimikę twarzy, aby zidentyfikować emocje, takie jak neutralne, wstręt, zaskoczenie, smutek, strach, szczęście i złość2.
Kierunek spojrzenia i postawa ciała są również kluczowymi wskaźnikami uwagi uczniów3. Wykorzystując kamery i zaawansowane algorytmy uczenia maszynowego, systemy sztucznej inteligencji mogą dokładnie śledzić, gdzie patrzą uczniowie i analizować ich postawę ciała, aby wykryć oznaki braku zainteresowania lub zmęczenia4. Co więcej, włączenie danych biometrycznych zwiększa dokładność i niezawodność wykrywania uwagi5. Zbierając pomiary, takie jak tętno i poziom nasycenia krwi tlenem, za pomocą smartwatchy noszonych przez studentów, można uzyskać obiektywne wskaźniki uwagi, uzupełniające inne źródła informacji.
Ten artykuł proponuje system, który ocenia poziom uwagi danej osoby za pomocą kolorowych kamer i innych różnych czujników. Łączy w sobie rozpoznawanie emocji, analizę kierunku spojrzenia, ocenę postawy ciała i dane biometryczne, aby zapewnić nauczycielom kompleksowy zestaw narzędzi do optymalizacji procesu nauczania-uczenia się i zwiększania zaangażowania uczniów. Korzystając z tych narzędzi, nauczyciele mogą uzyskać kompleksowe zrozumienie procesu nauczania-uczenia się i zwiększyć zaangażowanie uczniów, optymalizując w ten sposób ogólne doświadczenie edukacyjne. Dzięki zastosowaniu technik sztucznej inteligencji możliwa jest nawet automatyczna ocena tych danych.
Głównym celem tej pracy jest opisanie systemu, który pozwala nam na przechwycenie wszystkich informacji, a po ich przechwyceniu, na wytrenowanie modelu AI, który pozwala nam przyciągnąć uwagę całej klasy w czasie rzeczywistym. Chociaż w innych pracach zaproponowano już przyciągnięcie uwagi za pomocą informacji wizualnych lub emocjonalnych6, w niniejszej pracy zaproponowano łączne wykorzystanie tych technik, co zapewnia holistyczne podejście, aby umożliwić stosowanie bardziej złożonych i skutecznych technik sztucznej inteligencji. Ponadto dotychczas dostępne zbiory danych ograniczają się albo do zestawu nagrań wideo, albo do jednego zestawu danych biometrycznych. W literaturze brak jest zbiorów danych, które dostarczają kompletnych danych z obrazami twarzy ucznia lub jego ciała, danymi biometrycznymi, danymi o pozycji nauczyciela itp. Dzięki przedstawionemu tutaj systemowi możliwe jest przechwycenie tego typu zbioru danych.
System kojarzy poziom uwagi z każdym uczniem w każdym momencie. Ta wartość jest wartością prawdopodobieństwa uwagi z zakresu od 0% do 100%, która może być interpretowana jako niski poziom uwagi (0%-40%), średni poziom uwagi (40%-75%) i wysoki poziom uwagi (75%-100%). W całym tekście to prawdopodobieństwo uwagi jest określane jako poziom uwagi, uwaga ucznia lub to, czy uczniowie są rozproszeni, czy nie, ale wszystkie są związane z tą samą wartością wyjściową naszego systemu.
Z biegiem lat, dziedzina automatycznego wykrywania zaangażowania znacznie się rozrosła ze względu na jej potencjał do zrewolucjonizowania edukacji. Naukowcy zaproponowali różne podejścia do tej dziedziny badań.
Ma et al.7 wprowadziło nowatorską metodę opartą na neuronowej maszynie Turinga do automatycznego rozpoznawania zaangażowania. Wyodrębnili pewne cechy, takie jak spojrzenie oczu, jednostki działania twarzy, ułożenie głowy i ułożenie ciała, aby stworzyć kompleksową reprezentację rozpoznawania zaangażowania.
EyeTab8, inny innowacyjny system, używał modeli do oszacowania, gdzie ktoś patrzy obojgiem oczu. Został specjalnie stworzony, aby działał płynnie na standardowym tablecie bez żadnych modyfikacji. System ten wykorzystuje dobrze znane algorytmy do przetwarzania obrazów i analizy wizji komputerowej. Ich proces szacowania spojrzenia obejmuje detektor oka oparty na cechach podobny do Haar, a także podejście do dopasowania elipsy limbus oparte na RANSAC.
Sanghvi et al.9 proponują podejście, które opiera się na technikach opartych na wizji, aby automatycznie wyodrębnić wyraziste cechy postawy z filmów nagranych z boku, rejestrując zachowanie dzieci. Przeprowadzana jest wstępna ocena, obejmująca trenowanie wielu modeli rozpoznawania przy użyciu kontekstowych afektywnych wyrażeń postawy. Uzyskane wyniki pokazują, że wzorce zachowań posturalnych mogą skutecznie przewidywać zaangażowanie dzieci w kontakt z robotem.
W innych pracach, takich jak Gupta et al.10, zastosowano metodę opartą na głębokim uczeniu się do wykrywania zaangażowania osób uczących się online w czasie rzeczywistym poprzez analizę ich mimiki twarzy i klasyfikację emocji. Podejście to wykorzystuje rozpoznawanie emocji twarzy do obliczenia wskaźnika zaangażowania (EI), który przewiduje dwa stany zaangażowania: zaangażowany i niezaangażowany. Różne modele głębokiego uczenia, w tym Inception-V3, VGG19 i ResNet-50, są oceniane i porównywane w celu zidentyfikowania najskuteczniejszego modelu klasyfikacji predykcyjnej do wykrywania zaangażowania w czasie rzeczywistym.
W Altuwairqi et al.11, naukowcy prezentują nowatorskie automatyczne podejście multimodalne do oceny poziomu zaangażowania studentów w czasie rzeczywistym. Aby zapewnić dokładne i wiarygodne pomiary, zespół zintegrował i przeanalizował trzy odrębne modalności, które rejestrują zachowania uczniów: mimikę emocji wyrażaną przez emocje, naciśnięcia klawiatury i ruchy myszy.
Guillén et al.12 proponują opracowanie systemu monitorowania, który wykorzystuje elektrokardiografię (EKG) jako podstawowy sygnał fizjologiczny do analizy i przewidywania obecności lub braku uwagi poznawczej u osób podczas wykonywania zadania.
Alban et al.13 wykorzystują sieć neuronową (NN) do wykrywania emocji poprzez analizę wartości tętna (HR) i aktywności elektrodermalnej (EDA) różnych uczestników, zarówno w dziedzinie czasu, jak i częstotliwości. Odkryli, że wzrost średniej kwadratowej kolejnych różnic (RMSDD) i przedziałów odchylenia standardowego od normalnego do normalnego (SDNN), w połączeniu ze spadkiem średniego HR, wskazuje na zwiększoną aktywność współczulnego układu nerwowego, co jest związane ze strachem.
Kajiwara et al.14 proponują innowacyjny system, który wykorzystuje czujniki do noszenia na ciele i głębokie sieci neuronowe do prognozowania poziomu emocji i zaangażowania pracowników. System przebiega zgodnie z trzyetapowym procesem. Początkowo czujniki ubieralne na ciele przechwytują i gromadzą dane o zachowaniach i falach tętna. Następnie cechy szeregów czasowych są obliczane na podstawie uzyskanych danych behawioralnych i fizjologicznych. Wreszcie, głębokie sieci neuronowe są wykorzystywane do wprowadzania cech szeregów czasowych i przewidywania emocji i poziomów zaangażowania danej osoby.
W innych badaniach, takich jak Costante et al.15, zaproponowano podejście oparte na nowatorskim algorytmie uczenia się metryki transferu, który wykorzystuje wcześniejszą wiedzę na temat predefiniowanego zestawu gestów w celu poprawy rozpoznawania gestów zdefiniowanych przez użytkownika. Tę poprawę osiąga się przy minimalnym poleganiu na dodatkowych próbkach treningowych. Podobnie, przedstawiono oparte na czujnikach ramy rozpoznawania aktywności człowieka16, aby zająć się celem, jakim jest bezosobowe rozpoznawanie złożonych działań człowieka. Dane sygnałowe zebrane z czujników noszonych na nadgarstku są wykorzystywane w opracowanych ramach rozpoznawania aktywności człowieka, wykorzystujących cztery modele DL oparte na RNN (Long-Short Term Memories, Bidirectional Long-Short Term Memories, Gated Recurrent Units i Bidirectional Gated Recurrent Units) w celu zbadania czynności wykonywanych przez użytkownika urządzenia ubieralnego.
Poniższy protokół jest zgodny z wytycznymi komisji etyki badań na ludziach Uniwersytetu w Alicante z zatwierdzonym numerem protokołu UA-2022-11-12. Uzyskano świadomą zgodę wszystkich uczestników na ten eksperyment i na wykorzystanie zamieszczonych tutaj danych.
1. Sprzęt, oprogramowanie i konfiguracja klas

Rysunek 1: Sprzęt i potok danych. Dane z kamer i smartwatchy są gromadzone i przekazywane do algorytmów uczenia maszynowego w celu przetworzenia. Kliknij tutaj, aby zobaczyć większą wersję tego rysunku.

Rysunek 2: Położenie czujników, nauczyciela i uczniów. Diagram przedstawiający pozycje kamer, smartwatchy i graficznego interfejsu użytkownika w klasie z nauczycielem i uczniami. Kliknij tutaj, aby zobaczyć większą wersję tego rysunku.
2. Potok przechwytywania i przetwarzania danych
UWAGA: Wszystkie te kroki są wykonywane automatycznie przez oprogramowanie przetwarzające zainstalowane na serwerze. Implementacja użyta do eksperymentów w tej pracy została napisana w Pythonie 3.8.

Rysunek 3: Dane przechwycone przez smartwatch. Smartwatch zapewnia żyroskop, akcelerometr, tętno i warunki oświetleniowe jako strumienie danych. Kliknij tutaj, aby zobaczyć większą wersję tego rysunku.

Rysunek 4: Przykłady kategorii uwzględnianych przez model rozpoznawania aktywności. Model rozpoznawania aktywności rozpoznaje cztery różne działania: pismo odręczne, pisanie na klawiaturze, korzystanie ze smartfona i pozycja spoczynkowa. Kliknij tutaj, aby zobaczyć większą wersję tego rysunku.
Grupą docelową tego badania są studenci studiów licencjackich i magisterskich, więc główna grupa wiekowa to osoby w wieku od 18 do 25 lat. Ta populacja została wybrana, ponieważ potrafią obsługiwać urządzenia elektroniczne z mniejszą liczbą zakłóceń niż młodsi uczniowie. Łącznie grupa liczyła 25 osób. Ta grupa wiekowa może dostarczyć najbardziej wiarygodnych wyników do przetestowania propozycji.
Wyniki poziomu uwagi pokazanego nauczycielowi składają się z 2 części. Część A wyniku zawiera indywidualne informacje o aktualnym poziomie koncentracji uwagi każdego ucznia. Część B ma na celu przyciągnięcie przeciętnej uwagi całej klasy i jej historii czasowej w trakcie lekcji. Pozwala nam to uchwycić ogólny trend uwagi ucznia w klasie i dostosować metodologię stosowaną przez nauczyciela w sposób żywy. Co sekundę interfejs żąda nowych informacji od serwera. Co więcej, widok ten obejmuje korzystanie z powiadomień przeglądarki, dzięki czemu drastyczne zmiany w uwadze uczniów są pokazywane w nienachalny sposób, podczas gdy nauczyciel wykonuje swoje czynności normalnie, bez konieczności utrzymywania tego graficznego interfejsu użytkownika na pierwszym planie. Przykład tego GUI można zobaczyć w Rysunek 5.

Rysunek 5: Graficzny interfejs użytkownika systemu. Poziom uwagi jest wyświetlany w graficznym interfejsie użytkownika, do którego można uzyskać dostęp za pomocą dowolnej przeglądarki internetowej na dowolnym zdolnym do tego urządzeniu, takim jak tablet, smartfon oraz komputer stacjonarny lub laptop. Kliknij tutaj, aby zobaczyć większą wersję tego rysunku.
Jeśli chodzi o model rozpoznawania aktywności, zdefiniowano rekurencyjną sieć neuronową, która otrzymuje sekwencję 200 pomiarów z 6 wartościami każdy jako dane wejściowe: mianowicie trzy wartości z akcelerometru i 3 z żyroskopu. Model składa się z warstwy LSTM składającej się z 64 jednostek, po której następuje w pełni połączona warstwa aktywowana przez SoftMax z czterema neuronami wyjściowymi, po jednym na kategorię. Architektura jest przedstawiona w Rysunek 6.

Rysunek 6: Architektura klasyfikatora aktywności. Jako dane wejściowe model pobiera dane smartwatcha i przetwarza je przez warstwę LSTM, a następnie w pełni połączoną warstwę. Wynikiem jest prawdopodobieństwo, że próbka obrazuje każde działanie. Kliknij tutaj, aby zobaczyć większą wersję tego rysunku.
Jako dane wyjściowe, klasyfikator zwraca klasę odpowiadającą szacowanej czynności wykonywanej przez ucznia. Ta sieć neuronowa została przeszkolona na podstawie danych zebranych od 6 różnych osób. Każdy z nich był nagrywany podczas wykonywania czynności z czterech różnych kategorii przez 200 sekund. Wszystkie pobrane dane zostały zduplikowane, generując nowy lustrzany zestaw danych poprzez odwrócenie wartości uzyskanej z czujników w osi X. Jest to podobne do zbierania danych zarówno z prawej, jak i lewej ręki wszystkich osób. Jest to powszechna praktyka w obszarze uczenia maszynowego i ma na celu wygenerowanie większej liczby próbek z istniejącego zestawu danych, aby uniknąć nadmiernego dopasowania.
200 pomiarów (jeden rekord na sekundę) jest grupowanych w strumienie po 4 sekundy, aby dopasować dane wejściowe z sieci LSTM poprzez przesuwanie okna sekunda po sekundzie. W efekcie uzyskaliśmy 197 kombinacji danych pobranych w interwale 4 s. Podsumowując, w sumie jest 9 456 wejść danych, 6 osób, 4 klasy, 2 ręce i 197 zestawów treningowych. Dane zostały podzielone na 90% trenowania i 10% walidacji, a sieć została przeszkolona dla 300 epok i wielkości partii 64.
Jak pokazano w Rysunek 7, model był trenowany przez 300 epok. Strata walidacji wyniosła mniej niż 0,1%, a dokładność walidacji wyniosła 97%. Uzyskane metryki podkreślają dobrą wydajność modelu.

Rysunek 7: Straty i dokładności treningu i walidacji. Straty i dokładności związane z uczeniem i walidacją pokazują, że wydajność modelu jest odpowiednia i nie cierpi z powodu nadmiernego dopasowania. Kliknij tutaj, aby zobaczyć większą wersję tego rysunku.
Na koniec, wyniki każdego podsystemu (ułożenie głowy, oszacowanie pozycji, przewidywanie emocji i rozpoznawanie aktywności) są łączone w klasyfikator wzmacniający, który dostarcza wartość prawdopodobieństwa, czy uczeń jest uważny na lekcji, czy nie.
W celu przyspieszenia koncepcyjnego i proceduralnego wyjaśnienia dokładnego etykietowania i wkładu ekspertów, skonsultowano się z istniejącymi badaniami, jak opisano poniżej.
Jeśli chodzi o wkład ekspertów, wybrano metodę Delphi20,21,22, metoda, która jest coraz bardziej przydatna w dziedzinie technologii23. Jak wskazano w poprzedniej publikacji, metoda delficka jest definiowana jako iteracyjny, grupowy i anonimowy proces generowania opinii na dany temat i poszukiwania konsensusu wśród ekspertów na ten temat23. W przedstawionym tutaj przypadku 6 ekspertów wniosło swój wkład przez 2 tygodnie i 2 rundy konsultacji, zgodnie z Khodyakov et al.24. Ze względu na znaczenie profilu uczestniczących ekspertów, w konsultacjach wzięli udział specjaliści akademiccy z uczelni wyższych w dziedzinie psychologii, pedagogiki i informatyki. Do zebrania danych wykorzystano metodę ilościową. Wyniki doprowadziły do konsensusu w sprawie etykietowania zastosowanego w tym badaniu.
Jeśli chodzi o badania, które stanowiły podstawę do etykietowania, rozpoczęliśmy od badania eksploracyjnego w głównych bazach danych, takich jak WOS i Scopus. W tym kontekście warto wspomnieć o wkładzie wcześniejszych badań25,26,27,28. Wszystkie one odnoszą się do problemu opieki z określonej perspektywy, ale nie w sposób holistyczny, z perspektywy inteligentnego systemu, jak ma to miejsce w niniejszym badaniu. Z drugiej strony istnieją badania, które łączą dwa konkretne źródła, takie jak Zaletelj i wsp.29, gdzie koncentrują się na rysach twarzy i ciała, ale są dalekie od globalnych podejść, takich jak to badanie. Jedna z poprzednich prac wyróżnia się30, powołując się na taksonomię Posnera, która jest brana pod uwagę w tym badaniu. Posner uważa uwagę za zestaw izolowalnych systemów neuronowych (czujność, orientacja i kontrola wykonawcza), które często współpracują ze sobą w celu uporządkowania zachowania30.
Klasyfikator wzmacniający to algorytm zespołowy, który uczy się wag dla każdego słabego wyniku klasyfikatora i generuje wartość końcową za pomocą ważonej kombinacji każdej indywidualnej decyzji. Informacje te, jak omówiono w kroku 2.9, są prezentowane w czasie rzeczywistym za pośrednictwem interfejsu internetowego, dzięki czemu nauczyciel może zauważyć drastyczne zmiany w poziomie uwagi klasy za pomocą powiadomień przeglądarki. Dzięki temu interfejsowi wizualizacji, który pokazuje ewolucję ogólnego poziomu uwagi uczniów w czasie rzeczywistym, nauczyciele mogą dostosować swoje klasy, aby zaangażować uczniów w lekcje i uzyskać więcej z klasy.
Tabela 1 przedstawia strukturę zbioru danych, która składa się z następujących elementów: Indywidualna kamera: jeden obraz na sekundę w rozdzielczości RGB 960 x 720 pikseli; Kamery Zenital: dwa obrazy na sekundę przy 1920 x 1080 pikselach RGB; Żyroskop: 50 danych na sekundę, każde dane są rozkładane na 3 wartości zmiennoprzecinkowe z 19 wartościami dziesiętnymi, odpowiadającymi współrzędnym X, Y, Z. Mierzy przyspieszenie kątowe w °/s; Akcelerometr: 50 danych na sekundę, każde dane są rozkładane na 3 wartości zmiennoprzecinkowe z 19 wartościami dziesiętnymi, odpowiadającymi współrzędnym X, Y, Z. Mierzy przyspieszenie w m/s2; Wektor rotacji: 50 danych na sekundę, każde dane są rozkładane na kwaternion z 4 wartościami zmiennoprzecinkowymi z 19 miejscami po przecinku (z wartościami od -1 do 1); Tętno: jedna wartość na sekundę mierząca uderzenia na minutę; Czujnik światła: około 8-10 wartości na sekundę mierzących poziom światła za pomocą liczb całkowitych; Kierunek głowy: Dla każdego obrazu 3 liczby dziesiętne reprezentują oś X (przechylenie), oś Y (pochylenie) i oś Z (odchylenie), które wskazują nachylenie głowy; Ułożenie ciała: Dla każdego obrazu 18 liczb dziesiętnych reprezentuje współrzędne X i Y 9 kluczowych punktów.
| Indywidualna kamera | Kamery Zenithal | żyroskop | Akcelerometr | Wektor obrotu | Tętno | Warunki oświetleniowe | Kierunek głowy | Pozycja ciała |
| 960 x 720 pikseli obrazu RGB | 2 x (1920 x 1080 pikseli) | 50 x 3 (XYZ) | 50 x 3 (XYZ) | 50 x kwaternion | uderzeń na minutę | 10 x lumeny | 3 (XYZ) liczby dziesiętne | 9 x 2 (XY) liczby dziesiętne |
| Obraz RGB | Liczby dziesiętne | Liczby dziesiętne |
Tabela 1: Struktura zbioru danych. Zestaw danych przedstawia różne dane do celów klasyfikacji. Wszystkie pokazane dane pochodzą z danych biometrycznych i zdjęć wykonanych z różnych kamer.
Autorzy oświadczają, że nie są im znane żadne konkurencyjne interesy finansowe ani powiązania osobiste, które mogłyby mieć wpływ na pracę opisaną w tym artykule.
Ten artykuł proponuje system oparty na sztucznej inteligencji, który automatycznie wykrywa, czy uczniowie zwracają uwagę na klasę, czy są rozproszeni. System ten ma za zadanie pomóc nauczycielom utrzymać uwagę uczniów, zoptymalizować ich lekcje i dynamicznie wprowadzać modyfikacje, aby były one bardziej angażujące.
Ta praca została opracowana dzięki finansowaniu z Programa Prometeo, numer projektu CIPROM/2021/017. Prof. Rosabel Roig jest przewodniczącą UNESCO "Edukacja, Badania i Integracja Cyfrowa".
| 4 procesory graficzne Nvidia A40 Ampere | Procesor graficzny NVIDIA | TCSA40M-PB | do scentralizowanego serwera przetwarzania modeli |
| FusionServer 2288H V5 | X-Fusion | 02311XBK | Platforma zawierająca zasilacz i płytę główną dla scentralizowanego serwera przetwarzania modeli |
| Karta pamięci Evo Plus 128 GB | Samsung | MB-MC128KA/EU | Karta pamięci do obsługi Raspberry Pi 4b 2GB. Po jednym dla każdej maliny. |
| NEMIX RAM - 512 GB Kit DDR4-3200 PC4-25600 8Rx4 EC | NEMIX | M393AAG40M32-CAE | RAM do scentralizowanego serwera przetwarzania modeli |
| Procesor Intel Xeon Gold 6330 | Intel | CD8068904572101 | Procesor dla scentralizowanego serwera przetwarzania modeli |
| Raspberry PI 4B 2GB | Raspberry | 1822095 | Serwer lokalny, który odbiera żądania z zegarów i wysyła je do serwera ogólnego. Jeden na dwóch uczniów. |
| Samsung Galaxy Watch 5 (40 mm) | Zegar Samsung | SM-R900NZAAPHE | , który monitoruje aktywność każdego ucznia. Dla każdego studenta. |
| Samsung MZQL23T8HCLS-00B7C PM9A3 3.84Tb Nvme U.2 PCI-Express-4 x4 2.5-calowy dysk SSD | Samsung | MZQL23T8HCLS-00B7C | Pamięć wewnętrzna dla scentralizowanego serwera przetwarzania modeli |
| Kamera internetowa HD Pro C920 Kamera internetowa FullHD | Logitech | 960-001055 | Kamera internetowa HD. Po jednym dla każdego ucznia plus dwa dla póz uczniów. |