RESEARCH
Peer reviewed scientific video journal
Video encyclopedia of advanced research methods
Visualizing science through experiment videos
EDUCATION
Video textbooks for undergraduate courses
Visual demonstrations of key scientific experiments
BUSINESS
Video textbooks for business education
OTHERS
Interactive video based quizzes for formative assessments
Products
RESEARCH
JoVE Journal
Peer reviewed scientific video journal
JoVE Encyclopedia of Experiments
Video encyclopedia of advanced research methods
EDUCATION
JoVE Core
Video textbooks for undergraduates
JoVE Science Education
Visual demonstrations of key scientific experiments
JoVE Lab Manual
Videos of experiments for undergraduate lab courses
BUSINESS
JoVE Business
Video textbooks for business education
Solutions
Language
ko_KR
Menu
Menu
Menu
Menu
A subscription to JoVE is required to view this content. Sign in or start your free trial.
Research Article
Please note that some of the translations on this page are AI generated. Click here for the English version.
Erratum Notice
Important: There has been an erratum issued for this article. View Erratum Notice
Retraction Notice
The article Assisted Selection of Biomarkers by Linear Discriminant Analysis Effect Size (LEfSe) in Microbiome Data (10.3791/61715) has been retracted by the journal upon the authors' request due to a conflict regarding the data and methodology. View Retraction Notice
이 논문은 학생들이 수업에 집중하고 있는지 또는 주의가 산만한지 자동으로 감지하는 인공 지능 기반 시스템을 제안합니다. 이 시스템은 교사가 학생들의 주의를 유지하고, 수업을 최적화하고, 학생들의 참여를 돕기 위해 동적으로 수정 사항을 도입할 수 있도록 설계되었습니다.
교실에서 학생들의 주의력 수준은 인공 지능(AI) 기술을 사용하여 향상시킬 수 있습니다. 주의 수준을 자동으로 식별함으로써 교사는 학생들의 집중력을 되찾기 위한 전략을 사용할 수 있습니다. 이는 다양한 정보 소스를 통해 달성할 수 있습니다.
한 가지 원천은 학생들의 얼굴에 반영된 감정을 분석하는 것입니다. AI는 중립, 혐오, 놀람, 슬픔, 두려움, 행복, 분노와 같은 감정을 감지할 수 있습니다. 또한 학생들의 시선 방향은 잠재적으로 학생들의 관심 수준을 나타낼 수도 있습니다. 또 다른 출처는 학생들의 신체 자세를 관찰하는 것입니다. 카메라와 딥 러닝 기술을 사용하여 자세를 분석하여 주의 수준을 결정할 수 있습니다. 예를 들어, 구부정한 자세를 취하거나 책상에 머리를 기대고 있는 학생은 주의력이 떨어질 수 있습니다. 학생들에게 배포되는 스마트워치는 심박수 및 관성 측정을 포함한 생체 인식 및 기타 데이터를 제공할 수 있으며, 이는 주의의 지표로도 사용할 수 있습니다. 이러한 정보 소스를 결합함으로써 AI 시스템은 교실에서 주의 수준을 식별하도록 훈련할 수 있습니다. 그러나 다양한 유형의 데이터를 통합하려면 레이블이 지정된 데이터 세트를 만들어야 하는 문제가 발생합니다. 정확한 라벨링을 위해 전문가의 의견과 기존 연구를 참조합니다. 이 논문에서는 이러한 측정의 통합과 데이터 세트 및 잠재적인 주의 분류기의 생성을 제안합니다. 교사에게 피드백을 제공하기 위해 스마트 워치 또는 다이렉트 컴퓨터와 같은 다양한 방법을 탐색합니다. 교사가 주의력 문제를 인식하게 되면 학생들을 다시 참여시키고 동기를 부여하기 위해 교수 방식을 조정할 수 있습니다. 요약하면, AI 기술은 학생들의 감정, 시선 방향, 신체 자세 및 생체 인식 데이터를 분석하여 학생들의 주의 수준을 자동으로 식별할 수 있습니다. 이 정보는 교사가 교수-학습 과정을 최적화하는 데 도움이 될 수 있습니다.
현대 교육 환경에서 학생들의 주의를 정확하게 평가하고 유지하는 것은 효과적인 교수 및 학습에 매우 중요합니다. 그러나 자기 보고 또는 주관적인 교사 관찰과 같은 참여도를 측정하는 전통적인 방법은 시간이 많이 걸리고 편향이 발생하기 쉽습니다. 이 문제를 해결하기 위해 인공 지능(AI) 기술이 자동화된 주의 감지를 위한 유망한 솔루션으로 부상했습니다. 학생들의 참여 수준을 이해하는 데 있어 한 가지 중요한 측면은 감정 인식이다1. AI 시스템은 얼굴 표정을 분석하여 중립, 혐오, 놀람, 슬픔, 두려움, 행복, 분노와 같은 감정을 식별할 수 있습니다2.
시선 방향과 몸의 자세도 학생들의 주의력을 나타내는 중요한 지표이다3. AI 시스템은 카메라와 고급 머신 러닝 알고리즘을 활용하여 학생들이 보는 곳을 정확하게 추적하고 신체 자세를 분석하여 무관심이나 피로의 징후를 감지할 수 있습니다4. 또한, 생체 인식 데이터를 통합하면 주의 감지의 정확성과 신뢰성이 향상된다5. 학생들이 착용하는 스마트워치를 통해 심박수 및 혈중 산소 포화도와 같은 측정값을 수집함으로써 주의력에 대한 객관적인 지표를 얻을 수 있고 다른 정보 소스를 보완할 수 있습니다.
이 논문은 컬러 카메라 및 기타 다양한 센서를 사용하여 개인의 주의 수준을 평가하는 시스템을 제안합니다. 감정 인식, 시선 방향 분석, 신체 자세 평가 및 생체 인식 데이터를 결합하여 교육자에게 교수-학습 프로세스를 최적화하고 학생 참여를 개선하기 위한 포괄적인 도구 세트를 제공합니다. 이러한 도구를 사용함으로써 교육자는 교수-학습 과정에 대한 포괄적인 이해를 얻고 학생 참여를 향상시켜 전반적인 교육 경험을 최적화할 수 있습니다. AI 기술을 적용하면 이 데이터를 자동으로 평가할 수도 있습니다.
이 작업의 주요 목표는 모든 정보를 캡처할 수 있는 시스템을 설명하고, 캡처한 후에는 실시간으로 전체 학급의 관심을 끌 수 있는 AI 모델을 훈련시키는 것입니다. 다른 연구에서는 이미 시각 또는 감성적 정보를 사용하여 관심을 끌 것을 제안했지만6 이 연구는 보다 복잡하고 효과적인 AI 기술을 사용할 수 있도록 총체적인 접근 방식을 제공하는 이러한 기술의 결합 사용을 제안합니다. 또한 지금까지 사용 가능한 데이터 세트는 비디오 세트 또는 생체 인식 데이터 중 하나로 제한됩니다. 문헌에는 학생의 얼굴이나 신체 이미지, 생체 인식 데이터, 교사의 위치에 대한 데이터 등이 포함된 완전한 데이터를 제공하는 데이터 세트가 포함되어 있지 않습니다. 여기에 제시된 시스템을 사용하면 이러한 유형의 데이터 세트를 캡처할 수 있습니다.
시스템은 각 시점에서 각 학생에 대한 관심 수준을 연결합니다. 이 값은 0%에서 100% 사이의 관심 확률 값으로, 낮은 주의 수준(0%-40%), 중간 수준의 주의(40%-75%) 및 높은 주의 수준(75%-100%)으로 해석될 수 있습니다. 텍스트 전체에서 이 주의 확률은 주의 수준, 학생 주의 또는 학생이 산만한지 여부라고 하지만 모두 시스템의 동일한 출력 값과 관련이 있습니다.
수년에 걸쳐 자동 참여 감지 분야는 교육에 혁명을 일으킬 수 있는 잠재력으로 인해 크게 성장했습니다. 연구자들은 이 연구 분야에 대한 다양한 접근 방식을 제안했습니다.
Ma et al.7 은 자동 교전 인식을 위한 뉴럴 튜링 머신(Neural Turing Machine)을 기반으로 하는 새로운 방법을 소개했습니다. 그들은 시선 응시, 얼굴 동작 단위, 머리 자세 및 신체 자세와 같은 특정 기능을 추출하여 참여 인식을 포괄적으로 표현했습니다.
또 다른 혁신적인 시스템인 아이탭 8(EyeTab8)은 모델을 사용하여 사람이 두 눈으로 어디를 보고 있는지 추정했습니다. 수정 없이 표준 태블릿에서 원활하게 작동하도록 특별히 제작되었습니다. 이 시스템은 이미지 처리 및 컴퓨터 비전 분석을 위해 잘 알려진 알고리즘을 활용합니다. 그들의 시선 추정 파이프라인에는 Haar와 같은 특징 기반 눈 감지기와 RANSAC 기반 limbus ellipse fitting 접근 방식이 포함됩니다.
상비(Sanghvi) 등9 은 시각 기반 기법을 사용하여 측면 시점으로 녹화된 비디오에서 표현적인 자세 특징을 자동으로 추출하여 어린이의 행동을 포착하는 접근 방식을 제안합니다. 상황에 맞는 정서적 자세 표현을 사용하여 여러 인식 모델의 훈련을 포함하는 초기 평가가 수행됩니다. 얻어진 결과는 자세 행동 패턴이 로봇과 어린이의 참여를 효과적으로 예측할 수 있음을 보여줍니다.
Gupta et al.10과 같은 다른 연구에서는 딥 러닝 기반 방법을 사용하여 얼굴 표정을 분석하고 감정을 분류하여 온라인 학습자의 실시간 참여를 감지합니다. 이 접근 방식은 얼굴 감정 인식을 활용하여 참여 및 이탈의 두 가지 참여 상태를 예측하는 참여 지수(EI)를 계산합니다. Inception-V3, VGG19 및 ResNet-50을 포함한 다양한 딥 러닝 모델을 평가하고 비교하여 실시간 참여 감지를 위한 가장 효과적인 예측 분류 모델을 식별합니다.
Altuwairqi et al.11에서 연구원들은 학생 참여 수준을 실시간으로 평가하기 위한 새로운 자동 다중 모드 접근 방식을 제시합니다. 정확하고 신뢰할 수 있는 측정을 보장하기 위해 연구팀은 학생들의 행동을 포착하는 세 가지 뚜렷한 양식, 즉 감정에 대한 얼굴 표정, 키보드 키 입력, 마우스 움직임을 통합하고 분석했습니다.
Guillén et al.12 은 작업을 수행하는 동안 개인의 인지적 주의의 유무를 분석하고 예측하기 위해 심전도(ECG)를 주요 생리학적 신호로 사용하는 모니터링 시스템의 개발을 제안합니다.
Alban et al.13 은 신경망(NN)을 활용하여 시간 및 주파수 영역에서 다양한 참가자의 심박수(HR) 및 전기 활동(EDA) 값을 분석하여 감정을 감지합니다. 그들은 RMSDD(Root-Mean-Square of Consecutive Differences) 및 SDNN(Standard Devation Normal-to-Normal) 간격의 증가와 평균 HR의 감소가 두려움과 관련된 교감신경계의 활동이 증가했음을 나타낸다는 것을 발견했습니다.
Kajiwara 등[14 ]은 웨어러블 센서와 심층 신경망을 사용하여 근로자의 감정 및 참여 수준을 예측하는 혁신적인 시스템을 제안합니다. 시스템은 3단계 프로세스를 따릅니다. 처음에는 웨어러블 센서가 동작과 맥파에 대한 데이터를 캡처하고 수집합니다. 그 후, 시계열 특징은 획득된 행동 및 생리학적 데이터를 기반으로 계산됩니다. 마지막으로, 심층 신경망은 시계열 기능을 입력하고 개인의 감정과 참여 수준을 예측하는 데 사용됩니다.
Costante et al.15과 같은 다른 연구에서는 사용자 정의 제스처의 인식을 향상시키기 위해 사전 정의된 제스처 세트에 대한 사전 지식을 활용하는 새로운 전송 메트릭 학습 알고리즘을 기반으로 하는 접근 방식이 제안됩니다. 이러한 개선은 추가 학습 샘플에 대한 의존도를 최소화하면서 달성됩니다. 이와 유사하게, 센서 기반 인간 활동 인식 프레임워크(sensor-based human activity recognition framework)(16)는 복잡한 인간 활동에 대한 비인격적 인식의 목표를 다루기 위해 제시된다. 손목에 착용하는 센서에서 수집된 신호 데이터는 웨어러블 장치 사용자가 수행한 활동을 조사하기 위해 4개의 RNN 기반 DL 모델(Long-Short Term Memories, Bidirectional Long-Short Term Memories, Gated Recurrent Units 및 Bidirectional Gated Recurrent Units)을 사용하여 개발된 인간 활동 인식 프레임워크에 활용됩니다.
다음 프로토콜은 승인된 프로토콜 번호 UA-2022-11-12로 알리칸테 대학교의 인간 연구 윤리 위원회의 지침을 따릅니다. 이 실험 및 여기의 데이터 사용에 대해 모든 참가자로부터 정보에 입각한 동의를 얻었습니다.
1. 하드웨어, 소프트웨어 및 클래스 설정

그림 1: 하드웨어 및 데이터 파이프라인. 카메라와 스마트워치 데이터가 수집되어 기계 학습 알고리즘에 공급되어 처리됩니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

그림 2: 센서, 교사 및 학생의 위치. 교사와 학생이 있는 교실에서 카메라, 스마트워치 및 GUI의 위치를 보여주는 다이어그램. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.
2. 캡처 및 데이터 처리 파이프라인
참고: 이러한 모든 단계는 서버에 배포된 소프트웨어를 처리하여 자동으로 수행됩니다. 이 작업의 실험에 사용된 구현은 Python 3.8로 작성되었습니다.

그림 3: 스마트워치로 캡처한 데이터. 스마트워치는 자이로스코프, 가속도계, 심박수 및 조명 상태를 데이터 스트림으로 제공합니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

그림 4: 활동 인식 모델에서 고려하는 범주의 예. 활동 인식 모델은 네 가지 다른 동작, 즉 필기, 키보드로 입력, 스마트폰 사용, 휴식 자세를 인식합니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.
이 연구의 대상 그룹은 학부생과 석사생이므로 주요 연령 그룹은 18세에서 25세 사이입니다. 이 모집단은 어린 학생들보다 산만함이 적은 전자 장치를 다룰 수 있기 때문에 선택되었습니다. 이 그룹에는 총 25명이 포함되었습니다. 이 연령대는 제안서를 테스트하기 위해 가장 신뢰할 수 있는 결과를 제공할 수 있습니다.
교사에게 보여지는 주의 수준의 결과는 2부분으로 나뉩니다. 결과의 파트 A는 각 학생의 현재 주의 수준에 대한 개별 정보를 보여줍니다. 그런 다음 파트 B는 수업 전반에 걸쳐 전체 반원의 평균적인 관심과 시간적 역사를 얻기 위한 것입니다. 이를 통해 교실에서 학생의 관심에 대한 일반적인 추세를 포착하고 교사가 사용하는 방법론을 실제 방식으로 조정할 수 있습니다. 인터페이스는 매초마다 서버에서 새로운 정보를 요청합니다. 또한 이 보기는 브라우저 알림 사용을 통합하여 교사가 이 GUI를 전경에 유지할 필요 없이 정상적으로 활동을 수행하는 동안 학생들의 주의에 대한 급격한 변화를 방해가 되지 않는 방식으로 표시할 수 있습니다. 이 GUI의 예는 그림 5에서 볼 수 있습니다.

그림 5: 시스템의 그래픽 사용자 인터페이스 관심 수준은 태블릿, 스마트폰, 데스크톱 또는 랩톱 컴퓨터와 같은 모든 지원 장치의 모든 인터넷 브라우저에서 액세스할 수 있는 GUI에 표시됩니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.
활동 인식 모델의 경우, 순환 신경망(recurrent neural network)이 정의되어, 각각 6개의 값을 입력으로 사용하여 200개의 측정 시퀀스를 수신합니다(즉, 가속도계에서 3개의 값, 자이로스코프에서 3개의 값). 이 모델에는 64개의 유닛이 있는 LSTM 계층과 4개의 출력 뉴런(범주당 하나씩)이 있는 SoftMax 활성화 완전 연결 계층이 있습니다. 아키텍처는 그림 6에 나와 있습니다.

그림 6: 활동 분류자의 아키텍처. 입력으로 모델은 스마트워치 데이터를 가져와서 LSTM 계층을 통해 처리한 다음 완전히 연결된 계층을 통해 처리합니다. 출력은 각 활동을 나타내는 표본의 확률입니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.
출력으로, 분류자는 학생이 수행하는 예상 동작에 해당하는 클래스를 반환합니다. 이 신경망은 6명의 다른 개인으로부터 캡처한 데이터를 사용하여 훈련되었습니다. 각각은 200초 동안 4가지 다른 범주의 작업을 수행하는 동안 기록되었습니다. 수집된 모든 데이터는 복제되어 X축의 센서에서 얻은 값을 반전시켜 새로운 미러링된 데이터 세트를 생성했습니다. 이것은 모든 개인의 오른손과 왼손 모두에서 데이터를 수집하는 것과 유사합니다. 이는 기계 학습 영역의 일반적인 관행이며 과적합을 방지하기 위해 기존 데이터 세트에서 더 많은 샘플을 생성하기 위한 것입니다.
200개의 측정값(초당 하나의 레코드)은 창을 한 번에 1초씩 이동하여 LSTM 네트워크의 입력과 일치하도록 4초의 스트림으로 그룹화됩니다. 그 결과, 4초 간격으로 197개의 데이터 조합을 얻었습니다. 요약하면 총 9,456개의 데이터 입력, 6명의 사람, 4개의 클래스, 2개의 손, 197개의 훈련 세트가 있습니다. 데이터는 90% 훈련과 10% 검증으로 분리되었으며, 네트워크는 300 Epoch와 64의 배치 크기에 대해 훈련되었습니다.
그림 7에서 볼 수 있듯이 모델은 300 epoch 동안 훈련되었습니다. 검증 손실은 0.1% 미만이었고 검증 정확도는 97%였습니다. 얻어진 메트릭은 모델의 우수한 성능을 강조합니다.

그림 7: 교육 및 검증 손실과 정확도. 훈련 및 검증 손실과 정확도는 모델 성능이 적절하고 과적합으로 인한 문제가 없음을 보여줍니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.
마지막으로, 각 하위 시스템(머리 자세, 자세 추정, 감정 예측 및 활동 인식)의 결과는 학생이 수업에 주의를 기울이고 있는지 여부에 대한 확률 값을 제공하는 부스팅 분류기로 병합됩니다.
정확한 라벨링과 전문가 의견을 제시하기 위한 개념적, 절차적 명확성을 위해 기존 연구를 참조하여 아래에 설명했습니다.
전문가 의견과 관련하여, 델파이 방법(Delphi method)이 선택되었는데, 이는 기술 분야(23)에서 점점 더 관련성이 높아지고 있는 방법이다. 이전 간행물에서 지적한 바와 같이, 델파이 방법은 주제에 대한 의견을 생성하고 해당 주제에 대한 전문가들 간의 합의를 탐색하기 위한 반복적, 그룹적, 익명 프로세스로 정의됩니다23. 여기에 제시된 사례에서는 6명의 전문가가 Khodyakov et al.24의 동의하에 2주 동안 2차례의 자문에 참여했습니다. 참가 전문가 프로필의 중요성 때문에 이번 컨설팅에는 심리학, 교육학 및 컴퓨터 과학 분야의 대학 학술 전문가가 포함되었습니다. 데이터를 수집하기 위해 정량적 방법을 사용했습니다. 그 결과 이 연구에서 사용된 라벨링에 대한 합의가 이루어졌습니다.
라벨링의 기초로 참조된 연구와 관련하여, 우리는 WOS 및 Scopus와 같은 주요 데이터베이스에 대한 탐색적 연구로 시작했습니다. 이와 관련하여 선행 연구25,26,27,28의 기여는 언급할 가치가 있다. 이들 모두는 특정 관점에서 돌봄의 문제를 다루지만, 이 연구가 다루고자 하는 것처럼 지능적인 시스템에서 전체론적 방식으로 다루지는 않는다. 반면에, Zaletelj et al.29과 같이 얼굴 및 신체 특징에 초점을 맞춘 두 가지 특정 출처를 결합한 연구가 있지만, 이 연구와 같은 글로벌 접근 방식과는 거리가 멉니다. 이전 연구 중 하나는 이 연구에서 고려된 Posner의 분류법을 인용하여30개를 두드러집니다. Posner는 주의력을 분리 가능한 신경 시스템(주의력, 방향 지시 및 실행 통제)의 집합으로 간주하며, 이들은 종종 행동을 조직하기 위해 함께 작동한다30.
부스팅 분류기는 분류기의 각 약한 출력에 대한 가중치를 학습하고 각 개별 결정의 가중치 조합을 통해 최종 값을 생성하는 앙상블 알고리즘입니다. 2.9단계에서 논의된 바와 같이 이 정보는 웹 인터페이스를 통해 실시간으로 제공되므로 교사는 브라우저 알림을 통해 학급의 주의 수준이 급격히 변하는 것을 알 수 있습니다. 학생들의 전반적인 집중 수준의 실시간 변화를 보여주는 이 시각화 인터페이스를 통해 교사는 학생들을 수업에 참여시키고 수업에서 더 많은 것을 얻을 수 있도록 수업을 조정할 수 있습니다.
표 1 은 다음 요소로 구성된 데이터 세트 구조를 보여줍니다. 개별 카메라: 960 x 720 픽셀 RGB에서 초당 하나의 이미지; Zenital 카메라: 1920 x 1080 픽셀 RGB에서 초당 2개 이미지; 자이로스코프: 초당 50개의 데이터, 각 데이터는 좌표 X, Y, Z에 해당하는 19개의 십진수 값을 가진 3개의 부동 소수점 값으로 분해됩니다. °/s 단위로 각가속도를 측정합니다. 가속도계: 초당 50개의 데이터, 각 데이터는 좌표 X, Y, Z에 해당하는 19개의 십진수 값을 가진 3개의 부동 소수점 값으로 분해됩니다. m/s2 단위로 가속도를 측정합니다. 회전 벡터: 초당 50개 데이터, 각 데이터는 소수점 이하 19자리(-1과 1 사이의 값)가 있는 4개의 부동 소수점 값(-1과 1 사이의 값)이 있는 쿼터니언으로 분해됩니다. 심박수: 초당 하나의 값, 분당 박동 측정; 광 센서 : 초당 약 8-10 개의 값으로 광 수준을 정수로 측정합니다. 머리 방향: 각 이미지에 대해 소수점 이하 3개의 숫자는 머리의 기울기를 나타내는 X축(롤), Y축(피치) 및 Z축(요)을 나타냅니다. 신체 포즈: 각 이미지에 대해 18개의 십진수는 9개의 키 포인트의 X 및 Y 좌표를 나타냅니다.
| 개별 카메라 | Zenithal 카메라 | 자이로스코프 | 가속도계 | 회전-벡터 | 심박수 | 조명 상태 | 머리 방향 | 신체 포즈 |
| 960 x 720 픽셀 RGB 이미지 | 2 x (1920 x 1080 픽셀) | 50 x 3 (XYZ) | 50 x 3 (XYZ) | 50 x 쿼터니언 | 분당 비트 수 | 10 x 루멘 | 3(XYZ) 10진수 | 9 x 2(XY) 십진수 |
| RGB 이미지 | 10 진수 | 10 진수 |
표 1: 데이터 세트의 구조. 데이터 세트는 분류를 위해 다양한 데이터를 표시합니다. 표시된 모든 데이터는 생체 인식 데이터와 다른 카메라에서 찍은 이미지에서 가져온 것입니다.
저자들은 이 논문에 보고된 연구에 영향을 미칠 수 있는 경쟁적인 재정적 이해관계나 개인적 관계를 알지 못한다고 선언합니다.
이 논문은 학생들이 수업에 집중하고 있는지 또는 주의가 산만한지 자동으로 감지하는 인공 지능 기반 시스템을 제안합니다. 이 시스템은 교사가 학생들의 주의를 유지하고, 수업을 최적화하고, 학생들의 참여를 돕기 위해 동적으로 수정 사항을 도입할 수 있도록 설계되었습니다.
이 작업은 Programa Prometeo(프로젝트 ID CIPROM/2021/017)의 자금 지원으로 개발되었습니다. Rosabel Roig 교수는 유네스코 "교육, 연구 및 디지털 포용"의 의장입니다.
| GPU 4개 Nvidia A40 Ampere | NVIDIA | TCSA40M-PB | GPU 중앙 집중식 모델 처리 서버용 |
| FusionServer 2288H V5 | X-Fusion | 02311XBK | 플랫폼에는 중앙 집중식 모델 처리 서버용 전원 공급 장치 및 마더보드가 포함되어 있습니다 |
| 메모리 카드 Evo Plus 128 GB | Samsung | MB-MC128KA/EU | 메모리 카드는 Raspberry Pi 4b 2GB의 작동을 위한 것입니다. 라즈베리 한 개당 하나씩. |
| NEMIX RAM - 512 GB 키트 DDR4-3200 PC4-25600 8Rx4 EC | NEMIX | M393AAG40M32-CAE | RAM 중앙 집중식 모델 처리 서버용 |
| 프로세서 Intel Xeon Gold 6330 | Intel | CD8068904572101 | 프로세서 중앙 집중식 모델 처리 서버용 |
| Raspberry PI 4B 2GB | Raspberry | 1822095 | 클럭에서 요청을 받아 일반 서버로 보내는 로컬 서버. 학생 2명당 1명. |
| 삼성 갤럭시 워치 5 (40mm) | 삼성 | SM-R900NZAAPHE | 각 학생의 활동을 모니터링하는 시계. 각 학생을 위해. |
| 삼성 MZQL23T8HCLS-00B7C PM9A3 3.84Tb Nvme U.2 PCI-Express-4 x4 2.5인치 SSD | 삼성 | MZQL23T8HCLS-00B7C | 중앙 모델 처리 서버용 내부 저장소 |
| 웹캠 HD Pro C920 웹캠 FullHD | Logitech | 960-001055 | 웹캠 HD. 각 학생당 1개, 학생 포즈에 2개. |